Quand la connaissance rencontre le Libre ça donne un livre exemplaire

Un livre sur la théorie homotopique des types vient d’être publié par des mathématiciens. A priori ça ne concerne que les spécialistes du sujet…

Et pourtant ça concerne tout le monde, tant sa conception originale et les leçons qui en sont tirées ci-dessous ont valeur d’exemplarité.

Du Libre à tous les étages (LaTeX, Creative Commons By-Sa…) mais surtout dans son état d’esprit de partage et de collaboration. Un projet et un article passionnants, à faire lire dans la sphère académique et bien au-delà.

Remarque : Pour commencer, on pourra voir cette courte vidéo « making-of » du livre.

Homotopy Type Theory - The team

Le livre HoTT

The HoTT book

Andrej Bauer – 20 juin 2013 – Blog personnel
(Traduction : Lgodard, Ilphrin, tcit, Guillaume, igor_d, Yaf, ronanov, fif + anonymes)

Le livre HoTT est terminé !

Depuis le printemps, et même avant, j’ai participé à un super effort collaboratif pour écrire un livre à propos de la Théorie homotopique des types (NdT : HoTT en anglais pour Homotopy Type Theory). Il est enfin terminé et accessible au public. Vous pouvez obtenir le livre librement et gratuitement. Mike Shulman a écrit à propos du contenu de ce livre, donc je ne vais pas répéter cela ici. À la place, je voudrais commenter les aspects socio-technologiques de la création du livre, et en particulier de ce que nous avons appris de la communauté open source sur la recherche collaborative.

Nous sommes un groupe de deux douzaines de mathématiciens qui avons écrit un livre de 600 pages en moins de 6 mois. C’est assez impressionnant, d’autant que les mathématiciens n’ont pas l’habitude de travailler ensemble au sein de grands groupes. Dans un petit groupe ils peuvent s’en sortir en utilisant des technologies obsolètes, comme envoyer aux autres un fichier source LaTeX par email, mais avec deux douzaines de personnes, même Dropbox ou n’importe quel autre système de synchronisation de fichier aurait échoué lamentablement. Par chance, beaucoup d’entre nous sont des chercheurs en Informatique déguisés en mathématiciens, donc nous savions comment attaquer les problèmes de logistique. Nous avons utilisé git et github.com.

Au début, il a fallu convaincre les gens, et se faire à l’outil. Malgré tout, cela n’a pas été trop difficile. À la fin, le dépôt sur le serveur n’était pas seulement une archive pour nos fichiers, mais également un point central pour notre planification et nos discussions. Durant plusieurs mois j’ai consulté GitHub plus souvent que mes emails ou Facebook. Github était mon Facebook (sans les petits chats mignons). Si vous ne connaissez rien aux outils comme git mais que vous écrivez des articles scientifiques (ou que vous créez n’importe quel type de contenu numérique) vous devriez vraiment, vraiment vous renseigner sur des systèmes de gestion de versions. Même en tant que seul auteur d’un article, vous allez gagner à apprendre comment en utiliser un, sans même parler des belles vidéos que vous pouvez produire sur la manière dont vous avez écrit votre papier.

Mais de manière plus importante, c’est l’esprit collaboratif qui imprégnait notre groupe à l’Institute for Advanced Study (Princeton) qui était incroyable. Nous ne nous sommes pas éparpillés. Nous avons discuté, partagé des idées, expliqué certains éléments les uns aux autres, et avons totalement oublié qui avait fait quoi (à tel point que nous avons dû faire des efforts pour reconstruire un historique de peur que ce ne soit oublié pour toujours). Le résultat final a été une augmentation considérable de notre productivité.

Il y a une leçon à en tirer (mis à part le fait que l’Institute for Advanced Study est évidemment le meilleur institut de recherche au monde), à savoir que les mathématiciens ont à gagner à devenir un peu moins possessifs vis-à-vis de leurs idées et leurs résultats. Je sais, je sais, une carrière académique dépend de la juste répartition des mérites de chacun et ainsi de suite, mais ce sont seulement les idiosyncrasies de notre époque. Si nous pouvons faire en sorte que les mathématiciens partagent des idées à moitié développées, ne s’inquiètent pas de savoir qui a apporté quelle contribution à un article, ou même qui en sont les auteurs, alors nous atteindrons un nouveau niveau de productivité encore jamais imaginé. Le progrès est le fait de ceux qui osent enfreindre les règles.

Les milieux de recherche vraiment ouverts ne peuvent être gênés par le copyright, les éditeurs qui s’accaparent le profit, les brevets, les secrets commerciaux, et les programmes de financement qui sont basés sur des outils de mesures de réussite défectueux. Malheureusement nous sommes tous coincés dans un système qui souffre de ces maux. Mais nous avons fait un premier pas dans la bonne direction en mettant le code source du livre disponible librement sous une licence permissive Creative Commons (la CC-By-Sa). N’importe qui peut prendre le livre et le modifier, nous envoyer des améliorations et des corrections, le traduire, ou même le vendre sans même nous donner le moindre sou (si cette dernière phrase vous a quelque peu crispé c’est que vous avez été conditionné par le système).

Homotopy Type Theory - Couverture

Nous avons décidé de ne pas faire publier le livre par un éditeur académique pour le moment car nous voulions qu’il soit accessible à tous, rapidement et sans frais. Le livre peut être téléchargé gratuitement, ou bien acheté à peu de frais avec une couverture rigide ou souple sur lulu.com (quand avez-vous pour la dernière fois payé moins de 30$ pour une monographie de 600 pages à couverture rigide ?). Une fois de plus, j’entends déjà certaines personnes dire : « oh mais un vrai éditeur universitaire est synonyme de qualité ». Cette façon de penser rappelle les arguments opposant Wikipédia et Britannica, et nous savons tous comment cette histoire s’est terminée. Oui, la bonne qualité de la recherche doit être assurée. Mais une fois que nous acceptons le fait que n’importe qui peut publier n’importe quoi sur Internet permettant au monde entier de le consulter et en faire un livre bon marché à l’air professionnel, nous réalisons rapidement que la censure n’est plus efficace. À la place, nous avons besoin d’un système décentralisé d’approbation qui ne pourrait pas être manipulé par des groupes d’intérêts spéciaux. Les choses sont en train de bouger dans cette direction, avec la création récente du Selected Papers Networks (Réseaux d’écrits sélectionnés) et d’autres projets similaires. J’espère qu’ils auront un bel avenir.

Cependant, il y a quelque chose d’autre que nous pouvons faire. C’est plus radical, mais aussi plus utile. Plutôt que de laisser les gens se contenter d’évaluer les articles, pourquoi ne pas leur donner une chance de participer et aussi d’améliorer ces articles ? Mettez tous vos articles sur GitHub et laissez les autres en discuter, poser des questions, les utiliser comme bases pour leur travail (fork), les améliorer, et vous envoyer des corrections. Est-ce que cela paraît fou? Bien sûr que oui, l‘open source paraissait également une idée folle lorsque Richard Stallman a lancé son manifeste. Soyons honnêtes, qui va vous voler votre code source LaTeX ? Il y a bien d’autres choses de valeur susceptibles d’être volées. Si vous êtes un professeur titulaire vous pouvez vous permettre d’ouvrir le chemin. Faites-vous enseigner git par vos thésards et mettez vos trucs dans un endroit public. N’ayez pas peur, ils vous ont titularisé pour que vous fassiez des choses comme ça.

Donc nous invitons tout le monde à améliorer le livre en participant sur GitHub. Vous pouvez laisser des commentaires, signaler des erreurs, et même mieux, faire des corrections par vous-même ! Nous n’allons pas nous inquiéter de savoir qui vous êtes et combien vous contribuez et qui devrait recevoir les honneurs. La seule chose qui importe est de savoir si vos contributions sont bonnes.

Ma dernière observation est à propos de la formalisation des mathématiques. Les mathématiciens aiment imaginer que leurs publications peuvent en principe être formalisées dans la Théorie des Ensembles. Ceci leur donne un sentiment de sécurité, qui n’est pas différente de celui ressenti par un croyant entrant dans une cathédrale d’âge canonique. C’est une forme de foi professée par les logiciens. La Théorie homotopique des types est un fondement alternatif à la Théorie des Ensembles. Nous revendiquons nous aussi que les mathématiques ordinaires peuvent en principe être formalisées en Théorie homotopique des types . Mais devinez quoi, vous n’avez pas à nous croire sur parole ! Nous avons formalisé les parties les plus complexes du livre HoTT et vérifié les preuves avec des assistants de preuve électroniques. Pas une fois mais deux. Et nous avons formalisé en premier lieu, puis nous avons écrit le livre car c’était plus simple de formaliser. Nous sommes gagnants sur tous les plans (s’il y a une compétition).

J’espère que le livre vous plaira, il contient une impressionnante quantité de mathématiques inédites.

Homotopy Type Theory - Tor




Wikipédia face aux institutions, par Éric Bruillard

Éric Bruillard est professeur au STEF – ENS Cachan.

L’article ci-dessous reprend une présentation faite le 15 décembre 2012 lors des Rencontres Wikimédia, à l’université Paris Descartes.

Remarque : Vous pouvez également accéder directement à la version ODT et PDF du document.

Kalexanderson - CC by

Wikipédia face aux institutions

Éric Bruillard – décembre 2012

Introduction

Il y a cinq ans, en mars 2007, j’avais écrit un article intitulé « Wikipédia : la rejeter ou la domestiquer ». J’avançais l’idée, qui a souvent été mal comprise, que Wikipédia ne pouvait pas « avoir une présence reconnue dans l’enseignement en France, ses principes mêmes (neutralité) n’étant pas compatibles avec les valeurs de l’école laïque et républicaine française, valeurs qui conduisent à privilégier certains points de vue et à en interdire d’autres ». J’ajoutais que Wikipédia pouvait cependant avoir une place, d’une part comme projet encyclopédique avec des participations actives à ce projet, comme faire écrire des articles à des élèves, et, d’autre part, comme une encyclopédie à laquelle beaucoup auraient recours, dans une posture de consommateur.

Ces deux directions ont été effectivement suivies, et des utilisations constructives sont repérables dans l’enseignement secondaire ou supérieur, quoique la « consommation » est certainement beaucoup plus développée que la participation. Mais Wikipédia aurait-elle maintenant une présence reconnue dans l’éducation ?

Dans un premier temps, nous allons tenter de situer les discours généraux sur Wikipédia, notamment dans l’éducation nationale. Ensuite, nous verrons en quoi Wikipédia est maintenant une véritable institution, statut qui n’est pas sans poser de nouvelles questions. Enfin nous traiterons la question de l’évaluation des articles de cette encyclopédie : une évaluation interne s’est installée alors que l’évaluation externe ne semble pas beaucoup progresser : serait-ce révélateur de relations encore difficiles avec un projet collectif que l’on a toujours du mal à appréhender ?

Wikipédia : quoi de neuf depuis 2007 ?

Le premier constat que l’on peut faire, sans avoir spécialement besoin de l’étayer, est celui de la croissance impressionnante du projet Wikipédia : une présence très importante (notamment via Google), des utilisations qui se multiplient, notamment dans l’éducation, de nouveaux projets associés…

Pourtant, face à ce formidable déploiement, on s’aperçoit, notamment à travers le discours d’étudiants ou d’enseignants, d’une méconnaissance persistante du fonctionnement de Wikipédia, d’idées reçues tenaces, d’utilisations contestées, d’interrogations sur la fiabilité…

Wikipedia nous aide d’ailleurs à cerner ce que qu’est une idée reçue : « une opinion, située entre le stéréotype, le cliché et le lieu commun », précisant qu’elle a « la particularité de s’admettre aisément » parce qu’elle est « très répandue, que celui qui la transmet la considère très souvent comme évidemment démontrée ; elle est agréable à admettre, parce qu’elle répond (le plus souvent simplement) à une question redondante, ou gênante, ou complexe : elle aide à ne plus réfléchir et s’impose insidieusement ». Justement, un peu de réflexion s’impose.

Comme il est possible à n’importe qui de créer ou modifier le contenu d’un article, que ce n’est pas réservé à des spécialistes, il ne semble pas possible qu’il y ait des articles de qualité et on ne peut en aucun cas s’en remettre à Wikipédia. Ce discours de sagesse populaire continue à être très souvent énoncé. Prenons juste un seul exemple : “Wikipedia is a free, web-based, collaborative, multilingual encyclopedia project. Anybody is able to change, add or remove articles on Wikipedia. This of course is prone to many problems as some authors may be: biased, vandalise the article or write incorrect information.”

Les études comparatives qui ont été menées attestent du contraire et l’expérience quotidienne de nombre d’entre nous montre qu’on lui fait malgré tout confiance. Peu d’études nouvelles sont disponibles. La seule étude récente est intitulée Assessing the accuracy and quality of Wikipedia entries compared to popular online encyclopaedias A preliminary comparative study across disciplines in English, Spanish and Arabic. Mais les auteurs remercient la Wikimedia Foundation pour son soutien financier. D’autres institutions ne sont sans doute intéressées à financer une évaluation des articles de Wikipedia, préférant laisser planer le doute et les idées reçues.

Quelle présence officielle dans l’éducation ?

Si la neutralité de l’éducation nationale française l’invite à ne pas citer de marque ou de nom de produit dans ses programmes officiels, sauf exception, elle est conduite à veiller sur ce qui est proposé. Une recherche sur le site officiel Eduscol atteste de la présence de Wikipédia.

On trouve des revues de presse ; un dossier déjà ancien sur les usages pédagogiques ; des recommandations, des définitions issues de Wikipédia, le fait que Wikipedia offre une nouvelle fonctionnalité (l’exportation de pages au format epub, ce qui permet de constituer une sélection d’articles à consulter hors ligne sur une liseuse ou sur smartphone).

On trouve également référence à Wikipedia dans des sujets de bac, des ressources pour la résolution de problèmes, des dossiers pédagogiques… mais avec le plus souvent des modes de citation approximatifs (cf page 2 de ce document). Dans les ressources pour la classe terminale générale et technologique, Physique-chimie, Série S (Eduscol), on trouve 10 références à Wikipédia.

Ce bref tour d’horizon nous en apprend plus sur le système éducatif que sur Wikipédia. Cette dernière apparaît pratique et très utile, mais demeure un motif récurrent de complaintes, attestant des difficultés (ou de l’incapacité ?) du système éducatif à traiter les évolutions en cours sur les savoirs, leur diffusion, leur mise en question… Une utilisation parfois « honteuse », que l’on peut rapprocher des usages des calculatrices en collège il y a quelques années[1] : une sur utilisation, une maîtrise très diversifiée et un manque de formation des élèves. Au début du collège, utiliser la calculatrice est considéré comme une tricherie, il ne faudrait s’en servir que pour contrôler les résultats des opérations que l’on fait à la main. Mais dès la 4e, la tricherie est quelque sorte légalisée, notamment avec les fonctions trigonométriques, et ceux qui ont acquis une bonne maîtrise des calculatrices, sont alors avantagés. Le système éducatif prend peu en charge, voire pas du tout, la formation des élèves à cette maîtrise.

Wikipédia - Eduscol

Wikipédia dans le site Eduscol – 10 décembre 2012

Les objets informatiques spécifiques du système éducatif ne sont pas bien traités par Wikipédia. Ainsi, l’article ENT est encore une ébauche de piètre qualité. On retrouve une même ébauche, non signalée comme telle, sur l’expression « manuel numérique », page modifiée pour la dernière fois le 28 juin 2010[2]. C’est une version quasi « ministérielle » qui est proposée, la page « discussion » n’est pas ouverte et aucun article dans une autre langue n’est associé. Ce n’est toutefois par mieux en anglais où l’article “digital textbook” est une présentation du programme de ministère de l’éducation de Corée du Sud ! Les exemples sont coréens, avec des liens vers Toshiba et Fujitsu. Il s’agit d’un article sur le projet coréen, et pas sur l’initiative californienne par exemple.

Enfin, pour clore ce rapide tour d’horizon, un site de l’académie de Montpellier propose de « créer un manuel numérique à l’aide de Wikipédia ». Il est écrit : « Wikipédia est une excellente ressource pour construire un livre numérique dans le but d’explorer un sujet ou d’entamer une recherche documentaire. Pour inciter les étudiants à utiliser Wikipédia comme outil de départ plutôt que comme finalité d’une recherche, un enseignant peut facilement fournir à ses étudiants une collection d’articles de références sous la forme d’un livre numérique. Retrouvez les différentes étapes de création d’un livre numérique dans un mode opératoire mis à disposition sur le site “Prof Web”. »

Si on clique sur l’adresse indiquée, on retrouve le même paragraphe à la virgule près, puis un petit mode d’emploi. Tous les éléments sont présents : citation et même copié-collé. Un exemple mais avec la parapluie de la bonne pratique (il faut utiliser simplement comme point de départ). On se sert de Wikipedia mais d’une manière non risquée !!! On ne cherche pas à comprendre, mais à trouver une pratique que l’on considère légitime et que les autres ne pourront pas contester.

Cette méfiance persistante sur un projet maintenant très établi ne cache-t-elle pas des caractéristiques encore mal connues ou mal comprises. Et Wikipedia, s’il est encore regardé de travers par les institutions, ne serait-il pas aussi une institution ?

Wikipédia est une institution

En effet, pour la recherche, une simple interrogation sur Wikipedia dans Google Scholar produit de très nombreux résultats ; depuis 2011 : 45 700 résultats ; depuis 2012 : 23 100 résultats (à titre de comparaison, on obtient pour les mêmes dates concernant Britannica : 13100 / 7320). Dans les travaux auxquels on accède, il y a des études sur le fonctionnement même de Wikipédia : contenus, conflits, participation, etc. ; des outils pour Wikipédia.

Issus de son fonctionnement même, l’encyclopédie fournit des corpus très utiles pour les linguistes, notamment les paraphrases et modifications locales dans l’historique des révisions des articles, conduisant à améliorer les performances d’applications de TAL : traduction automatique, question-réponse, génération…

Encore plus intéressant, dans un processus d’institutionnalisation de Wikipédia, le projet Semanticpedia associe le ministère de la culture, l’INRIA et Wikimedia France. Cette collaboration vise à « réaliser des programmes de recherche et développement appliqués à des corpus ou des projets collaboratifs culturels, utilisant des données extraites des projets Wikimédia ». Il s’agit notamment de fournir des données culturelles accessibles à tous, dans une version Web sémantique structurée ; en gros devenir la référence pour la culture avec des modes d’interrogation très avancés dans des formes de déclaration sémantique.

Wikipédia est même vu comme un nouvel outil d’évaluation : une évaluation de la réputation ponctuelle, la fréquentation de Wikipédia étant considéré comme outil de mesure ; mais aussi, l’influence qu’une personne a sur un pays ou même sur une civilisation, qui pourrait être mesurée en fonction des liens menant à sa page Wikipédia.

Ainsi, Wikipédia est devenu outil de référence, même s’il s’en défend. C’est déjà un attracteur très puissant pour les recherches et, selon Kien Quach Tat[3] (2011), au Vietnam, Wikipédia est ce qui permet aux lycéens de valider une information trouvée sur un autre site.

Quelle implication du fait que Wikipédia est une institution ? Peut-on être en dehors de Wikipédia ? Comme elle devient la référence, peut-on continuer à l’ignorer, si une information nous concernant est fausse, peut-on encore traiter cela par le mépris ou l’absence de réaction n’est pas une sorte d’acquiescement ? En tous cas, si Wikipedia gère très efficacement les vandalismes, on sait qu’elle est mal armée pour lutter contre des organisations qui cherchent à imposer leur point de vue. Un projet d’émancipation ne s’est-il pas transformé en un instrument de domination ? On n’en est pas (encore) là ! Demeure une question clé : comment évaluer un article de Wikipédia ?

Comment évaluer un article de Wikipédia ?

En 2007, Wikipédia précisait qu’elle n’avait pas les moyens de juger de la crédibilité d’une information et que la fondation cherchait des solutions à cette absence de validation du contenu des articles, notamment « par l’ajout de systèmes de notation, d’identification des versions non vandalisées et par des collaborations avec des chercheurs et des enseignants » (Bruillard, 2007). Des avancées importantes ont été réalisées. Wikipédia évalue elle-même les articles qu’elle produit. Ainsi, l’article Projet :Évaluation est consacré à « déterminer l’état des articles de Wikipédia selon deux critères : leur importance et leur avancement ».

Mais quelle évaluation externe peut-on trouver ?

Quand on lance la requête « évaluation article Wikipédia », via Google, environ 16 900 000 de résultats (0,42 secondes) sont fournis. Mais la grande majorité de ces résultats correspondent à des articles de Wikipedia. La requête « évaluer un article de Wikipédia » -wikipedia.org ne donne aucun résultat. Enlever les guillemets dans la requête conduit à 8 040 000 résultats (0,19 secondes). Que trouve-t-on ?

D’abord des conseils, il s’agit d’évaluer le nombre et la qualité des sources, de consulter l’historique (combien de personnes y ont contribué, et quand), de consulter l’évaluation de l’article et surtout de le comparer à d’autres sources !

Le tutoriel Cerise propose d’autres conseils :

  • « Voir si le plan est bien construit et détaillé
  • Juger de la qualité de la rédaction : syntaxe, orthographe, synthèse, illustration, …
  • Repérer les liens vers les notes et les définitions
  • Voir s’il y a une bibliographie récente et mise à jour
  • Voir s’il y a un portail sur le thème sélectionné. »

Les guides de la BU de l’université de Rennes 2 dans une page sur « évaluer l’information » consacre un petit encart à Wikipédia en conseillant de regarder les avertissements sur les pages, la date de création (onglet “historique”) et les débats (onglet “discussion”). Cela renvoie à un article du Monde.fr et étrangemenent, aux évaluations internes de Wikipédia.

Sur la Teluq, Marc Couture, dans son cours sur l’évaluation de la crédibilité des documents en ligne, traite du cas particulier de « la crédibilité de Wikipédia ». Il constate que les critères généraux ne s’appliquent qu’imparfaitement aux articles de Wikipédia. Ainsi, ceux reliés à l’insertion dans la littérature spécialisée : « Ce critère prendra donc une valeur toute relative compte tenu à la fois du rôle que joue une encyclopédie dans la littérature scientifique ou savante, et de la difficulté à évaluer le nombre de références à un article de Wikipédia. » Les critères sur l’auteur ne sont pas applicables, les autres (la validation du contenu, forme et la structure du document) sont soit sans garantie soit réfèrent aux classements et processus internes de Wiipédia.

Cherchant dans les sources en anglais, on trouve de nouveau beaucoup de redondances, avec une référence citée, reprise, tronquée dans la Wikipedia anglaise. Un article intitulé Wikipedia:Researching with Wikipedia n’a pas d’équivalent en français avec la recommandation rituelle : “Wikipedia should be a starting place for research, not an end destination and independent confirmation of any fact presented is advised”.

Cet article fournit un lien avec une page sur l’évaluation des articles de Wikipédia, page que l’on retrouve ici (source Phoebe Ayers, en octobre 2006). En fait, ce texte donne tous les éléments pour évaluer un article, les autres sources n’en sont souvent qu’une reprise tronquée. Au bout du compte, c’est une source datée de 2006 (et qui est peut-être antérieure) qui donne les meilleures informations et fait le point le plus complet sur les modes d’évaluation des articles.

Mais est-ce que les procédures d’évaluation préconisées sont opérationnelles ? Autrement dit, peut-on appliquer ces processus dans des utilisations courantes, c’est-à-dire hors situations particulières (notamment scolaires) et de nécessités de vérification. On peut raisonnablement penser que non, si je m’en réfère à mes propres utilisations et ce que peuvent dire les étudiants. Qui confronte systématiquement ce qui est écrit dans un article de Wikipédia à d’autres sources ?

Ce que l’on peut regretter, c’est l’absence de cartographie thématique, alors que l’on imagine qu’il y a des zones de fiabilités différentes, des repérages a priori pourraient guider le lecteurs (les articles dans le domaine X sont plutôt fiables, alors que dans le domaine Y c’est problématique), des marques reconnaissables. Alors que l’on comprend qu’il faut consulter l’historique et les discussions, il y a peu d’outils de visualisation nous donnant une image interprétable ; en conséquence, historique et discussions restent très difficiles à analyser rapidement. En effet, il s’agit de prendre en compte la dynamique collective et temporelle et de pouvoir juger une ressource de par l’histoire de sa construction et des discussions qui l’ont accompagnée. Mais comment le faire rapidement et de manière fiable sans instrumentation. History Flows[4] proposait des visualisations intéressantes. Mais il ne semble pas que ce travail ait été repris et il demeure mal connu.

Des enjeux de formation : guider des consommateurs via des passeurs outillés

L’évaluation dépend bien évidemment dépend de la finalité, du public visé, etc. et on pourrait refuser une sorte d’évaluation intrinsèque des articles de Wikipédia. Mais le jugement sur cette qualité a des incidences fortes, notamment sur les représentations sociales de ce projet encyclopédique. Chacun a ses propres croyances sur Wikipédia, mais il n’y a pas de « sagesse collective » ou de connaissance collective nous en donnant une image moins naïve. Comment juger de la qualité ? On voit que la question est délicate : qualité proportionnelle ou inversement proportionnelle au nombre de contributeurs ; processus linéaire d’accroissement avec quelques accidents ou des formes de plateau, voire des régressions ? La qualité des collaborations aurait un effet sur la qualité des articles.

Selon une étude récente, les changements apportés pour assurer la qualité des articles, avec de nouveaux contributeurs nombreux, aurait un effet négatif sur le recrutement de ces nouveaux contributeurs découragés par les mécanismes mis en place. Ainsi, incontestablement, un processus de professionnalisation a été organisé, processus qui a un effet dissuasif. D’un autre côté, on s’aperçoit que les « consommateurs », rôle que nous prenons tous à un moment ou à un autre pour Wikipédia, ont du mal à sortir d’une vision très naïve et se satisfont d’une sorte de « bonne pratique » paravent : on n’utiliserait que pour commencer une recherche, on ne s’arrêterait jamais sur un article de Wikipédia. Comportement que très peu de personnes adoptent, sauf dans des contextes très particuliers. Alors que l’on propose des modèles à discuter de perméabilité entre concepteurs et consommateurs, on s’aperçoit que pour Wikipédia, il y a d’un côté des concepteurs très instrumentés et d’un autre côté des consommateurs très peu outillés. Entre les deux, on peut s’interroger sur les connaissances, les instruments pour les « médiateurs » (enseignants, documentalistes, etc.). Ne devraient-ils pas en savoir collectivement beaucoup plus que les « simples » utilisateurs ?

Wikipedia est un excellent analyseur des évolutions éducatives : un discours rituel sur la nécessité de développer des utilisations du « numérique », une présence effective mais comme une espèce de sous culture, acceptable parce qu’elle rend des services, pratique mais décriée. Wikipedia est une mine pour les chercheurs, c’est aussi un projet en avance dans le domaine de la culture et dans celui du Web sémantique. Mais comment maîtriser cette technologie collective ? On ne perçoit pas encore bien toutes les potentialités et limites de l’écriture collective. Une tension apparaît : si on apprend par l’écriture, des contraintes de forme trop fortes découragent, l’exigence de qualité risque de conduire à un élitisme par trop restrictif. Il faudrait professionnaliser les intermédiaires, afin de palier le manque d’instrumentation, notamment permettant de visualiser des processus de construction pour juger une production. La question de l’expertise des éducateurs se pose avec une certaine urgence. Pourquoi n’arrive pas à se développer un regard plus professionnel sur les productions de ce travail collectif ?

Crédit photo : Kalexanderson (Creative Commons By)

Notes

[1] Voir par exemple, Bruillard Éric (1994). Quelques obstacles à l’usage des calculettes à l’école : une analyse, Grand N, n°53, p. 67-78.

[2] Page consultée le 6 mars 2013

[3] Kien Quach Tat (2011).. Recherche d’information sur le web et moteurs de recherche : le cas des lycéens. Thèse soutenue le 16 décembre 2011 à l’ENS de Cachan

[4] Viégas Fernanda B., Wattenberg Martin, Dave Kushal (2004). Studying Cooperation and Conflict between Authors with history flow Visualizations. In CHI 2004, April 24–29, 2004, Vienna, Austria. ACM.




Pourquoi nous avons besoin de jouer, partager et bidouiller la science

La science est quelque chose de bien trop sérieux et précieux pour être laissée aux seuls scientifiques professionnels. Amateurs, de 7 à 77 ans, tout le monde peut et doit y prendre part, facilités en cela par Internet et sa philosophie d’ouverture.

Un article de Rayna Stamboliyska initialement publié sur Al Jazeera.

Remarque : nous avons choisi tout du long de traduire « hacker » par « bidouiller ».

Krystian Olszanski - CC by

Jeu et partage des connaissances, ou pourquoi nous avons besoin de bidouiller la science

Tinkering knowledge sharing, or why we need to hack science

Rayna Stamboliyska – 25 mars 2013 – AlJazeera.com
(Traduction : Sphinx, Rayna, M0tty, Minitte, goofy, Oumph, Asta , lizuka, Penguin, Moosh, Baptiste, Oli_Ph)

Les citoyens activement engagés dans la production scientifique fournissent le meilleur effort de compréhension de la science, et ce à tout âge.

Traditionnellement, les chercheurs sont des universitaires employés par les institutions. Le stéréotype de l’expert érudit entouré de livres poussiéreux gribouillant frénétiquement des écrits obscurs vient également à l’esprit. Quel(le) qu’il (elle) soit, le chercheur produit de la connaissance et que vous soyez profondément de gauche ou légèrement de droite, vous respectez tous la science et la connaissance. Ce sont des sujets d’importance, autant pour la droite que pour la gauche et pour toutes les idéologies entre les deux et au-delà. De fait, bidouiller (NdT : ou hacker) sort des chemins battus lorsque l’on considère la science et la connaissance.

« Un scientifique, un artiste, un citoyen n’est en rien un enfant qui aurait besoin d’une méthodologie paternaliste et d’une rationalité maternante lui donnant sécurité et direction. Il peut prendre soin de lui-même. Il n’est pas seulement l’inventeur des lois, des théories, des images, pièces de théâtre, styles de musique, interactions sociales, des institutions, il est aussi l’inventeur d’une nouvelle vision du monde, il est l’inventeur d’une nouvelle forme d’appréciation ». Cette citation vient d’un épistémologue, malheureusement oublié, Paul K. Feyerabend et date de 1978 quand son livre « Science dans une société libre » fût publié. Utilisons cette citation comme fil rouge de cette discussion à propos de la démocratisation de la science.

Bidouiller la science, c’est génial… Euh, quoi ?

Vous avez raison, une telle affirmation peut être trompeuse. Je souhaiterais davantage parler de « bidouiller le faisage de la science ». Le cliché de l’intellectuel solitaire, à l’apparence maladive et au comportement associal, est répandu aujourd’hui encore, mais sa généralisation faiblit au fur et à mesure que les technologies de communication progressent. Ce qui reste vrai, en revanche, c’est le côté conservateur et rigide des organismes de recherche. La science est construite à partir de données collectées, analysées, critiquées et réutilisées. Cependant, la méthodologie ordinaire de la science, imposée par les organismes de recherche, requiert le secret et nécessite donc de travailler contre cette maximisation de la dissémination du savoir. Avant que quiconque ne crie à la paranoïa, pensez aux publications à accès payant, bloquant ainsi leur diffusion, au format PDF ou, pire, en image.

Les réticences à publier les données et à ouvertement partager le savoir ont cependant commencé à attirer l’attention des gens. Un mouvement général vers l’ouverture que l’on appelle plus communément la « science ouverte » a émergé, inspiré par l’esprit du mouvement du Logiciel Libre (Free and Open Source Software, FOSS). Similaire à l’éthique du Libre qui promeut l’ouverture d’un code source accessible, réutilisable et modifiable par tout le monde, le thème principal de la sciences ouvertes est d’expliquer clairement les méthodes, les données générées et les résultats obtenus, permettant ainsi une collaboration massive qui accélère la vitesse à laquelle la science se fait.

Un concept très puissant – la « science citoyenne » – a naturellement émergé parallèlement à la science ouverte. Les blogs de chercheurs professionnels qui parlent de leurs travaux et discutent en ligne des résultats obtenus par leurs pairs sont innombrables. De tels débats permettent à de non-professionnels de participer aussi. La poussée du mouvement hacker/maker/do-it-yourself a énormément contribué à l’engagement dans la science de scientifiques non-professionnels.

De nos jours, il y a des centaines de projets dans le monde entier au sein desquels chercheurs professionnels et non-professionnels prennent part à de véritables études scientifiques. Un glissement clair et visible s’est opéré ces dernières années : au début, les citoyens aidaient simplement à collecter des données alors que désormais les citoyens les analysent vraiment, produisent des résultats valables et les interprètent allant même jusqu’à proposer de nouvelles hypothèses.

La « démocratisation de la science » défendue par Feyerabend est en train de se réaliser. La méthode de la science est encore trop souvent faussement imaginée comme étant l’exploration de théories en perpétuelle expansion sur les complexités de l’univers et uniquement réservée à une élite d’individus extraordinairement intelligents, échevelés et quelque peu sociopathes. La méthode scientifique est en fait à la portée de tous ceux capables de poser une question, de réunir des informations, de les analyser de manière critique, de (peut-être) trouver une réponse et d’agir en fonction du résultat.

Cela vous semble idéaliste ? Vous avez le droit d’avoir tort. Vous aimez les maths ? Peut-être que non. Cependant, prenez par exemple l’expérience Polymath. En 2009, Tim Growers, lauréat de la médaille Fields, écrivait un article sur son blog parlant des « mathématiques massivement collaboratives ». Il écrivait : « Une idée serait que quiconque ayant quelque chose à dire sur le problème puisse y ajouter son grain de sel… vous contribueriez ainsi à des idées, même si elles sont peu développées ou peut-être fausses. »

Qu’est-ce qui en a découlé ? Des centaines de commentaires et la naissance du projet Polymath. En réalité, les gens collaborent massivement à la résolution de problèmes en mathématiques. Des chercheurs, professionnels et non-professionnels, ont également contribué à l’identification de médicaments anti-paludisme, à la cartographie des accidents de la route ou la pollution sonore, ainsi qu’à la documentation des déversements de pétrole dans la côte du Golfe avec des ballons, ou encore à l’étude de l’impact du changement climatique sur les oiseaux, etc.

Un tel engagement social et citoyen dans la pratique scientifique est crucial. Les gens doivent revendiquer le droit d’être informé et éduqué. Le pouvoir réside là où est l’information, de cette manière, y avoir accès est un moyen d’auto-gouvernance et contribue à résorber la corruption, les privilèges et l’injustice. J’ai déjà débattu du besoin frappant de telles initiatives dans le monde arabe. Bien que la science soit un domaine émergent dans cette région où les financements suffisent rarement à sécuriser les équipements basiques pour la recherche, l’intérêt sur ce sujet, lui, existe. Entrer en contact avec des scientifiques non-professionnels devrait être aujourd’hui considéré par les professionnels comme partie inhérente de leur travail quotidien.

L’influence politique sur la façon dont la science fonctionne et est communiquée est un souci croissant au sein du monde arabe et partout ailleurs. Les projets de science citoyenne ne sont pas seulement indépendants, ils aident aussi à faire des choses avec un petit budget ou diminuer les coûts inhérents de la recherche ; ainsi, selon un rapport : « Au cours d’une seule année, des observateurs volontaires pour la surveillance de la biodiversité au Royaume-Uni ont vu leur contribution en temps estimée à plus de 20 millions de livres (NdT : environ 23,5 millions d’euros) ». La science citoyenne fournit aussi des données fiables et des outils qui peuvent être utilisés par tous les domaines scientifiques, des études environnementales aux sciences humaines. Un accès libre aux avancées scientifiques les plus récentes permet aux citoyens de remettre en question des hypothèses historiques. Résoudre des problèmes à rayonnement local, ou juste participer par curiosité, ramène la science à ses racines.

Bidouiller l’école

Je dis du bien du bidouillage de la science et je dirai encore davantage de bien du bidouillage de l’école. Avez-vous déjà réfléchi à l’origine de notre désir de savoir comment les choses fonctionnent ? Je dirais qu’elle se situe dans l’enfance. Quand on est enfant, on se demande pourquoi le ciel est bleu ou comment on fait les bébés. Nous posons des questions, découpons des limaces pour voir jusqu’où elles peuvent aller avec des morceaux en moins et décidons qu’elles ne peuvent pas aller bien loin une fois qu’elles sont en tranches. Un chercheur émet une hypothèse, décide des informations à collecter pour y répondre, les analyse ensuite et en tire des conclusions pour valider ou non l’hypothèse de départ. En fait, cela ressemble à ce que les enfants font naturellement.

Mon idée est que les enfants apprennent par la recherche. Là où ça coince, c’est quand les adultes pensent que pour être un grand, il faut connaître la réponse. Nous tendons ainsi à inculquer aux élèves des informations déjà disponibles et nous appelons cela l’éducation. Le problème n’est pas la transmission du savoir à la jeune génération, mais le fait que nous le faisons en étant persuadés que l’aventure dans l’incertitude des réponses inconnues est délétère.

Que se passerait-il si, au lieu de verrouiller nos pensées et de castrer l’attitude interrogatrice des enfants, nous décidions de construire une culture de curiosité ? Autrefois, au XVème siècle, l’imprimerie encouragea de nouveaux moyens de transmission de l’information : des effets similaires peuvent être espérés avec Internet mais sur une échelle de temps beaucoup plus rapide. À travers les médias actuels, les élèves et étudiants ont accès à une quantité incroyable d’information. L’institution « école » a donc encore moins le monopole du savoir ; quel devient donc son but ?

L’« avalanche » d’articles scientifiques contribue à la reformulation de concepts. Ce que nos enfants ont besoin d’apprendre est à la fois comment apprendre et comment désapprendre. L’enseignant ne devrait pas être celui qui transmet des faits mais plutôt la personne qui enseigne comment les comprendre, les critiquer et les valider. Plutôt que d’essayer de savoir tout ce qui est produit, l’enseignant doit accepter ce qui est, pour chacun d’entre nous, une petite révolution culturelle car il sait mieux que les élèves comment analyser l’information. Il/Elle doit dès lors être un spécialiste de la découverte de la connaissance.

La liberté de jouer

Je parie que beaucoup d’entre vous pensent que ceci est noble mais ont du mal à voir comment le réaliser. La recette miracle n’existe pas mais il y a un beaucoup d’approches possibles. Avez-vous entendu parler des jeux éducatifs et de recherche ? Oui, je viens d’évoquer la gamification (ou encore, « ludification ») qui correspond à l’intégration de méthodes pensées pour les jeux dans des applications « sérieuses » afin de les rendre plus amusantes et engageantes. Ce n’est pas une idée nouvelle : le concept que jouer génère et modèle notre culture a été exposé dans Homo Ludens (1938). Le typage sanguin, la biochimie ainsi que beaucoup d’autres jeux scientifiques ont aidé à démontrer l’importance de l’implémentation de la motivation dans l’apprentissage et l’exercice de la science.

Jouer en ligne à des jeux éducatifs et scientifiques pourrait ainsi être un des défis majeurs pour nos écoles. Nous espérons que nos enfants apprennent des choses « sérieuses » et on pourrait peut-être y bien parvenir en leur donnant la liberté de jouer. J’ai beaucoup aimé ce que le Digital Youth Project (Projet pour la Jeunesse Numérique) décrit dans un rapport sur les activités en ligne des enfants : celles-ci couvrent le fait de « traîner » (fréquenter des gens), de « mettre en désordre » (bricoler, même au point de devenir un expert local sur une technologie ou un média), de « faire son geek » (être curieux de ce qui est lié à Internet).

Imaginez ensuite une autre « école », où à la place de maîtres d’école il y aurait des professeurs de travaux pratiques, chacun ayant une responsabilité différente. En aucun cas, une telle responsabilité ne devrait se limiter à noter les enfants sur leur compétence. Ainsi, le but premier de l’éducation ne serait pas de préparer à un métier spécifique ou à une carrière mais constituerait plutôt un processus guidant l’enfant vers une participation à la vie publique. De cette manière, les adultes que nous appelons professeurs co-créeraient le savoir avec les enfants.

À la fois la possibilité pour les non-professionnels de s’engager dans l’exercice de la science et la nécessité de transformer les enseignants en des co-createurs de savoir. Alors, si les enfants peuvent avoir une nouvelle espèce de dinosaure portant leur nom ou créer un réacteur nucléaire chez eux, pourquoi ne pas les laisser faire de la recherche avec leurs ainés amateurs de science ? Dès lors, une question légitime se pose : « pourquoi ne pas créer un parcours d’apprentissage par la recherche à l’école ? ».

La science transforme notre perception du monde et de nous-mêmes, particulièrement chez les enfants. L’exercice de la science requiert un attrait pour l’inconnu et une ouverture sur les possibles. Tout comme les moments durant lesquels on s’amusent, la science permet la découverte et la création de relations et de schémas mentaux. Rajoutez des règles à suivre à l’amusement et vous obtenez un jeu. Rien n’est plus naturel pour les enfants que d’accueillir l’inconnu et faire des erreurs, les deux ouvrant la voie de la découverte.

Ainsi, le processus du questionnement et de la recherche de la résolution de problèmes devient plus intuitif. Cette approche contraste avec des méthodes d’apprentissage plus classiques où le but est de trouver des solutions, non pas des questions. La créativité joue un rôle majeur ici. La créativité a cependant besoin d’être désacralisée : tout le monde peut trouver de nouvelles solutions et porter de nouveaux regards. La créativité est un processus ouvert, interactif et contraignant ; être créatif signifie que la critique constructive est nécessaire pour l’avancement.

Une science citoyenne pour les enfants

À quoi pourrait ressembler un parcours d’apprentissage par la recherche ? L’interdisciplinarité y est incontournable. L’inclusion de l’alphabétisation numérique dans le parcours de formation est décisif, quant à l’initiation à la programmation pour les enfants, cela existe déjà. Des écoliers du primaire au Royaume-Uni ont déjà publié un papier scientifique sur la reconnaissance des fleurs par les abeilles, et dans une banlieue de Paris, dans une école primaire des élèves de CM1/CM2 apprennent de la science en étudiant les fourmis. La classe envoie des tweets sur ses observations et recueille des hypothèses venant d’autres classes et de chercheurs adultes.

Twitter n’est pas la seule voie que peuvent choisir les enfants pour collecter et échanger des connaissances. Les adultes ont Wikipédia, mais c’est un peu complexe pour les enfants qui bien souvent n’y trouvent pas de réponses à leurs questions. Essayez par exemple de chercher pourquoi le ciel est bleu dans la page « lumière ». Si vous survivez au jargon scientifique assez hermétique et lisez la totalité de la page, vous vous rendrez compte que l’explication n’y est pas. Des projets tels que Simple Wikipédia sont donc apparus, qui visent à expliquer les choses complexes en un langage simple. Vikidia en France (une sorte de Wikipédia pour les enfants mais écrit par les adultes), Wikikids aux Pays-Bas, avec son équivalent français Wikimini (Wikipédia pour et par les enfants), ont commencé à construire une passerelle entre la création collaborative de connaissances et son partage généralisé.

En participant à la vraie science, nous nous impliquons tous activement dans le processus qui consiste à lui donner du sens. Les enfants non seulement deviennent des scientifiques, mais ils développent aussi leur créativité et se rendent compte des choix qu’ils opèrent. Ainsi, chacun prend activement conscience de la façon dont notre environnement et notre imagination nous façonnent en tant qu’individus et en tant que société.

Rayna Stamboliyska est chercheuse associée au Centre de Recherche pluridisplinaire de l’Université de Paris 5 Descartes, où elle développe la partie biologie synthètique au sein du projet Cyberlab citoyen. Elle contribue également à l’organisation de la « Nuit de la Science 2013 ». Elle tient un blog sur Scilogs.com intitulé Beyond the Lab, qui observe les pratiques scientifiques émergentes ; elle participe aussi à FutureChallenges.org et à Jadaliyya. Rayna est membre du conseil d’administration de la branche française de l’Open Knowledge Foundation et ainsi contribue au développement de la science citoyenne en France.

Crédit photo : Krystian Olszanski (Creative Commons By)




L’éducation utilise une licence Creative Commons défectueuse, par R. Stallman

Nous vous proposons ci-dessous la traduction d’un récent article de Richard Stallman sur l’usage des licences Creative Commons dans l’éducation.

Et c’est bien le pluriel de ces licences Creative Commons qui pose problème. Le choix majoritaire de la fameuse clause non commerciale NC serait contre-productive voire toxique dans le champ considéré ici.

« J’exhorte Creative Commons à prendre position et à déclarer que les œuvres censées être utilisés en pratique, y compris la documentation pédagogique et les œuvres de référence soient, comme les logiciels, diffusés uniquement sous des licences libres… Les licences CC BY-NC et CC BY-NC-SA, telles qu’elles existent aujourd’hui, doivent être évitées. »

L’occasion également pour Stallman de rappeler que cohabitent au sein des Creative Commons des licences libres et d’autres non libres, et que ces dernières sont tout à fait acceptables voire légitimes lorsqu’il s’agit d’œuvres artistiques ou d’opinion (ce qui n’est donc pas le cas pour l’éducation).

Un article à confronter avec celui de Calimaq sur Owni : Le non commercial, avenir de la culture libre.

Preliminares 2013 - CC by-sa

L’éducation en ligne utilise une licence Creative Commons défectueuse

On-line education is using a flawed Creative Commons license

Richard Stallman – version du 14 janvier 2013 – Site personnel
(Traduction du 28 janvier 2013 : albahtaar, Vrinse, goofy, MdM, aKa, KoS, FirePowi, Thérèse, Penguin, revue et corrigée par Richard Stallman)

Des universités de premier plan utilisent une licence non-libre pour leurs ressources d’enseignement numérique. C’est déjà une mauvaise chose en soi, mais pire encore, la licence utilisée a un sérieux problème intrinsèque.

Lorsqu’une œuvre doit servir à effectuer une tâche pratique, il faut que les utilisateurs aient le contrôle de cette tâche, donc ils ont besoin de contrôler l’œuvre elle-même. Cela s’applique aussi bien à l’enseignement qu’au logiciel. Pour que les utilisateurs puissent avoir ce contrôle, ils ont besoin de certaines libertés (lisez gnu.org), et l’on dit que l’œuvre est libre. Pour les œuvres qui pourraient être utiles dans un cadre commercial, les libertés requises incluent l’utilisation commerciale, la redistribution et la modification.

Creative Commons publie six licences principales. Deux sont des licences libres : la licence « Partage dans les mêmes conditions » CC BY-SA est une licence libre avec gauche d’auteur (en anglais, « copyleft ») forçant l’utilisation de la même licence pour les œuvres dérivés, et la licence « Attribution » (CC BY) qui est une licence libre sans gauche d’auteur. Les quatre autres ne sont pas libres, soit parce qu’elles ne permettent pas de modification (ND) soit parce qu’elles ne permettent pas d’utilisation commerciale (NC).

Selon moi, les licences non libres qui permettent le partage sont légitimes pour des œuvres artistiques ou de divertissement. Elle le sont également pour des œuvres qui expriment un point de vue (comme cet article lui-même). Ces œuvres ne sont pas dédiés à une utilisation pratique, donc l’argument concernant le contrôle par l’utilisateur ne s’y applique pas. Ainsi, je ne vois pas d’objection à ce qu’elles soient publiées sous licence CC BY-NC-ND, qui ne permet que la redistribution non commerciale de copies identiques à l’original.

L’utilisation de cette licence pour une œuvre ne signifie pas qu’il soit totalement impossible de la publier commercialement ou avec des modifications. La licence n’en donne pas la permission, mais vous pouvez toujours demander la permission au détenteur du droit d’auteur, peut-être avec un contrepartie, et il se peut qu’il vous l’accorde. Ce n’est pas obligé, mais c’est possible.

Cependant, deux des licences non libres CC mènent à la création d’œuvres qui, en pratique, ne peuvent pas être publiées à des fins commerciales, car il n’existe aucun moyen d’en demander l’autorisation. Ce sont les licences CC BY-NC et CC BY-NC-SA, les deux licences CC qui autorisent les modifications mais pas l’utilisation de manière commerciale.

Le problème survient parce que, avec Internet, les gens peuvent facilement (et légalement) empiler les modifications non-commerciales les unes sur les autres. Sur des décennies, il en résultera des œuvres avec des centaines, voire des milliers de contributeurs.

Qu’arrive-t-il si vous voulez utiliser commercialement l’une de ces œuvres ? Comment pouvez-vous en obtenir l’autorisation ? Il vous faut demander aux principaux titulaires de droits. Peut-être que certains d’entre eux ont apporté leur contribution des années auparavant et sont impossibles à retrouver. D’autres peuvent avoir contribué des décennies plus tôt, ou même sont décédés, mais leurs droits d’auteur n’ont pas disparu avec eux. Il vous faut alors retrouver leurs descendants pour demander cette autorisation, à supposer qu’il soit possible de les identifier. En général, il sera impossible de se mettre en conformité avec les droits d’auteur sur les œuvres que ces licences incitent à créer.

C’est une variante du problème bien connu des « œuvres orphelines », mais en pire, et ce de manière exponentielle ; lorsque l’on combine les œuvres de très nombreux contributeurs, le résultat final peut se trouver orphelin un nombre incalculable de fois avant même d’être né.

Pour éliminer ce problème, il faudrait un mécanisme impliquant de demander l’autorisation à quelqu’un (faute de quoi la condition NC devient sans objet) mais pas de demander l’autorisation à tous les contributeurs. Il est aisé d’imaginer de tels mécanismes ; ce qui est difficile, c’est de convaincre la communauté qu’un de ces mécanismes est juste et d’obtenir un consensus pour l’accepter.

Je souhaite que cela puisse se faire, mais les licences CC BY-NC et CC BY-NC-SA, telles qu’elles existent aujourd’hui, doivent être évitées.

Malheureusement, l’une d’entre elle est très utilisée. La CC BY-NC-SA, qui autorise la publication non commerciale de versions modifiées sous la même licence, est devenue à la mode dans le milieu de la formation en ligne. Les Open Courseware (didacticiels « ouverts ») du Massachusetts Institute of Technology (MIT) l’ont lancée, et de nombreux autres établissements d’enseignement ont suivi le MIT dans cette mauvaise direction. Alors que, pour les logiciels, « open source » signifie « probablement libre mais je n’ose pas communiquer à ce sujet donc tu dois vérifier toi-même », dans la plupart des projets d’enseignement en ligne « open » veut dire « non libre, sans aucun doute ».

Quand bien même le problème posé par les CC BY-NC-SA et BY-NC serait résolu, elles continueront de ne pas être la bonne façon de publier des œuvres pédagogiques censées servir à des tâches pratiques. Les utilisateurs de ces œuvres, enseignants et étudiants, doivent avoir le contrôle de leur travail, et cela requiert de les rendre libres. J’exhorte Creative Commons à prendre position et à déclarer que les œuvres censées être utilisés en pratique, y compris la documentation pédagogique et les œuvres de référence doivent être, comme les logiciels, diffusés uniquement sous des licences libres.

Éducateurs, enseignants, et tous ceux qui souhaitent contribuer aux œuvres de formation en ligne : s’il vous plaît, veillez à ce que votre travail ne devienne pas non libre. Offrez votre aide et vos textes à des œuvres pédagogiques qui utilisent des licences libres, de préférence des licences de gauche d’auteur de façon à ce que toutes les versions de l’œuvre respectent la liberté des enseignants et des étudiants. Ensuite, invitez les projets éducatifs à utiliser et redistribuer ces œuvres sur ces bases de respect de la liberté, s’ils le souhaitent. Ensemble, nous pouvons faire de l’éducation un champ de liberté.

Copyright 2012 Richard Stallman
Publié sous licence Creative Commons Attribution – Pas de Modification 3.0 (CC BY-ND 3.0)

Crédit photo : Preliminares 2013 (Creative Commons By-Sa)




Manifeste de la guérilla pour le libre accès, par Aaron Swartz #pdftribute

Il se passe quelque chose d’assez extraordinaire actuellement sur Internet suite à la tragique disparition d’Aaron Swartz : des centaines de professeurs et scientifiques du monde entier ont décidé de publier spontanément leurs travaux en Libre Accès !

Il faut dire que sa mort devient chaque jour plus controversée, les pressions judiciaires dont il était l’objet n’étant peut-être pas étrangères à son geste. Comme on peut le lire dans Wikipédia : « En juillet 2011, le militant américain pour la liberté de l’Internet Aaron Swartz fut inculpé pour avoir téléchargé et mis à disposition gratuitement un grand nombre d’articles depuis JSTOR. Il se suicide le 11 janvier 2013. En cas de condamnation, il encourait une peine d’emprisonnement pouvant atteindre 35 ans et une amende s’élevant jusqu’à 1 million de dollars. »

On peut suivre l’évolution du mouvement derrière le hashtag #pdftribute (pdf hommage) qui a déjà son site et son compte Twitter dédiés.

Dans la foulée nous avons décidé de traduire ensemble un autre article important d’Aaron Swartz (rédigé à 21 ans), en lien direct avec la motivation de tous ceux qui lui rendent ainsi un vibrant, concret et utile hommage : Guerilla Open Access Manifesto.

Ce manifeste s’achève sur cette interrogation : « Serez-vous des nôtres ? »

Remarque : L’émouvante photo ci-dessous représente Aaron Swartz a 14 ans en compagnie de Larry Lessig. On remarquera son bien joli tee-shirt 😉

Rich Gibson - CC by

Manifeste de la guérilla pour le libre accès

Guerilla Open Access Manifesto

Aaron Swartz – juillet 2008 – Internet Archive
(Traduction : Gatitac, albahtaar, Wikinade, M0tty, aKa, Jean-Fred, Goofy, Léna, greygjhart + anonymous)

L’information, c’est le pouvoir. Mais comme pour tout pouvoir, il y a ceux qui veulent le garder pour eux. Le patrimoine culturel et scientifique mondial, publié depuis plusieurs siècles dans les livres et les revues, est de plus en plus souvent numérisé puis verrouillé par une poignée d’entreprises privées. Vous voulez lire les articles présentant les plus célèbres résultats scientifiques ? Il vous faudra payer de grosses sommes à des éditeurs comme Reed Elsevier.

Et il y a ceux qui luttent pour que cela change. Le mouvement pour le libre accès s’est vaillamment battu pour s’assurer que les scientifiques ne mettent pas toutes leurs publications sous copyright et s’assurer plutôt que leurs travaux seront publiés sur Internet sous des conditions qui en permettent l’accès à tous. Mais, même dans le scénario le plus optimiste, la politique de libre accès ne concerne que les publications futures. Tout ce qui a été fait jusqu’à présent est perdu.

C’est trop cher payé. Contraindre les universitaires à débourser de l’argent pour lire le travail de leurs collègues ? Numériser des bibliothèques entières mais ne permettre qu’aux gens de chez Google de les lire ? Fournir des articles scientifiques aux chercheurs des plus grandes universités des pays riches, mais pas aux enfants des pays du Sud ? C’est scandaleux et inacceptable.

Nombreux sont ceux qui disent : « Je suis d’accord mais que peut-on y faire ? Les entreprises possèdent les droits de reproduction de ces documents, elles gagnent énormément d’argent en faisant payer l’accès, et c’est parfaitement légal, il n’y a rien que l’on puisse faire pour les en empêcher. » Mais si, on peut faire quelque chose, ce qu’on est déjà en train de faire : riposter.

Vous qui avez accès à ces ressources, étudiants, bibliothécaires, scientifiques, on vous a donné un privilège. Vous pouvez vous nourrir au banquet de la connaissance pendant que le reste du monde en est exclu. Mais vous n’êtes pas obligés — moralement, vous n’en avez même pas le droit — de conserver ce privilège pour vous seuls. Il est de votre devoir de le partager avec le monde. Et c’est ce que vous avez fait : en échangeant vos mots de passe avec vos collègues, en remplissant des formulaires de téléchargement pour vos amis.


Pendant ce temps, ceux qui ont été écartés de ce festin n’attendent pas sans rien faire. Vous vous êtes faufilés dans les brèches et avez escaladé les barrières, libérant l’information verrouillée par les éditeurs pour la partager avec vos amis.

Mais toutes ces actions se déroulent dans l’ombre, de façon souterraine. On les qualifie de « vol » ou bien de « piratage », comme si partager une abondance de connaissances était moralement équivalent à l’abordage d’un vaisseau et au meurtre de son équipage. Mais le partage n’est pas immoral, c’est un impératif moral. Seuls ceux qu’aveugle la cupidité refusent une copie à leurs amis.


Les grandes multinationales, bien sûr, sont aveuglées par la cupidité. Les lois qui les gouvernent l’exigent, leurs actionnaires se révolteraient à la moindre occasion. Et les politiciens qu’elles ont achetés les soutiennent en votant des lois qui leur donnent le pouvoir exclusif de décider qui est en droit de faire des copies.

La justice ne consiste pas à se soumettre à des lois injustes. Il est temps de sortir de l’ombre et, dans la grande tradition de la désobéissance civile, d’affirmer notre opposition à la confiscation criminelle de la culture publique.

Nous avons besoin de récolter l’information où qu’elle soit stockée, d’en faire des copies et de la partager avec le monde. Nous devons nous emparer du domaine public et l’ajouter aux archives. Nous devons acheter des bases de données secrètes et les mettre sur le Web. Nous devons télécharger des revues scientifiques et les poster sur des réseaux de partage de fichiers. Nous devons mener le combat de la guérilla pour le libre accès.

Lorsque nous serons assez nombreux de par le monde, nous n’enverrons pas seulement un puissant message d’opposition à la privatisation de la connaissance : nous ferons en sorte que cette privatisation appartienne au passé. Serez-vous des nôtres ?

Aaron Swartz

Crédit photo : Rich Gibson (Creative Commons By)




Pour que le Libre aille vers l’Université (Libres conseils 6/42)

Université et communauté

Kevin Ottens

Kevin Ottens est un « hacker » de longue date au sein de la communauté KDE[1]. Il a largement contribué à la plateforme KDE, en particulier à la conception des API et frameworks. Diplômé en 2007, il est titulaire d’un doctorat en informatique qui l’a amené à travailler, en particulier, sur l’ingénierie des ontologies[2] et les systèmes multi-agents. Le travail de Kevin au KDAB inclut le développement de projets de recherche autour des technologies KDE. Il vit toujours à Toulouse, où il est enseignant à mi-temps dans son université d’origine.


Introduction

Les communautés du Libre sont principalement animées par l’effort de bénévoles. De plus, la plupart des personnes qui s’impliquent dans ces communautés le font lors de leur cursus universitaire. C’est la période idéale pour s’engager dans de telles aventures : on est jeune, plein d’énergie, curieux et l’on veut probablement façonner le monde à son image. Voilà tous les ingrédients d’un bon travail bénévole.

Mais, en même temps, être étudiant ne laisse pas forcément beaucoup de temps pour s’engager dans une communauté du Libre. En outre, la plupart de ces communautés sont assez vastes et les contacter peut faire peur.

Cela soulève évidement une question dérangeante : si les communautés du Libre ne réussissent pas à attirer la nouvelle génération de contributeurs talentueux, est-ce parce qu’elles ne cherchent pas activement à étendre leur activité dans les universités ? Cette question pertinente, nous avons essayé d’y répondre dans le contexte d’une communauté qui produit des logiciels, à savoir KDE. Dans cet article, nous nous concentrerons sur les aspects auxquels nous n’avions pas initialement pensé mais qu’il nous a fallu aborder pour répondre à cette question.

Construire un partenariat avec une université locale

Tout commence, réellement, par le contact avec les étudiants eux-mêmes. Et pour ça, rien de mieux que de se rendre directement dans leur université et de leur montrer à quel point les communautés du Libre peuvent être accueillantes. À cet effet, nous avons construit un partenariat avec l’université Paul Sabatier de Toulouse  plus précisément, avec l’un de ses cursus – nommé IUP ISI (NdT : Ingénierie des Systèmes Informatiques) – axé sur le développement logiciel.

L’IUP ISI était très orienté sur les connaissances « pratiques » et avait à ce titre un programme pré-établi pour les projets étudiants. Un point particulièrement intéressant de ce programme est le fait que les étudiants travaillent en équipe « inter-promotions ». Des étudiants de troisième et quatrième années, généralement en équipes de 7 à 10, apprennent à collaborer autour d’un objectif commun.

La première année de notre expérience, nous nous sommes raccrochés à ce programme en proposant de nouveaux sujets pour les projets, et en nous concentrant sur des logiciels développés au sein de la communauté KDE. Henri Massie, directeur du cursus, a très bien accueilli cette idée, et nous a laissés mettre cette expérience en place. Pour cette première année, nous nous sommes vu attribuer deux créneaux horaires pour les « projets KDE ».

Pour créer rapidement un climat de confiance, nous avons décidé, cette année-là, d’offrir quelques garanties concernant le travail des étudiants :

  • Aider les professeurs à avoir confiance dans les sujets abordés : les projets sélectionnés étaient très proches des sujets enseignés à l’IUP ISI (c’est pourquoi, pour cette année, nous avons ciblé un outil de modélisation UML et un outil de gestion de projet) ;
  • donner un maximum de visibilité aux professeurs : nous avons mis à leur disposition un serveur, sur lequel étaient régulièrement compilés les projets étudiants, accessible à distance à des fins de test ;
  • faciliter la participation des étudiants à la communauté : les responsables des projets étaient désignés pour jouer le rôle du « client », soumettre leurs exigences aux étudiants et les aider à trouver leur chemin dans le dédale de la communauté ;
  • enfin, pour mettre le pied à l’étrier aux étudiants, nous leur avons donné un petit cours sur « Comment développer avec Qt et les autres frameworks produits par KDE ».

Au moment de l’écriture de ces pages, cela fait cinq ans que nous menons de tels projets. De petits ajustements dans l’organisation ont été apportés ici et là, mais la plupart des idées sous-jacentes sont restées les mêmes. La majorité des changements ont été le résultat d’un intérêt grandissant de la communauté, désireuse d’établir un partenariat avec les étudiants, et d’une plus grande liberté pour nous quant aux sujets que nous pourrions couvrir dans nos projets.

De plus, tout au long de ces années, le directeur nous a donné une aide et des encouragements constants, attribuant effectivement plus de créneaux pour les projets de la communauté du Libre et prouvant que notre stratégie d’intégration était juste : établir de la confiance dès le début est la clé d’un partenariat entre la communauté du Libre et l’Université.

Comprendre que l’enseignement est un processus interactif

Durant ces années à tisser des liens entre la communauté KDE et la filière IUP ISI, nous nous sommes retrouvés en situation d’enseignement afin d’assister les étudiants dans des tâches liées à leurs projets. Quand vous n’avez jamais enseigné à une classe pleine d’étudiants, vous avez sans doute encore une image de vous, il y a quelques années, assis dans une classe. En effet, la plupart des enseignants ont un jour été étudiants… Parfois même, pas le genre d’étudiant très discipliné ni attentif. Vous aviez sans doute l’impression d’être submergé : l’enseignant entrait dans la salle, faisait face aux étudiants, et déversait sur vous ses connaissances.

Ce stéréotype est ce que la plupart gardent à l’esprit de leurs années d’études et la première fois qu’ils se retrouvent en situation d’enseigner, ils veulent reproduire ce stéréotype : arriver avec un savoir à transmettre.

La bonne nouvelle, c’est que rien n’est plus éloigné de la vérité que ce stéréotype. La mauvaise nouvelle, c’est que si vous essayez de reproduire ce stéréotype, vous allez très probablement faire fuir vos étudiants et ne ferez face qu’à un manque de motivation pour participer à la communauté. L’image que vous donnez de vous est la toute première chose dont ils vont se souvenir de la communauté : la première fois que vous entrez dans la salle de classe, vous êtes, pour eux, la communauté.

Pour éviter de tomber dans le piège de ce stéréotype, il vous faut prendre un peu de recul et réaliser ce que signifie réellement d’enseigner. Ce n’est pas un processus à sens unique où l’on livre la connaissance aux étudiants. Nous sommes arrivés à la conclusion que c’est en fait un processus à double sens : vous êtes amené à créer une relation symbiotique avec vos étudiants. Les étudiants et les enseignants doivent tous sortir de la salle de classe avec de nouvelles connaissances. Il vous faut livrer votre expertise, bien sûr, mais afin de le faire efficacement, vous devez en permanence vous adapter au cadre de référence de vos étudiants. C’est un travail qui rend très humble.

Cette prise de conscience génère pas mal de changements dans la manière d’entreprendre votre enseignement.

  • Vous allez devoir comprendre la culture de vos étudiants. Ils ont probablement des expériences assez différentes des vôtres et vous allez devoir adapter votre discours à eux ; par exemple, les étudiants que nous avons formés font tous partie de la fameuse « génération Y » qui, en matière de leadership, loyauté et confiance, présente des caractéristiques assez différentes de la génération précédente.
  • Vous allez devoir réévaluer votre propre expertise, puisque vous allez devoir adapter votre discours à leur culture. Vous aborderez vos propres connaissances selon un angle très différent de celui dont vous avez l’habitude, ce qui vous mènera inévitablement à des découvertes dans des domaines que vous pensiez maîtriser.
  • Enfin, vous allez devoir vous forger des compétences en présentation ; l’enseignement consiste réellement à sortir de votre zone de confort afin de présenter vos propres connaissances tout en les gardant intéressantes et divertissantes pour votre audience. Cela fera de vous un meilleur présentateur.

Ainsi, vous deviendrez un meilleur enseignant. De plus, vous remplirez mieux vos objectifs : des étudiants bien formés, dont certains s’engageront dans la communauté du Libre.

Conclusion

Au bout du compte, pourquoi feriez-vous tous ces efforts pour établir une relation de confiance avec une université et sortir de votre zone de confort en améliorant votre manière d’enseigner ? Eh bien, cela se résume vraiment à la question initiale à laquelle nous avons tenté de répondre : 

Si les communautés du Libre ne réussissent pas à attirer de nouveaux contributeurs venus des universités, est-ce simplement dû à leur inaction ?

D’après notre expérience, la réponse est oui. Au cours de ces cinq années passées à bâtir un partenariat avec l’IUP ISI, nous avons attiré deux étudiants par année en moyenne. Certains d’entre eux nous ont quittés après quelque temps, mais certains sont devenus des contributeurs très actifs. Les autres gardent encore une certaine nostalgie de cette période de leur vie et continuent de nous soutenir même s’ils ne contribuent pas directement. En ce moment même, nous avons une équipe locale KDE qui a réussi à organiser efficacement une conférence de deux jours pour notre dernière « release party » (NdT : soirée de lancement).

Parmi ces anciens étudiants, pas un seul ne se serait impliqué dans le projet KDE sans ces projets universitaires. Nous serions passés complètement à côté de ces talents. Par chance, nous n’avons pas été inactifs.

[1] http://www.kde.org

[2] https://fr.wikipedia.org/wiki/Ontologie_(informatique)

Université et communauté

Kevin Ottens

Kevin Ottens est un « hacker » de longue date au sein de la communauté KDE[1]. Il a largement contribué à la plateforme KDE, en particulier à la conception des API et frameworks. Diplômé en 2007, il est titulaire d’un doctorat en informatique qui l’a amené à travailler, en particulier, sur l’ingénierie des ontologies[2] et les systèmes multi-agents. Le travail de Kevin au KDAB inclut le développement de projets de recherche autour des technologies KDE. Il vit toujours à Toulouse, où il est enseignant à mi-temps dans son université d’origine.


Introduction

Les communautés du Libre sont principalement animées par l’effort de bénévoles. De plus, la plupart des personnes qui s’impliquent dans ces communautés le font lors de leur cursus universitaire. C’est la période idéale pour s’engager dans de telles aventures : on est jeune, plein d’énergie, curieux et l’on veut probablement façonner le monde à son image. Voilà tous les ingrédients d’un bon travail bénévole.

Mais, en même temps, être étudiant ne laisse pas forcément beaucoup de temps pour s’engager dans une communauté du Libre. En outre, la plupart de ces communautés sont assez vastes et les contacter peut faire peur.

Cela soulève évidement une question dérangeante : si les communautés du Libre ne réussissent pas à attirer la nouvelle génération de contributeurs talentueux, est-ce parce qu’elles ne cherchent pas activement à étendre leur activité dans les universités ? Cette question pertinente, nous avons essayé d’y répondre dans le contexte d’une communauté qui produit des logiciels, à savoir KDE. Dans cet article, nous nous concentrerons sur les aspects auxquels nous n’avions pas initialement pensé mais qu’il nous a fallu aborder pour répondre à cette question.

Construire un partenariat avec une université locale

Tout commence, réellement, par le contact avec les étudiants eux-mêmes. Et pour ça, rien de mieux que de se rendre directement dans leur université et de leur montrer à quel point les communautés du Libre peuvent être accueillantes. À cet effet, nous avons construit un partenariat avec l’université Paul Sabatier de Toulouse  plus précisément, avec l’un de ses cursus – nommé IUP ISI (NdT : Ingénierie des Systèmes Informatiques) – axé sur le développement logiciel.

L’IUP ISI était très orienté sur les connaissances « pratiques » et avait à ce titre un programme pré-établi pour les projets étudiants. Un point particulièrement intéressant de ce programme est le fait que les étudiants travaillent en équipe « inter-promotions ». Des étudiants de troisième et quatrième années, généralement en équipes de 7 à 10, apprennent à collaborer autour d’un objectif commun.

La première année de notre expérience, nous nous sommes raccrochés à ce programme en proposant de nouveaux sujets pour les projets, et en nous concentrant sur des logiciels développés au sein de la communauté KDE. Henri Massie, directeur du cursus, a très bien accueilli cette idée, et nous a laissés mettre cette expérience en place. Pour cette première année, nous nous sommes vu attribuer deux créneaux horaires pour les « projets KDE ».

Pour créer rapidement un climat de confiance, nous avons décidé, cette année-là, d’offrir quelques garanties concernant le travail des étudiants :

  • Aider les professeurs à avoir confiance dans les sujets abordés : les projets sélectionnés étaient très proches des sujets enseignés à l’IUP ISI (c’est pourquoi, pour cette année, nous avons ciblé un outil de modélisation UML et un outil de gestion de projet) ;
  • donner un maximum de visibilité aux professeurs : nous avons mis à leur disposition un serveur, sur lequel étaient régulièrement compilés les projets étudiants, accessible à distance à des fins de test ;
  • faciliter la participation des étudiants à la communauté : les responsables des projets étaient désignés pour jouer le rôle du « client », soumettre leurs exigences aux étudiants et les aider à trouver leur chemin dans le dédale de la communauté ;
  • enfin, pour mettre le pied à l’étrier aux étudiants, nous leur avons donné un petit cours sur « Comment développer avec Qt et les autres frameworks produits par KDE ».

Au moment de l’écriture de ces pages, cela fait cinq ans que nous menons de tels projets. De petits ajustements dans l’organisation ont été apportés ici et là, mais la plupart des idées sous-jacentes sont restées les mêmes. La majorité des changements ont été le résultat d’un intérêt grandissant de la communauté, désireuse d’établir un partenariat avec les étudiants, et d’une plus grande liberté pour nous quant aux sujets que nous pourrions couvrir dans nos projets.

De plus, tout au long de ces années, le directeur nous a donné une aide et des encouragements constants, attribuant effectivement plus de créneaux pour les projets de la communauté du Libre et prouvant que notre stratégie d’intégration était juste : établir de la confiance dès le début est la clé d’un partenariat entre la communauté du Libre et l’Université.

Comprendre que l’enseignement est un processus interactif

Durant ces années à tisser des liens entre la communauté KDE et la filière IUP ISI, nous nous sommes retrouvés en situation d’enseignement afin d’assister les étudiants dans des tâches liées à leurs projets. Quand vous n’avez jamais enseigné à une classe pleine d’étudiants, vous avez sans doute encore une image de vous, il y a quelques années, assis dans une classe. En effet, la plupart des enseignants ont un jour été étudiants… Parfois même, pas le genre d’étudiant très discipliné ni attentif. Vous aviez sans doute l’impression d’être submergé : l’enseignant entrait dans la salle, faisait face aux étudiants, et déversait sur vous ses connaissances.

Ce stéréotype est ce que la plupart gardent à l’esprit de leurs années d’études et la première fois qu’ils se retrouvent en situation d’enseigner, ils veulent reproduire ce stéréotype : arriver avec un savoir à transmettre.

La bonne nouvelle, c’est que rien n’est plus éloigné de la vérité que ce stéréotype. La mauvaise nouvelle, c’est que si vous essayez de reproduire ce stéréotype, vous allez très probablement faire fuir vos étudiants et ne ferez face qu’à un manque de motivation pour participer à la communauté. L’image que vous donnez de vous est la toute première chose dont ils vont se souvenir de la communauté : la première fois que vous entrez dans la salle de classe, vous êtes, pour eux, la communauté.

Pour éviter de tomber dans le piège de ce stéréotype, il vous faut prendre un peu de recul et réaliser ce que signifie réellement d’enseigner. Ce n’est pas un processus à sens unique où l’on livre la connaissance aux étudiants. Nous sommes arrivés à la conclusion que c’est en fait un processus à double sens : vous êtes amené à créer une relation symbiotique avec vos étudiants. Les étudiants et les enseignants doivent tous sortir de la salle de classe avec de nouvelles connaissances. Il vous faut livrer votre expertise, bien sûr, mais afin de le faire efficacement, vous devez en permanence vous adapter au cadre de référence de vos étudiants. C’est un travail qui rend très humble.

Cette prise de conscience génère pas mal de changements dans la manière d’entreprendre votre enseignement.

  • Vous allez devoir comprendre la culture de vos étudiants. Ils ont probablement des expériences assez différentes des vôtres et vous allez devoir adapter votre discours à eux ; par exemple, les étudiants que nous avons formés font tous partie de la fameuse « génération Y » qui, en matière de leadership, loyauté et confiance, présente des caractéristiques assez différentes de la génération précédente.
  • Vous allez devoir réévaluer votre propre expertise, puisque vous allez devoir adapter votre discours à leur culture. Vous aborderez vos propres connaissances selon un angle très différent de celui dont vous avez l’habitude, ce qui vous mènera inévitablement à des découvertes dans des domaines que vous pensiez maîtriser.
  • Enfin, vous allez devoir vous forger des compétences en présentation ; l’enseignement consiste réellement à sortir de votre zone de confort afin de présenter vos propres connaissances tout en les gardant intéressantes et divertissantes pour votre audience. Cela fera de vous un meilleur présentateur.

Ainsi, vous deviendrez un meilleur enseignant. De plus, vous remplirez mieux vos objectifs : des étudiants bien formés, dont certains s’engageront dans la communauté du Libre.

Conclusion

Au bout du compte, pourquoi feriez-vous tous ces efforts pour établir une relation de confiance avec une université et sortir de votre zone de confort en améliorant votre manière d’enseigner ? Eh bien, cela se résume vraiment à la question initiale à laquelle nous avons tenté de répondre : 

Si les communautés du Libre ne réussissent pas à attirer de nouveaux contributeurs venus des universités, est-ce simplement dû à leur inaction ?

D’après notre expérience, la réponse est oui. Au cours de ces cinq années passées à bâtir un partenariat avec l’IUP ISI, nous avons attiré deux étudiants par année en moyenne. Certains d’entre eux nous ont quittés après quelque temps, mais certains sont devenus des contributeurs très actifs. Les autres gardent encore une certaine nostalgie de cette période de leur vie et continuent de nous soutenir même s’ils ne contribuent pas directement. En ce moment même, nous avons une équipe locale KDE qui a réussi à organiser efficacement une conférence de deux jours pour notre dernière « release party » (NdT : soirée de lancement).

Parmi ces anciens étudiants, pas un seul ne se serait impliqué dans le projet KDE sans ces projets universitaires. Nous serions passés complètement à côté de ces talents. Par chance, nous n’avons pas été inactifs.

[1] http://www.kde.org

[2] https://fr.wikipedia.org/wiki/Ontologie_(informatique)




Innovation et licence libre en biotechnologie

On le constate de plus en plus souvent aidé qu’il est en cela par Internet : quand l’esprit du Libre accoste un nouveau domaine, il interroge voire interpelle son modèle d’organisation antérieur (sans même le demander toujours explicitement).

Est-ce que la fermeture (ici les brevets) est la meilleurs voie vers le progrès et l’innovation ? Doit-on payer plusieurs fois l’usage d’une technologie qui devrait être au bénéfice de tous ?

Il pose alors des questions faussement naïves dont les réponses dessinent les contours du monde de demain.

Idaho National Laboratory - CC by

Oubliez les brevets : Pourquoi les licences libres sont facteurs d’innovation dans les biotechnologies

Forget Patents: Why Open Source Licensing Concepts May Lead To Biotech Innovation

Glyn Moody – 2 novembre 2012 – TechDirt.com
(Traduction : aKa, KoS, Dryt, Amine Brikci-N, Cyrille L., alexis, mazerdan, tanguy)

En direct du département du partage…

L’une des idées directrices conduisant au libre accès dans le domaine de la recherche est que si le public a déjà payé par l’intermédiare des impôts (ou du mécénat), alors il n’est pas légitime de demander à nouveau aux citoyens de payer pour lire l’article publié. La force de cet argument est en partie à l’origine d’une plus grande reconnaissance du libre accès à travers le monde.

Mais le même raisonnement peut s’appliquer à la mise sur le marché de la recherche sur fonds publics. Pourquoi devrait-on céder aux entreprises (qui cherchent naturellement à maximiser leurs profits) des prix si élevés pour des produits qui ont été initialement financés sur fonds publics (rendant par là-même leur mise sur le marché possible) ?

Tout comme pour le libre accès, la difficulté tient de la mise en place d’une nouvelle approche permettant aux traitements médicaux d’être le plus accessible possible. @MaliciaRogue a mis en exergue un article de Frangioni, paru récemment dans Nature Biotechnology, qui propose une solution innovante basée sur un développement open source mené par une fondation à but non lucratif.

Dans ce modèle open source, les structures commerciales sont encouragées à acquérir des licences d’utilisation, mais de manière non exclusive. Les entreprises utilisant la technologie sont encouragées à innover sur la plateforme, qui leur fournira des droits d’auteurs pour leur propriété intellectuelle, qui les aidera à franchir les barrières pour entrer sur le marché et fournir aux patients une version améliorée de la technologie. L’échange et l’évolution des informations ouvertes est encouragé plutôt que découragé, en supposant que les connaissances renforceront les entreprises qui veulent se creuser une niche de contenu protégé tandis que les scientifiques pourront continuer à se saisir d’une technologie de pointe.

C’est un exemple détaillé et fascinant qui nous fait explorer les problèmes que posent la mise sur le marché de la recherche, à commencer par la loi Bay-Dole de 1980 et son échec dans l’accélération des transferts de technologies entre le monde académique et l’industrie :

Au début de Bayh-Dole, la politique de transfert technologique de beaucoup de CMA (centre médico-académique) a été de chercher à breveter le plus d’inventions possible (tout ça à grands frais), parfois sans même se demander si la découverte permettait de compter les brevets comme des actifs ou d’en faire leur commercialisation. De la même façon, trop souvent, des startups émergent des CMA sans qu’une analyse raisonnable n’ait eût lieu, conduisant à un sous-financement de beaucoup d’entreprises.

L’approche de Frangioni est très différente. Puisqu’une structure à but non lucratif est financée par le public, l’accent est mis sur l’optimisation du service rendu au patient, plutôt que sur le retour sur investissement. La nouvelle façon de faire est de demander une forme de réciprocité de la part de ceux qui utilisent ces connaissances.

Les utilisateurs (chercheurs, chirurgiens, et utilisateurs de licences) peuvent acheter la technologie, mais uniquement après s’être formellement engagés à apporter les connaissances acquises par cette technologie dans une sorte de banque publique de connaissances (une base de données publique), à travers ce que nous appelons une boucle de retour d’informations. Ici encore, est mis en œuvre le principe de donner après avoir reçu : l’acheteur doit créer de nouvelles connaissances pour le bien de tous, afin d’avoir accès à la technologie.

C’est ainsi que les logiciels open source fonctionnent : tout le monde peut utiliser le code et bâtir dessus mais il faut redonner ses contributions à la communauté, de manière à ce que les autres puissent, exactement de la même manière, bâtir dessus. Les résultats dans le domaine des logiciels, où l’open source domine l’Internet, les super-ordinateurs et – grâce à Android qui est basé sur Linux – les smartphones, parlent d’eux même. Il reste à voir s’il est possible de généraliser la mise en pratique de ces idées, comme le montre l’expérience de Frangioni avec sa FLARE Foundation. Mais c’est certainement une approche qui vaut le coup d’être tentée.

Crédit photo : Idaho National Laboratory (Creative Commons By)




Les faiseurs de pluie : livre de Christophe Masutti sous CC by-sa

Peut-être encore moins « connu » que son historique fondateur Alexis Kauffmann ou son historique permanent Pierre-Yves Gosset, Christophe Masutti est le nouveau président de l’association Framasoft depuis le début de l’exercice 2012.

Il a néanmoins trouvé le temps pour sortir un livre issu de sa thèse : Les faiseurs de pluie, Dust Bowl, écologie et gouvernement (États-Unis, 1930-1940)

Et comme pour relier les deux, il a choisi de le publier sous la licence libre Creative Commons By-Sa.

Autant de bonnes raisons qui nous ont donné envie de partir à sa rencontre…

Les faiseurs de pluie - Couverture

Entretien avec Christophe Masutti

Bonjour Christophe, peux-tu te présenter rapidement ?

Ça va faire un peu d’auto-promotion, mais tant pis 🙂 Donc je préside depuis janvier 2012 la belle association Framasoft, mais comme j’ai le mauvais goût de travailler pour gagner ma vie, j’occupe deux fonctions. La principale est d’être en charge des Affaires européennes aux Hôpitaux Universitaires de Strasbourg et la seconde est d’être chercheur associé au SAGE (Sociétés, acteurs, gouvernements en Europe[1]) à l’Université de Strasbourg.

Tu viens de sortir un livre possédant un fort joli titre, peux-tu nous en dire plus ?

En réalité, il s’agit d’un livre tiré de ma thèse soutenue en 2004. J’ai (enfin) pris le temps de tout récrire et de le publier. J’en avais déjà tiré pas mal d’articles dans des revues à comité de lecture, mais comme d’une part à quelques exceptions près ces articles sont désormais difficilement accessibles moins de 8 ans après leur sortie (à moins d’avoir un abonnement onéreux à des revues électroniques ou de bien chercher au fond des rayonnages des bibliothèques), et que d’autre part les aléas professionnels font que je me concentre sur d’autres thèmes plus ou moins voisins, j’ai tenu à diffuser une synthèse exhaustive de mes recherches doctorales.

Le titre est la traduction française de rainmakers, les faiseurs de pluie.

Ce terme a un double sens aux États-Unis. il fait d’abord référence à ces aventuriers qui sillonnaient les Grandes Plaines durant les périodes de sécheresse en promettant aux communautés, grâce à un dispositif fumeux (et explosif), de faire tomber la pluie moyennant quelques espèces sonnantes et trébuchantes. Ils n’étaient pas vraiment considérés comme des charlatants. On peut voir sur ce point de film The rainmaker (1956) avec Katharine Hepburn et Burt Lancaster, où un de ces personnages vient dans un village et finalement redonne espoir et courage aux habitants. L’autre sens donné à ce terme est plus moderne et a un rapport avec le monde des affaires, où le rainmaker est celui qui sait saisir les bonnes opportunités et fait des affaires en un temps record (le Golden Boy des années 1980). Là il faut se tourner vers le Rainmaker de F. F. Coppola avec Matt Damon (1997).

Ainsi, c’est avec davantage d’ironie que de méchanceté que Franklin Roosevelt fut bien souvent surnommé The rainmaker par la presse américaine, en particulier celle du Midwest, alors que s’abattait sur le pays la plus grande vague de sécheresse jamais connue qui devait causer une des plus grandes catastrophes agricole du 20e siècle, le Dust Bowl. Il s’agit de l’érosion éolienne des sols agricoles, sur fond de crise économique, qui a jeté sur les routes des milliers de migrants et rendu les sols impropres à l’agriculture. On parle ici d’une extrême pauvreté et, dans certains cas, de famine. Aujourd’hui, le Dust Bowl est en réalité un phénomène récurrent, tant aux États-Unis, où l’on parvient tant bien que mal à jugguler les effets grâce à des techniques modernes, mais aussi aujourd’hui en Chine, et dans bien d’autres pays. L’érosion des sols est un problème mondial et basé sur la même recette que celle de l’épisode américain des années 1930 : industrialisation agricole, surproduction et conception ultra-libérale de l’agriculture, sécheresse, vent (changement climatique).

Les faiseurs de pluie interviennent alors à deux niveaux : d’abord du point de vue de la décision publique, en mettant en place une agriculture planifiée et respectueuse des sols, ce sont les planificateurs, des économistes qui entouraient Roosevelt et mirent en place une politique d’expertise. Ensuite, il s’agit des acteurs de la réhabilitation agricole proprement dite, non seulement ceux qui inventèrent de nouvelles pratiques agricoles, mais aussi ceux qui appliquèrent les résultats des recherches dans le domaine : des agronomes qui se définissaient comme des écologues. En effet, l’écologie avait commencée à être enseignée sous ce terme dans les années 1910 et les spécialistes commencaient alors à être reconnus comme les véritables experts de l’environnement. Par exemple, fondé sur les principes de la théorie de la succession végétale, un grand projet de plantation de ceintures forestières (windbreaks) pour lutter contre le vent a été lancé en 1935, de la frontière canadienne jusqu’au Texas. Ce projet était censé freiner l’érosion éolienne sur la moitié du territoire américain sur plusieurs années de reforestation. Après ca, il était facile d’identifier qui étaient les faiseurs de pluie, à l’échelle gouvernementale.

Qu’est-ce qu’un écologue et en quoi la lecture de ce livre peut nous aider à mieux comprendre la problématique écologique actuelle ?

Aujourd’hui, dans le domaine de l’écologie scientifique, c’est souvent le terme « écologiste » qui est employé pour désigner le scientifique qui fait de l’écologie. C’est un dérivé de l’anglais « ecologist ». Dans cette dernière langue, il n’y a pas le double sens que l’on connaît en français, car l’écologiste (le vert, l’écolo.) c’est l’environmentaliste anglais. Un écologue est donc une appellation un peu désuète mais qui permet au moins de faire la différence en français. Ce qui ne veut pas dire, bien sûr, que l’écologie scientifique soit un sanctuaire où le politique n’entre pas. À cela s’ajoute le fait que l’écologie moderne, celle que tout le monde a entr’aperçu au collège en apprenant les cycles écologiques (manger et être mangé), date en fait des années 1940. Elle est dominée par le concept d’écosystème. Ce dernier concept est né en 1935 sous la plume du botaniste britanique Arthur Tansley, et s’est vu adapter les concepts de la thermodynamique par l’américain R. Lindeman entre 1939 et 1942.

Ce qu’il faut savoir c’est que Tansley écrivait en réaction aux conceptions américaines de l’équilibre des communautés végétales, c’est à dire les recherches de Frederic Clements sur l’analyse statistique des formations végétales et qui a formé tous les écologues que l’on croise dans le livre. Ces derniers réfléchissaient en termes d’équilibre, l’idée selon laquelle les communautés végétales se succèdent vers un état stable, final (nommé climax). Par conséquent toute activité humaine peut soit résulter sur la rupture de cet équilibre, soit favoriser un équilibre temporaire (un champ de maïs est un système en équilibre relatif). Pour Tanley (et Lindeman) au contraire, il faut réfléchir en termes de fonctions des espèces, et envisager l’éco-système d’un point de vue énergétique. Il n’y a pas d’équilibre final, ni une sorte de nature idéalisée (ce que devrait être un système) mais des équilibres, des rapports entre biomasses et quantités d’énergie qu’il faut évaluer pour comprendre les changements dans les systèmes. En d’autres termes encore, le fameux « équilibre écologique » qu’on nous sert pour justifier telle ou telle idée écologiste, est en fait une très vieille idée de l’équilibre idéalisé entre les activités humaines et l’environnement non-humain. On fait alors appel alors à une éthique, voire une morale, là où le scientifique est plutôt censé s’occuper des faits.

Dans notre histoire du Dust Bowl, on a affaire à des écologues qui n’en sont pas encore à mettre en place une « éthique environnementale ». On voit en réalité se développer une nouvelle conception des politiques environnementales, l’idée que pour mettre en place une conservation des sols agricoles ou des parcs nationaux, il faut s’en remettre à des experts. Cette politique de l’expertise, dans le gouvernement Roosevelt, est la première dans l’histoire à identifier l’écologie comme une science que l’on dote de moyens d’applications à grande échelle (comme les fermes expérimentales), mais aussi à justifier la décision publique en référence aux recherches écologiques. La crise agricole américaine des années 1930, est alors devenue une « crise écologique », qui a une dimension complexe qui structure les relations sociopolitiques, institutionnelles (mise en place de départements et services exclusivement composés d’écologues et d’ingénieurs) et scientifiques. C’est sur ce modèle tridimentionnel que s’explorent toutes les crises écologiques ou environnementales jusqu’à aujourd’hui. Il était donc important de dé-construire celle-ci 🙂

Ce livre est sous licence Creative Commons ? Pourquoi ce choix ?

Comme dit précédemment, ce livre est le résultat de recherches menées sur fonds publics. L’État français a subventionné pendant 3 ans mon salaire, mes déplacements, et tous les coûts liés aux recherches, à commencer par me fournir un bureau et un ordinateur. La diffusion de ces résultats devrait donc profiter en premier lieu à tout le monde et il fait partie du devoir du chercheur que de diffuser ses recherches.

Aujourd’hui, le mode de production d’écrits scientifiques est quasi-exclusivement le format électronique. Quant à la diffusion (les correspondances entre scientifiques comme envers le public) elle passe par Internet. Cela signifie que modèle qui valait il y a encore une trentaine d’année, à savoir le cycle qui va exclusivement de la production-évaluation à la publication papier est obsolète. Dans ce modèle, les maisons d’éditions effectuaient un travail salutaire : elles assuraient la distribution et la diffusion des connaissances scientifiques sur un support de première qualité, le livre papier. Elles le font toujours, bien entendu, mais le prix de cette diffusion est la cession exclusive de droit d’auteur : l’auteur de l’oeuvre cède de manière exclusive sa production scientifique à un éditeur, en échange de quoi cet éditeur assure la mise en page, l’impression et la distribution. Dans le cas des petits éditeurs, l’évaluation scientifique est assurée par un comité de lecture qui n’est que rarement payé pour cela, et il existe des éditeurs, pas forcément les moins connus, qui n’assurent qu’une évaluation légère de la qualité scientifique des ouvrages et font davantage confiance aux auteurs, comme c’est le cas par exemple lorsqu’un groupe de chercheurs inclu dans son projet la publication finale d’un ouvrage collectif, acheté en quantité pour amortir l’investissement de départ de l’éditeur.

Dans tous les cas, un contrat de cession exclusive est signé et permet l’exploitation de l’oeuvre alors même que tout le jeu des éditeurs est, comme toute entreprise, d’effectuer des bénéfices intéressants. Dans leurs stratégies, les éditeurs déploient plusieurs moyens : la rationalisation du stock d’imprimés (la décision de la réédition dépend alors des bénéfices escomptés, ce qui est le plus souvent compromis dans les publications scientifiques sauf pour les « têtes d’affiche »), l’édition des formats électroniques affublés de DRMs, la revente des formats électroniques à de plus gros éditeurs (type Elsevier) qui effectuent alors d’autres formes de bénéfices via un système d’abonnement aux institutions… Tout cela limite fortement la diffusion d’une oeuvre scientifique, surtout dans le cas des sciences humaines où l’obsolescence est loin d’être évidente après 10, 20, 30, 100 ans…

Le choix de la licence libre, pour cet ouvrage, est le même que pour d’autres revues scientifiques qui font de plus en plus ce choix : privilégier la diffusion de l’oeuvre sur sa distribution, à plus forte raison lorsque celle-ci est réalisée grâce à des fonds publics. Il n’y a aucune raison d’attendre d’avoir la permission d’un éditeur pour diffuser l’oeuvre, au moins au format électronique. Pourquoi ne pas donner le droit aux lecteurs de photocopier l’ouvrage, ou dupliquer le fichier, notamment à des fins pédagogiques ? Après tout, le livre papier n’est aujourd’hui qu’un support parmi d’autres formats de diffusion envisageables.

Et plus précisément pourquoi le choix de la licence libre By-Sa parmi le panel de licence offert par les Creative Commons ?

La licence CC-By-Sa consiste à donner au lecteur la possibilité de partager, diffuser et communiquer l’oeuvre comme bon lui semble, à condition d’attribuer la paternité de l’oeuvre à son auteur. Pour les raisons évoquées ci-dessus, cela me semble être un minimum avec, pour seul prix à payer, le rappel que le droit d’auteur est aussi un droit moral.

Par ailleurs, la clause share alike (-Sa) est intéressante dans ce contexte, bien qu’elle ne soit pas nécessaire : il s’agit d’assurer la viralité de la licence dans un monde où le plagiat est de plus en plus à l’étude. En effet, des colloques et des groupes de veille se montent un peu partout à propos du plagiait scientifique, qui ne concerne pas seulement les étudiants, loin s’en faut. Le but de cette clause, ici, est plutôt pédagogique.

Enfin la possibilité de modifier l’oeuvre a surpris certains collègues. Je pars en effet du principe qu’un livre est avant tout un projet de construction scientifique. N’importe quel chercheur pourra vous dire que, plusieurs années après une publication, il arrive parfois d’avoir le regret de ne pouvoir corriger ou améliorer certaines choses. Mais est-ce que l’auteur peut-être le seul juge de ce qu’ill faudrait améliorer? Pourquoi d’autres chercheurs ne pourraient pas eux-mêmes améliorer l’oeuvre et éventuellement soumettre leurs modifications, suggestions et commentaires à l’auteur en vue d’une version ultérieure du livre? C’est la notion d’oeuvre-projet que je défends, l’idée qu’une oeuvre est toujours améliorable et que le processus peut être collectif, à l’image (humaniste) qu’on se fait des sciences.

Quant à la question du droit d’auteur, il est inutile ici de préciser que le droit moral de l’auteur est inaliénable et que par conséquent toute modification de l’oeuvre qui porterait préjudice à l’auteur (par exemple un détournement des propos ou l’appropriation usurpée de l’oeuvre) est punie par la loi, à laquelle ne se substitue pas la licence libre.

A-t-il été compliqué de convaincre un éditeur d’adopter cette licence ?

Par curiosité, j’ai démarché exactement cinq éditeurs (c’est peu) assez connus dans le domaine et deux m’ont répondu négativement d’emblée parce que le livre n’entrait pas dans les clous de leurs collections. Les trois autres ont entammé un dialogue qui n’a finalement pas abouti à une entente. Je l’ai fait sans réelle conviction car j’avais déjà l’idée qu’aucun n’était de toute façon prêt à publier cet ouvrage pour deux raisons :

  • la raison pratique : l’ouvrage est une somme et entre dans des détails qui intéressent un lectorat qui, à la base, n’est pas très large. Ce type d’ouvrage se vend de moins en moins bien. Il y a encore 20 ans, certains éditeurs publiaient avec moins d’hésitation. Or, aujourd’hui, le rapport entre l’investissement d’un éditeur et les objectifs de ventes est primordial. Il aurait donc fallu faire des coupes franches sur les points de détails que, justement, je tenais à publier. Je ne voulais pas que l’intégrité de l’oeuvre soit sacrifiée sur l’autel de la rentabilité. De plus, si je voulais diffuser gratuitement le format électronique, l’un des éditeurs me proposait de publier directement en achetant un stock d’exemplaires suffisants pour rentrer dans ses frais (l’investissement de départ pour produire quelques 300 exemplaires). Je trouve cela non seulement anti-écologique mais le système d’impression à la demande permet d’éviter ce genre de surproduction. Quant à acheter moi-même un stock de livres pour que l’éditeur puisse rentabiliser ses propres ventes, autant aller voir moi-même l’imprimeur. Je précise enfin que dans tous les cas il n’a été nullement question de rétribution des droits d’auteurs, sous-entendu : zéro ou quelques centimes 🙂
  • la raison économique : pour les éditeurs avec qui j’ai pu échanger plus profondément, publier sous licence libre, avec en plus la volonté de diffuser gratuitement la version électronique était suicidaire. Pour eux, le don de la version électronique est synonyme de perte de marché. C’est peut-être vrai du point de vue de l’éditeur (quoique cela reste à prouver), mais il n’empêche que le principe est inacceptable : si quelqu’un me demande la version électronique du livre, je la lui envoie sans hésiter, contrat d’exclusivité ou pas, car c’est mon devoir de scientifique. Par ailleurs que dire des exemplaires disponibles en bibliothèque? et la version électronique ne permet-elle pas un usage plus complet, comme par exemple la recherche de mots, un accès direct à cerains passages, etc.? C’était le principal point de clivage et j’ai même eu des échanges tendus à ce propos. Il s’agit de deux conceptions différentes de l’objet-livre : une conception monolithique (un livre est une oeuvre aboutie, finie une fois pour toutes) et basée sur la notion de propriété / exclusivité, et l’autre conception du livre-projet qui implique de laisser au lecteur une série de droits que s’approprient injustement les éditeurs. Partant de ce constat, la messe était dite.

Qu’en est-il également du droit d’auteur concernant les illustrations de l’ouvrage ?

Il y a deux types d’illustrations. En premier viennent les photographies de la Farm Security Administration que l’on trouve aujourd’hui à la Bibliothèque du Congrès. Ils s’agit de photographies réalisées par de grands photographes célèbres qui étaient alors embauchés par le gouvernement Roosevelt : Dorothea Lange, Walker Evans, Arthur Rothstein… Toutes ces photographies sont dans le domaine public (à condition de mentionner le numéro de référence) et le fait de mentionner l’auteur est plus un soucis d’exactitude. Concernant les 3 cartes climatiques du premier chapitre, elles sont elles aussi dans le domaine public (produites par un institut public).

Cet ouvrage est une publication scientifique ayant fait le choix de l’impression à la demande, cela aussi c’est assez rare dans le milieu ?

L’impression à la demande est peu pratiquée dans la communauté scientifique et pourtant elle mériterait de l’être. Après tout, pourquoi encombrer les sous-sols universitaires de stocks d’invendus et occuper les secrétaires de labo à la gestion des ventes par correspondance? Une revue ou une collection pourrait très simplement, tout en conservant un système d’évaluation par comité de lecture, se contenter de produire le PDF à imprimer à la demande. Plus besoin de débourser alors de l’argent public auprès d’un imprimeur, fut-il l’imprimeur officiel de l’université. Quant à la vente et les revenus, il s’agit la plupart du temps d’associations de type loi 1901, donc un compte en banque suffit.

Le modèle Framabook utilise ce système et je compte d’ailleurs le cloner avec un universitaire de mes amis, pour monter une collection sur le même modèle.

Reprenons ta casquette Framasoft, comment vont les framabooks ?

Parlons-en, justement. Les Framabooks vont bien et la communauté est de plus en plus active. J’en profite d’ailleurs pour les remercier tous pour le travail fourni en relecture, édition des formats, etc. Nous venons de sortir un premier roman, intitulé #Smartarded, par Pouhiou : c’est une nouveauté à double titre, d’abord pour son caractère inédit, mais aussi parce que nous n’avons a priori aucune idée sur la réception du livre par les lecteurs, ou même la nature du lectorat que nous aurons. C’est un domaine encore inconnu, tout comme l’élaboration du modèle de publication Framabook, grâce auquel les arcanes de l’édition commencent à nous être familières. C’est cela qui est stimulant 🙂

Après des années de « dictature bienveillante » de la part d’aKa, tu a récemment pris le relais en tant que président de l’association Framasoft. Pas trop dur, expérience enrichissante ?

Ce n’est pas ma première présidence d’association mais celle-ci est vraiment passionnante. J’en retiens surtout qu’un président-fondateur n’est pas un président comme les autres, et que la transition n’est pas évidente du point de vue du public (les membres, eux, me connaissent depuis assez longtemps, bien que par rapport à certains je fais figure de petit nouveau). J’assure donc la première présidence tournante de Framasoft. Cela demande du temps bien sûr mais nous avons tellement à construire ! La première raison à cela, c’est justement que le fondateur intervient depuis septembre 2012 en tant que salarié, avec une feuille de route qui permettra d’accroître les activités de Framasoft. En termes de productivité, l’arrivée de ce second permanent permet déjà significativement de multiplier les oportunités de partenariats, pour lesquelles il faudra faire attention de ne pas rester dans la phase consensuelle du Yakafokon. D’un autre côté, tout le monde est motivé pour cela et s’engage beaucoup dans ce tournant majeur dans l’histoire de Framasoft. De ce point de vue, la présidence n’est rien, l’engagement fait tout.

Un dernier mot ?

Pour rester dans le thème de ce billet, je tiens à signaler que sans Framasoft, je n’en serais pas arrivé à publier cet ouvrage sous licence libre. C’est bien parce qu’il existe des modèles comme Framabook que l’on voit clairement que le libre peut concerner bien d’autres secteurs que le logiciel. L’objectif de Framasoft est de promouvoir le logiciel libre et la culture libre, et cela implique d’être présent sur de multiples secteurs d’activité, en particulier envers le public. Après plus de vingt ans d’existence du noyau Linux, il faut attendre 2012 pour entendre que le logiciel libre dans l’administration publique est finalement une bonne idée, ce qui me laisse penser qu’on est encore bien loin d’adopter le Libre comme modèle de développement dans la société. Nous sommes convaincus qu’en promouvant le logiciel libre et qu’en montrant par l’exemple que le Libre est un bon modèle pour le développement de l’économie et des connaissances, nous nous dirigeons vers une meilleure société. C’est incroyable (et tellement positif) de voir à Framasoft le nombre de personnes capables de donner bénévolement de leur temps et motivés par le souci du partage (de code ou d’autres choses).

Pour cela, on pourra toujours les remercier mais je pense que la meilleure chose qu’on puisse leur donner, c’est un cadre d’activité, une structure, et c’est ce que propose Framasoft. Pour cela, il faut des moyens et là encore ce sont les dons de ceux qui nous font confiance qui nous permettent d’être efficaces.

La campagne de soutien à Framasoft va donc commencer mi-octobre. Elle est particulièrment importante cette fois car l’enjeu pour nous est de pouvoir envisager nos activités sur un plus long terme que seulement les prochains 6 mois. Il nous faut du temps pour développer des projets et trouver encore d’autres moyens de financement. Précisons encore deux choses : en tant qu’association reconnue d’intérêt général (et je pense que ce n’est plus à démontrer), les dons sont déductibles des impôts, par ailleurs il n’est nullement obligatoire d’attendre la campagne officielle de soutien, il suffit de vous rendre sur http://soutenir.framasoft.org/ 😉

Crédit photo : Violaine Masutti (Creative Commons By)

Notes

[1] Le SAGE n’existera qu’à partir de janvier 2013, il regroupera entre autre les membres de l’actuel département d’histoire des sciences de la vie et de la santé (dhvs), dont je fais partie.