1

À propos de la formation aux logiciels libres, par Jean-Pierre Archambault

Extra Ketchup - CC by-sa« Le libre est à la fois une réponse concrète à des problèmes concrets et un outil de réflexion pour penser les problématiques générales de l’immatériel et la connaissance », nous dit ici Jean-Pierre Archambault, qui n’en est pas à son premier article sur le Framablog.

C’est pourquoi la question de la formation aux logiciels libres est l’un des enjeux majeurs de l’éducation de demain[1].

Il s’agit bien entendu d’être capable de les utiliser. Mais bien au-delà il s’agit aussi et surtout de comprendre qu’ils s’inscrivent dans une culture. Une culture de la collaboration, de la création, de l’autonomie et du partage qui ne doit plus être absent du cursus scolaire de nos étudiants.

À propos de la formation aux logiciels libres

La question est souvent posée de savoir s’il y a une spécificité de la formation aux logiciels libres. La licence d’un programme n’est pas forcément choisie lors de son écriture. Un traitement de texte reste un traitement de texte. Et une procédure récursive n’est pas intrinsèquement copyleft ou copyright. Nous allons examiner la question du point de vue des logiciels, de la culture informatique, des méthodes organisationnelles de réalisation des logiciels libres, de la portée sociétale du libre et des besoins pédagogiques des enseignants.

Former aux outils logiciels

Qu’il faille former à Linux comme on forme à Unix, Mac OS X ou Vista va de soi. Idem pour OpenOffice, FireFox ou The Gimp. Ce sont des systèmes et des applications qu’il faut connaître pour s’en servir « intelligemment ». Mais un système d’exploitation, un traitement de texte ou un tableur sont des outils conceptuels compliqués et complexes de par les objets qu’ils traitent et la multitude de leurs fonctionnalités. Il faut veiller à ne pas entrer dans le tunnel sans fin de la formation à la version n d’un progiciel, puis n+1, d’un usager « presse-boutons ». On connaît ce genre de pratiques pour des produits propriétaires dont les versions défilent à grande vitesse, enrichies de fonctionnalités dont l’utilisateur lambda n’a pas nécessairement besoin. Mais qui peuvent présenter des avantages financiers et des rentes de situation pour des officines de formation. Il faut donc pouvoir s’appuyer sur une appropriation initiale des concepts généraux des traitements de texte, tableurs et gestionnaires de bases de données.

L’informatique, le numérique étant partout dans la société, la question posée est celle de la culture générale de l’homme, du travailleur et du citoyen du 21è siècle. Il s’agit là des trois missions fondamentales des systèmes éducatifs. Le libre, c’est le code source que l’on connaît. Et pas la « boîte noire » miraculeuse qui fait tout pour vous : curieuse d’ailleurs cette représentation mentale qu’ont certains de la prothèse du cerveau qu’est l’ordinateur, que l’on pourrait utiliser sans la connaître ni la comprendre. De ce point de vue, le libre s’inscrit pleinement dans la vision qui considère que les usagers de l’informatique doivent comprendre et maîtriser les outils conceptuels qu’ils utilisent. Les créateurs d’informatique aussi, bien évidemment.

Maurice Nivat nous invite opportunément à relire André Leroy Gourhan qui nous a appris que l’outil n’est rien sans le geste qui l’accompagne et l’idée que se fait l’utilisateur de l’outil de l’objet à façonner[2]. Et d’ajouter : « Ce qui était vrai de nos lointains ancêtres du Neanderthal, quand ils fabriquaient des lames de rasoir en taillant des silex est toujours vrai : l’apprentissage de l’outil ne peut se faire sans apprentissage du geste qui va avec ni sans compréhension du mode de fonctionnement de l’outil, de son action sur la matière travaillée, ni sans formation d’une idée précise de la puissance de l’outil et de ses limites ».

Enseigner l’informatique pour donner une culture générale

Il faut donc former à l’outil. Il faut donner une culture générale informatique à l’ « honnête homme » de notre époque. Or, si une option d’informatique générale a existé au lycée dans les années quatre-vingt, elle a été supprimée au début des années quatre-vingt-dix. La ligne pédagogique selon laquelle les apprentissages doivent se faire à travers les usages de l’outil informatique dans les différentes disciplines existantes, et cela suffit, l’avait emporté, pour des raisons diverses (elle prendra la forme du Brevet informatique et internet, le B2i). Une longue « traversée du désert » commençait. Pour autant, des voix se faisaient entendre. Elles disaient que l’informatique étant partout (dans les autres disciplines scolaires), elle devait être quelque part en particulier, à un moment donné, sous la forme d’une discipline scolaire en tant que telle car la seule utilisation d’un outil, matériel ou conceptuel, ne suffit pas pour le maîtriser.

Gérard Berry, qui avait intitulé sa leçon inaugurale au Collège de France « Pourquoi et comment le monde devient numérique »[3], déclarait dans une interview au journal Le Monde, le 15 avril 2009 : « Du point de vue de l’enseignement de l’informatique, la France rentre résolument dans le XXe siècle. »[4]. Il regrettait que l’« on confonde la notion de computer literacy avec celle de computer sciences ». Et il ajoutait : « Dans les établissements scolaires, on a fait le choix d’enseigner les usages. C’est très insuffisant. C’est la différence entre apprendre à conduire et comprendre comment marche une voiture. Les jeunes quittent le lycée sans connaissance de la science informatique. C’est une aberration ! » .

L’association EPI (Enseignement Public et Informatique) et le groupe ITIC de l’ASTI ont pris ces dernières années de nombreuses initiatives en faveur d’un enseignement de l’informatique au lycée sous la forme d’une discipline d’enseignement général : audiences auprès des autorités de la République, tables rondes, séminaires, textes divers, propositions de programmes scolaires pour le lycée…[5]. Un tel enseignement doit comporter des apprentissages corrrespondant aux grands domaines de la science informatique, à savoir l’algorithmique et la programmation, la théorie de l’information, les machines et leurs architectures, les réseaux, Internet, les bases de données.

Dans le cadre de la réforme du lycée, un enseignement de spécialité optionnel « Informatique et sciences du numérique » a été créé en Terminale S pour la rentrée 2012. Dans son discours devant le Conseil supérieur de l’Éducation, le 10 décembre 2009, s’exprimant sur cette réforme du lycée, Luc Chatel a notamment déclaré : « A l’heure de la société de l’information et de la connaissance, la France a besoin plus que jamais de compétences scientifiques en informatique. Aujourd’hui l’informatique représente 30 % de la recherche et développement dans le monde. Aujourd’hui l’informatique est partout. Nous ne pouvons pas manquer ce rendez-vous majeur et c’est la raison pour laquelle nous proposons en série S une spécialisation « informatique et sciences du numérique » »[6].

Tous ceux qui se sont prononcés en faveur d’une telle mesure se félicitent. Parmi ceux-ci, et ce n’est pas un hasard, figure l’APRIL (« Promouvoir et défendre le logiciel libre »). Dans un communiqué de presse, le 5 janvier 2010, l’association, rappelant qu’«elle a toujours été favorable à ce que l’informatique soit une composante à part entière de la culture générale scolaire de tous les élèves sous la forme notamment d’un enseignement d’une discipline scientifique et technique », souligne « cette première et importante avancée signe d’une certaine rupture »[7]. Elle mentionne que « l’expérience de ces dernières années a clairement montré que le B2i ne fonctionnait pas. Son échec prévisible tient notamment à des problèmes insolubles d’organisation, de coordination et de cohérence des contributions supposées et spontanées des disciplines enseignées. De plus ne sont pas explicitées les connaissances scientifiques et techniques correspondant aux compétences visées. »

Le rapport de la mission parlementaire de Jean-Michel Fourgous, député des Yvelines, sur la modernisation de l’école par le numérique, « Réussir l’école numérique », remis au Ministre de l’Éducation nationale Luc Chatel le 15 février dernier, va dans le même sens[8]. Il met en évidence la portée de cet enseignement de l’informatique : « En créant une matière Informatique et sciences du numérique en terminale, le gouvernement français ouvre enfin la voie de l’apprentissage du numérique et redonne à l’école son rôle d’éducateur. » Et rappelle qu’en définitive le B2i ne correspond pas aux enjeux car « il ne permet pas d’acquérir une culture informatique, permettant de comprendre les techniques sous-tendant le fonctionnement des divers outils numériques… ne prenant pas en compte les connaissances techniques de base nécessaires ».

Le libre, une science

Si le libre est une composante à part entière de l’informatique, il n’en comporte pas moins des spécificités, qui doivent donner lieu à des enseignements dédiés, notamment dans le Supérieur. Il existe une « science du logiciel libre ». Voir l’article de Roberto Di Cosmo auquel nous nous référons ci-après[9].

Si les collaborations avec des partenaires dispersés géographiquement ne datent pas d’aujourd’hui, avec Internet la situation a radicalement changé. La question est posée de savoir sur quels principes scientifiques se fondent des projets comme Wikipédia ou Linux, exemples extrêmes de travail massivement collaboratif. Et de savoir comment en améliorer la stabilité et la fiabilité. Dans le développement du noyau Linux, chaque erreur, ou chaque fonction manquante ou obsolète, peut entraîner des dysfonctionnements majeurs rendant l’ensemble inutilisable. Malgré tout, le « phénomène Linux » a abouti à des versions de plus en plus complètes, fonctionnelles et stables. En fait, le succès des logiciels libres de qualité reposent sur des approches méthodologiques très structurées. L’organisation modulaire du code source, la sélection sévère des contributions et l’existence d’un noyau central de développeurs s’assurant de la cohérence de l’ensemble jouent un rôle essentiel dans la réussite de Linux. Mais la taille atteinte par Linux est telle que l’on est aux limites de ce qui peut être maîtrisé en s’appuyant sur les capacités organisationnelles des communautés. Les logiciels libres sont donc devenus un champ d’étude à part entière pour les informaticiens. Il faut résoudre des questions scientifiques (par exemple, comment gérer rapidement la modification d’un appel de fonction résultant de l’ajout, du changement ou de la suppression d’un paramètre ?). Le projet Coccinelle a fourni une contribution majeure en introduisant la notion de « patch sémantique ». Le projet Mancoosi vise à développer des algorithmes efficaces pour permettre aux utilisateurs d’exprimer leurs préférences lors de mises à jour et d’obtenir des installations personnalisées.

Toutes ces actions de recherche se traduiront dans des enseignements universitaires, pour le libre mais aussi l’informatique en général.

Penser l’immatériel

Dans leur rapport sur l’économie de l’immatériel, Maurice Lévy et Jean-Pierre Jouyet attirent l’attention sur le fait que, dans cette économie, « l’incapacité à maîtriser les TIC constituera (…) une nouvelle forme d’illettrisme, aussi dommageable que le fait de ne pas savoir lire et écrire ». Ils mettent en évidence les obstacles qui freinent l’adaptation de notre pays à l’économie de l’immatériel, notamment « notre manière de penser », invitant à changer un certain nombre de « nos réflexes collectifs fondés sur une économie essentiellement industrielle »[10]. Il faut former à l’informatique.

John Sulston, prix Nobel de médecine, évoquant en décembre 2002 dans les colonnes du Monde Diplomatique les risques de privatisation du génome humain, disait que « les données de base doivent être accessibles à tous, pour que chacun puisse les interpréter, les modifier et les transmettre, à l’instar du modèle de l’open source pour les logiciels ». Il existe une transférabilité de l’approche du libre à la réalisation et la mise à disposition des biens informationnels en général. On a pu le constater à l’occasion des vifs débats qui ont accompagné la transposition par le Parlement en 2006 de la directive européenne sur les Droits d’auteur et les droits voisins dans la société de l’information (DADVSI), ou plus récemment avec la loi Hadopi. Le libre, ses approches et ses méthodes, ses façons efficaces de produire des biens de connaissance qui relèvent du paradigme de la recherche scientifique, ses modèles économiques et ses réponses en termes de propriété intellectuelle, est omniprésent dans les problématiques de l’immatériel. Il faut former à l’informatique libre. Les élèves et les étudiants, travailleurs et citoyens d’aujourd’hui ou de demain, doivent en avoir entendu parler lors de leur scolarité et de leurs études. Le libre est à la fois une réponse concrète à des problèmes concrets et un outil de réflexion pour penser les problématiques générales de l’immatériel et la connaissance.


Production collaborative de ressources pédagogiques

La création de logiciels libres est un travail collaboratif : cette manière de créer du savoir à plusieurs est particulièrement importante si nous voulons préparer les plus jeunes à entrer dans une société du savoir partagé. Certains d’entre eux seront enseignants. Les enseignants ont besoin de documents, de contenus pédagogiques. Pour se former et pour enseigner. Et ils sont bien placés pour les concevoir et les produire eux-mêmes. L’on sait la transférabilité de l’approche du logiciel libre à la réalisation des contenus pédagogiques. Tout le monde, ou presque, connaît les réalisations remarquables de l’association Sésamath[11], « vaisseau-amiral » de la production collaborative de ressources pédagogiques libres, qui a obtenu un prix spécial de l’UNESCO.

Et il faut attacher une licence à un contenu produit. Les Creative Commons sont de mieux en mieux connues mais il reste du chemin à parcourir. Il faut faire connaître leurs modalités juridiques au service de l’objectif général, clairement exprimé, de favoriser la diffusion et l’accès pour tous aux oeuvres de l’esprit, en conciliant les droits légitimes des auteurs et des usagers. Creative Commons renverse le principe de l’autorisation obligatoire. Il permet à l’auteur d’autoriser par avance, et non au coup par coup, certains usages et d’en informer le public. Il est autorisé d’autoriser. C’est incontournable à l’heure d’Internet et du numérique car, sinon, toute vie intellectuelle serait impossible si l’on ne pouvait parler librement des oeuvres et s’il fallait, pour la moindre citation, demander l’autorisation à l’auteur ou à ses héritiers.

Que de nombreux autres enseignants, à la manière de Sésamath, fabriquent des contenus libres dans des démarches de mutualisation et de coopération est une raison supplémentaire de former au libre.

Jean-Pierre Archambault
CNDP-CRDP de Paris, coordonnateur du pôle de compétences logiciels libres du SCEREN

Notes

[1] Extra Ketchup (Creative Commons By-Sa)

[2] « L’informatique, science de l’outil », Maurice Nivat (à paraître dans EpiNet 124) http://www.epi.asso.fr/

[3] Leçon inaugurale le 17 janvier 2008, Cours Séminaires du Collège de France, par Gérard Berry titulaire de la chaire d’innovation technologique Liliane Bettencourt http://www.college-de-france.fr/default/EN/all/inn_tec2007/

[4] « Gérard Berry : L’informatique est une science », de Christian Bonrepaux dans le Cahier Éducation du Monde daté du 16 avril 2009. http://www.lemonde.fr/societe/article/2009/04/15/gerard-berry-l-informatique-est-une-science_1181041_3224.html

[5] $http://www.epi.asso.fr/blocnote/blocsom.htm#itic On pourra aussi se référer, pour les élèves à partir de l’école primaire, à la version francaise de « Computer Science Unplugged » : http://interstices.info/jcms/c_47072/enseigner-et-apprendre-les-sciences-informatiques-a-l-ecole

[6] http://www.education.gouv.fr/cid49972/reforme-du-lycee-discours-devant-le-conseil-superieur-de-l-education.html

[7] http://www.epi.asso.fr/revue/docu/d1001a.htm

[8] http://www.reussirlecolenumerique.fr/

[9] « La science du logiciel libre », Roberto Di Cosmo, La Recherche n°436, décembre 2009 – Professeur à l’Université Paris 7, Roberto Di Cosmo « porte » le projet de centre de recherche sur le logiciel libre de l’INRIA.

[10] Rapport remis à Thierry Breton en décembre 2006.

[11] http://www.sesamath.net




Inauguration du CF2L – Allocution du président de l’Université Paris Diderot

Le 5 février 2010 était inauguré à l’Université Paris Diderot le premier Centre de Formation Logiciels Libres (ou CF2L) dans le cadre de l’Université numérique Paris Île-de-France (UNPIdF).

Nous en avions annoncé ici-même la création et participé à diffuser le programme.

Cet évènement témoigne de l’intérêt croissant de l’université en général et de celles d’Île-de-France en particulier pour le logiciel libre. J’en veux pour preuve supplémentaire la présence de deux présidents et un vice-président d’université lors de cette inauguration.

Partie prenante de la formation, Framasoft était représenté par Pierre-Yves Gosset et moi-même. D’ordinaire les traditionnels discours officiels ont quelque chose de lisse et de convenu. Or nous avons été très agréablement surpris par l’acuité et la justesse des propos tenus ce soir-là. C’est aussi à cela que l’on mesure le chemin parcouru.

Mention spéciale à Vincent Berger, président de l’Université Paris Diderot et hôte de la manifestation, dont l’intervention m’a tant et si bien marquée que je n’ai pu m’empêcher de l’aborder pour lui demander l’aimable autorisation de la reproduire sur le Framablog.

Qu’il en soit ici chaleureusement remercié. Pour son accord, mais aussi et surtout pour être à la tête d’une université qui fait la part belle à un logiciel libre malicieusement associé ici à un oxymore.

CF2L - Inauguration - Jean-Baptiste Yunes

De gauche à droite sur le photographie ci-dessus[1] :

  • Michel Moreau-Belliard – Chef de projet de l’Université Numérique Paris Île-de-France (UNPÎdF)
  • Vincent Berger – Président de l’Université Paris Diderot
  • Jean-Claude Colliard – Président de l’Université Paris 1 Panthéon-Sorbonne et de l’Université Numérique Paris Île-de-France (UNPÎdF)
  • Arnaud Ducruix – Vice-Président de l’Université Paris Descartes, représentant Axel Kahn, Président de l’Université Paris Descartes

Intervention Président Berger

Inauguration du Centre de Formation aux Logiciels Libres
Vendredi 5 février 2010
Salle des thèses, Université Paris Diderot

Mesdames et Messieurs,
Chers collègues,

Nous le savons tous et vous le savez mieux que quiconque, la société de l’information qui est la nôtre est une société de la circulation : circulation des savoirs, circulation des données, circulation des signes. Qui a accès aux moyens de cette communication peut espérer prendre part à cette société de l’information et en être un acteur.

On sait combien l’économie du partage des savoirs est aujourd’hui un enjeu complexe. On sait aussi combien le large accès aux moyens de l’information est un enjeu politique au sens le plus large et le plus noble du terme. L’accès à ces moyens d’information conditionne la réalité de l’exercice démocratique dans un monde aux cultures et aux pratiques toujours plus intégrées et globalisées.

Dans ce contexte, on sait quel est le rôle charnière de l’université. Sa mission hier comme aujourd’hui est de garantir l’accès du plus grand nombre à des savoirs et à des compétences complexes. Son rôle dans l’économie de la connaissance et de l’information lui enjoint de jouer un rôle ambitieux et volontaire dans la promotion et la diffusion d’une culture du partage.

En cela, la pratique universitaire — qu’elle soit pédagogique ou scientifique, qu’elle se déploie dans une salle de TD ou un laboratoire — participe du même esprit que celle du logiciel libre. La dynamique collégiale, l’énergie collective qui ont rendu le développement du logiciel libre possible relève de la même éthique du partage que celle de la recherche et de l’enseignement.

Les outils numériques ouverts ont connu un essor tel qu’aujourd’hui ils répondent à la quasi intégralité de nos besoins en technologie informatique. Accompagner leur développement, former les utilisateurs et les développeurs à leur utilisation et à leur développement, est désormais aussi la tâche de l’université. Le Centre de Formation aux Logiciels Libres (CF2L) répond à cet impératif.

Dans sa conception et sa gestation, ce Centre est aussi exemplaire d’une autre forme de dynamique collaborative que nous défendons aussi : celle qui doit permettre à des universités de dépasser leur logique propre pour faire advenir des synergies porteuse d’avenir, porteuse de nouveau. C’est le cas de l’Université Numérique Paris Ile de France, pilotée par l’université Paris 1 – Panthéon Sorbonne, dont l’une des actions est d’offrir en mutualisation des formations à destination des personnels, quels qu’ils soient, appartenant aux universités franciliennes. C’est aussi le cas du RTC (Regional Training Center), aujourd’hui hébergé par l’Université Paris Descartes, une initiative de l’Université numérique et d’Apple pour former les personnels des universités de la région parisienne aux usages du numérique. En 2011 devrait ouvrir aussi un centre de formation aux outils Microsoft.

Le Centre de Formation que nous inaugurons aujourd’hui s’inscrit dans ce même esprit. Il témoigne de l’investissement ancien de notre établissement dans l’usage et la défense du logiciel libre. L’UFR d’informatique a eu, dès le début des années 80, une action très volontariste dans l’usage et la promotion du numérique ouvert, avec la pratique d’Unix par exemple. L’Université a, dès les années 90 promu l’usage systématique de systèmes d’exploitation libres au sein du Service Commun de Ressources Informatiques Pédagogiques et Technologiques (le SCRIPT), dirigé aujourd’hui par Olivier Cardoso. De nombreux enseignements s’appuient sur des logiciels libres.

J’ouvre ici une parenthèse, j’aime beaucoup l’expression « logiciel libre » qui a le charme des oxymores, comme « la force tranquille . Je me rappelle que lorsque j’étais étudiant en Maths spé, on employait une technique d’intégration qui répondait au nom épatant de « méthode de la variation de la constante ». Le programme d’une révolution, en somme.

Le « logiciel libre » ressemble à la variation de la constante, parce que justement, le logiciel est une succession d’actions élémentaires qui sont censées s’enchaîner « logiquement », c’est-à-dire tout le contraire de la liberté. Je me rappelle aussi de mon sujet de philosophie au baccalauréat, qui s’intitulait « l’acte libre existe-il ? ». Je ne soupçonnais pas un instant que cette courte question deviendrait, bien au delà du petit tracas d’une dissertation de trois heures, le questionnement de toute une vie. Récemment, dans le cadre des discussions sur l’attribution des primes à l’université, nous avons été amenés à discuter de l’excellence, du mérite. Nous nous sommes vite rendu compte que la complexité de la discussion résidait dans le fait que nous touchions ici foncièrement à la question de la liberté. Si quelqu’un réussit davantage dans ses recherches simplement parce qu’il est plus intelligent, parce que le logiciel de ses gènes l’a programmé à être doué de capacités hors normes, peut-on parler de mérite ? Si c’est au contraire son éducation qui l’a programmé à faire preuve des qualités nécessaires pour atteindre l’excellence, où est le mérite ? Le mérite n’est-il pas lié intimement à la possibilité d’un acte libre ? La vie dans son ensemble est-elle un enchaînement logiciel d’actions complexes mais logiques, où laisse-t-elle place à la libre construction de son destin ? Cette expression, le « logiciel libre », m’évoque donc cet éternel sujet de philosophie.

Mais revenons à notre inauguration. Le Centre de Formation implanté à Paris Diderot constitue la suite logique de cet investissement de longue date dans l’économie du logiciel libre. Développé en partenariat avec Paris Descartes, il est aussi un exemple concret des partenariats lancés entre nos deux établissements afin de renforcer notre action commune dans le paysage universitaire francilien et national.

On le sait la liberté a de nombreux visages. L’économie ouverte du logiciel libre est de celle qui permettront demain, comme aujourd’hui, un plus libre partage des compétences informatiques. Nous ne pouvons que nous féliciter de la création de ce centre et remercier tous les collègues qui ont travaillé à sa mise en place, dont Jean-Baptiste Yunès et Thierry Stoehr qui ont été la cheville ouvrière du projet et qui défendent avec une énergie inlassable le développement des TICE et du logiciel libre dans notre établissement.

L’action citoyenne de notre établissement passe aussi par le soutien à cette action et je souhaite réaffirmer que, parmi les nombreux chantiers qui sont les nôtres, le développement de ces technologies engage notre avenir pédagogique. Il engage aussi notre mission de diffusion des savoirs. De cette diffusion nous sommes aussi comptables avec vous.

Je vous remercie.

Notes

[1] Crédit photo : Université Paris Diderot




Médecine 2.0 – Une conférence accessible et passionnante de Dominique Dupagne

Sur ce blog nous nous méfions du qualificatif « 2.0 » trop souvent récupéré et vidé de son sens par le marketing. Sauf à faire comme Benjamin Bayart et ne pas hésiter à comparer l’évolution d’Internet à un ironique et menaçant « Minitel 2.0 ».

Cela reste néanmoins parlant, voire pertinent, lorsqu’il s’agit d’envisager l’hypothèse d’un changement majeur, un saut quantique, dans une discipline donnée, en particulier lorsque les nouvelles technologies participent à cette (r)évolution.

La discipline dont il est question dans ce billet nous concerne tous puisqu’il s’agit de la médecine. Et d’après Dominique Dupagne, médecin généraliste et créateur du site Atoute.org, elle est peut-être en train de connaître une mutation importante qualifiée donc ici de « médecine 2.0 », par opposition à une « médecine 1.9 » :

Les communautés de patients et la fluidité de l’information changent le visage de la médecine. La Médecine 2.0 traduit l’idée d’une évolution majeure de la relation entre le médecin, le malade et la maladie. Comme en informatique, le changement d’unité traduit une nette évolution par rapport aux versions précédentes (1.1, 1.2… 1.9, 1.9.1 etc.). La médecine 2.0 représente donc une forme de révolution. Elle reprend le concept de Web 2.0 dont elle utilise les valeurs et les outils.

En voici quelques points forts issus de cet article (ou résumés dans cette courte vidéo YouTube) :

  • Les patients créent de la connaissance
  • Les patients découvrent ou inventent de nouvelles maladies
  • Le savoir des soignants s’étend lui aussi
  • La qualité et la disponibilité de l’information augmentent
  • La mesure de la qualité en médecine fera intervenir des critères inhabituels mais enfin pertinents

Pour en savoir plus, nous avons reproduit ci-dessous la conférence de Dominique Dupagne à l’Ecole de Hautes Etudes en Sciences Sociales, présentée le 19 février dernier lors d’un séminaire du centre Edgar Morin (sous licence Creative Commons By).

Dans cette intervention non dénuée d’humour, il sera question de Google, « d’hôpital magnétique » et « d’empowerment ». Mais il sera surtout question d’une médecine bousculée positivement par les nouvelles technologies et des patients bien décidés en se les appropriant à ne plus demeurer passifs.

La médecine 2.0 reprendrait donc « le concept de Web 2.0 dont elle utilise les valeurs et les outils ». Vous vous apercevrez peut-être comme moi au passage qu’elle reprend parfois également, consciemment ou non, les valeurs et les outils du logiciel libre.

Parce qu’entre les communautés de patients dont on redonne parole, action et expertise collective et les communautés d’utilisateurs de logiciels libres, il y a souvent de fortes similitudes…

—> La vidéo au format webm

PS : Grâce à notre ami JosephK d’ITheora, nous testons actuellement sur le Framablog la lecture directe au format Ogg pour les navigateurs compatibles HTML 5. Merci de nous faire part de tout retour positif ou négatif dans les commentaires.




Quand Google fait l’ange avec nos données

The Data Liberation Front - GoogleGoogle fait peur et Google le sait. Alors Google fait de gros efforts pour tenter de nous rassurer.

Mais cela sera-t-il suffisant ? Google n’est-il pas devenu intrinsèquement trop gros, quelle que soit la manière dont il brasse nos nombreuses données personnelles, quelle que soit l’indéniable qualité de sa myriade de services et de produits ?

Telle est la vaste question du jour, tapie derrière notre traduction évoquant leur projet du « Front de Libération des Données ».

La page d’accueil Google propose depuis peu un petit lien Confidentialité en bas du champ de recherche. Il vous mènera au portail google.fr/privacy qui a pour titre Centre de confidentialité : Transparence et liberté de choix.

Chez Google, nous sommes parfaitement conscients de la confiance que vous nous accordez, ainsi que de notre devoir de protéger la confidentialité de vos données. À cette fin, vous êtes informé des données qui sont collectées lorsque vous utilisez nos produits et services. Nous vous indiquons en quoi ces informations nous seront utiles et comment elles nous permettront d’améliorer les services que nous vous proposons.

On y décline alors la philosophie Google résumée en « cinq principes de confidentialité » et illustrée par cette vidéo que je vous invite à parcourir et qui témoigne une fois de plus de la maîtrise didactique de Google dans sa communication.

Du lard ou du cochon ? De l’art de faire l’ange quand on fait la bête ? Les commentaires accueilleront peut-être certaines de vos réactions.

En attendant la vidéo fait référence à un récent service, le Google Dashboard, qui est censé vous permettre de « savoir ce que Google sait de vous » en centralisant en un unique endroit toutes les informations collectées associées à votre compte Google (Gmail, Google Docs, Agenda, Maps, etc.) et à ses services connexes (YouTube, Picasa, etc.). Pour en avoir un bref aperçu, là encore, nouvelle et toujours efficace vidéo dédiée.

Cette initiative est louable parce qu’elle vous expose à priori la situation en vous facilitant la modification des paramétrages. Mais elle est à double tranchant parce que vous vous rendez compte d’un coup d’un seul de l’étendu de la pieuvre Google et de la quantité impressionnante de vos données que Google peut potentiellement manipuler. Et puis n’oublions jamais la force d’inertie du paramétrage par défaut.

La vidéo nous parle également du « Data Liberation Front », ou « Front de Libération des Données » en français, dont le logo ouvre ce billet. Ce n’est pas un nouveau mouvement révolutionnaire mais un projet interne qui œuvre à ce que l’assertion suivante devienne réalité :

Nous voulons que nos utilisateurs restent chez nous parce qu’ils le souhaitent, non parce qu’ils ne peuvent plus en sortir.

Il s’agit donc en théorie de pouvoir facilement quitter Google en listant sur un site, service par service, les procédures à suivre pour exporter nos fichiers et nos données depuis les serveurs de Google vers notre disque dur local dans des formats standards et ouverts. Les manipulations à réaliser ne sont pas toujours des plus simples (quand elles existent effectivement), mais le projet nous dit qu’il travaille justement à constamment améliorer cela.

On retrouve cette idée, lorsque Google nous affirme que « Competition is just one click away », autrement dit que tout est fait pour qu’il suffise d’un clic de souris pour s’en aller chez un concurrent, et que les autres devraient en faire autant pour que s’établisse une saine compétition. Pas sûr que Microsoft soit sensible à l’argument.

Centre de confidentialité, Google Dashboard, Data Liberation Front, One click away, Sens de l’ouverture… il n’y a pas à dire, Google met les bouchées doubles pour ne pas se mettre en porte-à-faux avec son fameux slogan « Don’t be evil ».

Alors, convaincu ?

Dans l’affirmative, remercions Google pour son souci de transparence et continuons à lui faire confiance, sachant alors que le futur et novateur système d’exploitation Google Chrome OS vous tend les bras. Point trop d’inquiétudes mal placées, vos données sont bien au chaud dans les nuages.

Dans le cas contraire, c’est plutôt un « Google Liberation Front » qu’il va falloir songer à créer !

Pourquoi Google vous laisse facilement quitter Google

Why Google makes it easy to leave Google

Nate Anderson – 1 mars 2010 – Ars Technica
(Traduction Framalang : Goofy et Don Rico)

Nous avons déjà évoqué le Front de Libération des Données de Google (FLD) l’année dernière, lorsque ce projet a été rendu public, mais depuis, qu’a fait l’équipe interne de Google qui se consacre à l’exportation des données ? Eh bien… elle a créé des autocollants, pour commencer.

« DONNÉES ÉLEVÉES EN PLEIN AIR », proclament-ils, ce qui résume en quelques mots les efforts du Front de Libération des Données. L’objectif de l’équipe n’est rien moins que de permettre aux utilisateurs de quitter plus facilement Google et ses multiples services, en emportant avec eux leurs courriels, leurs photos et tous leurs documents.

Les travaux les plus récents concernaient Google Docs, qui propose désormais une option pour télécharger en masse. Sélectionnez les documents que vous désirez, cliquez sur un bouton, Google les archive en un seul fichier .zip (jusqu’à 2Go) et vous les envoie par e-mail.

Au cours d’une récente visite aux bureaux de Google à Chicago, où le FLD est basé, nous avons discuté avec Brian Fitzpatrick, qui dirige l’équipe, pour savoir plus en détail pourquoi il souhaite que l’on puisse s’affranchir facilement des services Google, et comment il compte s’y prendre.

Empêcher l’inertie

Il est certain que lancer cette initiative estampillée « ne faites pas le mal » au sein de l’entreprise est une bonne manœuvre de communication, mais le FLD ne découle pas d’une décision prise au sommet de la hiérarchie. Fitzpatrick déclare qu’en ce qui le concerne, il a « commencé en toute naïveté ». Après avoir écouté pendant des années le président Eric Schmidt déployer son éloquence pour expliquer combien il est important de ne pas enfermer les utilisateurs, Fitzpatrick a remarqué que certains produits Google compliquaient l’application de cette politique.

Le FLD est l’émanation de son travail de réflexion. L’équipe existe depuis deux ans maintenant, et depuis les choses ont changé : à ses débuts, c’est elle qui allait trouver les autres équipes d’ingénieurs, mais à présent, selon Fitzpatrick, ce sont ces dernières qui « viennent nous consulter » pour savoir comment elles s’en tirent.

La rétention des données n’est pas mauvaise que pour les utilisateurs ; Fitzpatrick estime qu’elle est aussi mauvaise pour Google. « Si l’on crée une base d’utilisateurs verrouillée, avance-t-il, on devient forcément complaisant avec soi-même ».

Rendre aussi facile l’abandon de Google Docs que celui du moteur de recherche de Google force Google à cultiver un de ses points forts : engager des collaborateurs brillants. Le travail du FLD « met en effervescence les équipes d’ingénieurs », explique Fitzpatrick, puisque les ingénieurs doivent satisfaire les utilisateurs en innovant, et non en les mettant en cage.

The Data Liberation Front - Google - Sticker

Les utilisateurs se préoccupent-ils vraiment de la libération de leurs données ? Certains, oui, mais l’utilisation des fonctions d’exportation demeure limitée. Google enregistre « un niveau constamment faible de l’usage de ces fonctions », déclare un ingénieur de l’équipe, particulièrement quand le géant de la recherche choisit d’abandonner des services peu performants.

Disposer d’outils d’exportation facilite également de telles interruptions de services ; souvenez-vous des problèmes rencontrés par les sites de vente de musique bardés de DRM, lorsqu’ils ont finalement tenté de fermer leurs serveurs de DRM. Grâce à l’ouverture des données de Google, l’entreprise évite ce genre de critiques publiques quand survient une fermeture de service, comme lorsque Google Notebook a été mis au rebut.

Nicole Wong, conseillère juridique adjointe de Google, nous a confié que Google prend le FLD au sérieux pour deux raisons : d’abord, il donne le contrôle aux utilisateurs, et ensuite, « quand nous déclarons qu’il suffit d’un clic pour passer à la concurrence, des initiatives telles que le FLD le prouvent ».

Ce dernier commentaire nous rappelle que l’ouverture représente un réel bénéfice stratégique pour l’entreprise qui va bien au-delà de la conception des produits et du pouvoir accordé à l’utilisateur. Google est de plus en plus en ligne de mire des investigations antitrust, de la part du ministère de la Justice américain, et subit déjà des enquêtes en Europe au nom de la lutte antitrust. Le FLD est ainsi un argument de plus que Google peut employer pour démontrer qu’il n’est pas un Cerbère pour usagers captifs.

Il arrive que l’équipe du FLD affronte les critiques de ceux qui accusent Google de ne rendre « libres » et exportables que les données à faible valeur marchande pour l’entreprise (voyez par exemple ce commentaire du chercheur Ben Edelman à propos de la récupération des données Adwords). Mais depuis sa création, le FLD a travaillé avec plus de vingt-cinq équipes de Google pour faciliter l’exportation des données, et nul doute que ses efforts concernant les applications comme Google Docs sont une bonne nouvelle pour les utilisateurs.

« Nous nous efforçons de provoquer une plus grande prise de conscience au sein de l’entreprise, » déclare Fitzpatrick, tout en admettant avec une petite grimace qu’il n’a aucun « pouvoir » réel sur les décisions des différents chefs de projet.

On peut toujours aller plus loin. L’équipe surveille la page du modérateur Google, sur laquelle les utilisateurs peuvent soumettre des suggestions – et elles sont nombreuses. « Mes contacts Gmail — pouvoir les exporter, et ré-importer une version modifiée, sans copier chaque élément un à un » propose l’un d’eux. « Ajouter les microformats hCalendar à l’agenda Google, pour pouvoir réutiliser partout ailleurs les rendez-vous enregistrés » suggère un autre. « Je veux récupérer l’historique de mon tchat avec Gmail », réclame un troisième.

Fitzpatrick promet que d’autres avancées vont suivre, bien qu’il ne puisse pas parler des projets qui sont dans les incubateurs. Ce qu’il peut faire, pour l’instant, c’est vous envoyer un autocollant.




Centre de Formation Logiciels Libres : Demandez le programme !

CF2L - La salle de formation - Jean-Baptiste YunesEn décembre dernier nous vous annoncions la création d’un Centre de Formation Logiciels Libres (ou CF2L) dans le cadre de l’Université numérique Paris Île-de-France (UNPIdF), par l’entremise de Thierry Stœhr interviewé pour l’occasion.

C’est désormais chose faite. Il y a un un site (www.cf2l.unpidf.fr), un mail (cf2l AT unpidf.fr) mais surtout un programme qui commence demain avec la Découverte d’une plate-forme libre, GNU/Linux[1].

Il reste encore des places, alors n’hésitez pas à faire tourner l’information (sur twitticabook et ailleurs), a fortiori si vous connaissez de près ou de loin du personnel des universités franciliennes.

CF2L Formations 2009/2010

  • Découverte d’une plate-forme libre, GNU/Linux – 26/02
  • Les formats des fichiers et les problèmes d’interopérabilité, d’ouverture, d’archivage – 12/03
  • Le Web avec Firefox et le courriel avec Thunderbird – 19/03 ou 12/04
  • La bureautique avec OpenOffice.org – 03/05
  • Produire des documents avec LaTeX – 16/04 ou 17/05
  • La création et la retouche d’images avec Gimp et Inkscape – 07/05
  • La mise en page et la publication (PAO) avec Scribus – 14/06
  • Le calcul formel avec Sage/Maxima – 04/06
  • Le traitement des données avec Octave et Scilab – 28/06
  • La chaîne éditoriale numérique de création de documents multimédia avec Scenari – 21/05
  • Les réseaux sociaux avec le logiciel Elgg – 31/05
  • Les plates-formes de formation libres Dokeos, Claroline, Moodle, Sakai – 18/06
  • Gestion d’une salle de ressources et déploiement d’images disques – 02/07

Pour s’inscrire et obtenir de plus amples informations, rendez-vous sur le site dédié à la formation.

Notes

[1] Crédit photo : Jean-Baptiste Yunes




L’ACTA en l’état ne passera pas par moi !

Raïssa Bandou - CC by« Depuis le printemps 2008, l’Union européenne, les États-Unis, le Japon, le Canada, la Corée du Sud, l’Australie ainsi qu’un certain nombre d’autres pays négocient secrètement un accord commercial destiné à lutter contre la contrefaçon (Anti-Counterfeinting Trade Agreement ou ACTA). Suite à des fuites de documents confidentiels, il apparaît clairement que l’un des buts principaux de ce traité est de forcer les pays signataires à mettre en place des mesures de répression de partage d’œuvre sur Internet sous la forme de riposte graduée et de filtrage du Net.

Alors que d’importants débats ont lieu sur la nécessité d’adapter le droit d’auteur à l’ère numérique, ce traité cherche à contourner les processus démocratiques afin d’imposer, par la généralisation de mesures répressives, un régime juridique fondamentalement dépassé. »

Ainsi s’ouvre la rubrique ACTA du site de La Quadrature du Net qui nous demande aujourd’hui d’écrire à nos représentants pour appuyer une initiative de quatre eurodéputés s’opposant à l’accord.

Sur le fond comme dans la forme, cet accord s’apparente à un pur scandale. Ces petites négociations entre amis seraient passées comme une lettre à la poste il y a à peine plus de dix ans. Mais aujourd’hui il y a un caillou dans les souliers de ceux qui estiment bon de garder le secret[1]. Un caillou imprévu qui s’appelle Internet. Raison de plus pour eux de le museler et pour nous de résister…

Pour évoquer cela nous avons choisi de traduire un article de Cory Doctorow qui résume bien la (triste) situation et comment nous pouvons tous ensemble tenter d’y remédier.

ACTA et le Web : quand le copyright s’installe en douce

Copyright Undercover: ACTA & the Web

Cory Doctorow – 17 février 2010 – InternetEvolution.com
(Traduction Framalang : Tinou, Psychoslave, Barbidule, Goofy et Don Rico)

Introduction

Le septième round de négociations secrètes sur l’ACAC (Accord commercial anti-contrefaçon, en anglais ACTA) s’est achevé le mois dernier à Guadalajara (Mexique). Le silence radio sur ces négociations est quasi-total : tels les kremlinologues de l’ère soviétique, nous devons nous contenter d’interpréter les maigres indices qui transpirent au-delà des portes closes.

Voici ce que nous savons : l’idée que des traités fondamentaux sur le droit d’auteur puissent être négociés secrètement est en train de perdre du terrain partout dans le monde. Les législateurs des pays participant aux négociations exigent que ce processus soit ouvert à la presse, aux activistes et au public.

Pour leur répondre, les négociateurs soutiennent — de manière surprenante — que le traité ne modifiera en rien les lois de leur pays, et que seuls les autres états devront faire évoluer leur droit (comme tous ces pays ont des législations foncièrement divergentes en matière de droits d’auteur, quelqu’un ment forcément. Je parie qu’il mentent tous).

Nous connaissons enfin l’attitude des promoteurs de l’ACAC à l’égard du débat public : au cours de la terne « réunion publique » tenue avant que les négociations ne débutent, une activiste a été expulsée pour avoir ébruité sur Twitter un compte-rendu des promesses faites verbalement par les intervenants à la tribune. Alors qu’on l’emmenait, elle a été huée par les lobbyistes qui peuvent participer à ce traité dont sont exclus les simples citoyens.

Cette situation embarrasse toutes les parties concernées, mettant à nu une attitude pro-capitaliste dont l’intérêt dépasse largement le cadre du copyright. Cela doit cesser. Nous verrons dans cet article comment nous en sommes arrivés là, et ce que vous pouvez faire pour mettre un terme à cette menace.

Comment en sommes-nous arrivés là ?

Un peu d’histoire, pour ceux à qui les épisodes sous-médiatisés précédents auraient échappé : les traités internationaux sur le droit d’auteur émanent à l’origine d’une agence des Nations Unies appelé l’OMPI, l’Organisation Mondiale de la Propriété Intellectuelle. Au départ, il s’agissait d’une agence privée créée pour servir de bras armé aux grandes « industries de la propriété intellectuelle » (musique, films, produits pharmaceutiques, télévision, etc.). Elle a pris forme en tant que consortium d’industries du privé, puis a ultérieurement gagné une légitimité lors de son intégration à l’ONU.

La prise en compte par l’ONU a donné un pouvoir énorme aux intérêts privés qui ont fondé l’OMPI, mais dans le même temps cela signifiait qu’ils devaient suivre les règles de l’ONU, c’est-à-dire que les organismes non-gouvernementaux et la presse était autorisés à assister aux négociations, à en rendre compte et même à y participer. Au début des années 2000, le groupement d’intérêt public Knowledge Ecology International a commencé à embrigader d’autres organisations pour suivre les actions de l’OMPI.

Ah, au fait, j’étais l’un des délégués qui a rejoint cette vague, au nom de l’Electronic Frontier Foundation. Les militants présents à l’OMPI ont tué dans l’œuf le traité en cours de négociation, le Traité de Télédiffusion, et l’ont remplacé par un autre destiné à aider les personnes aveugles et handicapées, les archivistes et les éducateurs. Pas vraiment les actions prioritaires pour les grosses multinationales du divertissement.

Ils ont donc déplacé leurs forums. Depuis 2006, divers pays riches — les États-Unis, le Canada, le Japon, l’Union Européenne, l’Australie et d’autres – ont tenu une série de séances de rédaction de traité en comité privé, sous le sceau de la non-divulgation.

Tout secret connu de deux personnes ou plus finit toujours par s’éventer, aussi de nombreuses divulgations nous donnent-elles un aperçu du chapitre « Internet » du traité, où des dispositions ont été prises sur la gouvernance et les restrictions imposées au réseau mondial. Lisez donc la suite.

Ce qu’a fait l’ACAC jusqu’ici

Arrêtons-nous un instant pour parler des concepts de copyright, d’Internet, et de gouvernance. Historiquement, les lois sur le copyright ont été écrites par et au bénéfice des prestataires de l’industrie du divertissement. Les règles du copyright n’ont pas été pensées pour contrôler de façon appropriée un quelconque autre domaine: on n’essaie pas de caser des morceaux du code du travail, des lois sur la finance, l’éducation, la santé ou les campagnes électorales dans le système du copyright.

Mais dès que vous transférez ces activités à Internet, le copyright devient la première méthode de contrôle, faisant autorité sur tout. Il est impossible de faire quoi que ce soit sur Internet sans faire de copie (vous venez de créer entre 5 et 50 copies de cet article rien qu’en suivant le lien qui vous y a amené). Et comme le copyright régit la copie, toute règle qui touche à la copie touchera également à ces domaines.

Et c’est bien ce qui dérange dans le secret qui entoure l’ACAC, même quand on ne se préoccuppe pas de copyright, d’utilisation équitable (NdT : « fair use »), ou de tout autre sujet biscornu.

Divers brouillons de l’ACAC ont inclus l’obligation pour les FAI d’espionner leurs clients et d’interdire quoi que ce soit qui ressemble à une violation de copyright. (Cela signifie-t-il qu’on vous empêchera d’enregistrer une publicité trompeuse ou mensongère et de l’envoyer à votre député ?) L’ACAC a également soutenu la fouille des supports multimédia aux postes frontières pour y chercher des infractions au copyright (Les secrets professionnels de votre ordinateur portable, les données clients confidentielles, des correspondances personnelles, votre testament, vos coordonnées bancaires et les photos de vos enfants prenant leur bain pourraient être fouillées et copiées la prochaine fois que vous partez en voyage d’affaires).

L’ACAC a en outre appelé à la création de procédures simplifiées pour couper l’accès à Internet d’un foyer entier si l’un de ses membres est accusé d’une infraction (ainsi, votre épouse perdra la capacité de contacter par e-mail un praticien gériatre au sujet de la santé de grand-papa si votre enfant est soupçonné d’avoir téléchargé trop de fichiers par poste-à-poste (P2P).

Ce n’est pas tout, mais ce sont là quelques exemples des propositions principales des sommets secrets de l’ACAC.

Ce qui a eu lieu à Mexico et pourquoi vous devriez vous y intéresser

Je pense par ailleurs que toutes les ébauches de l’ACAC sont également mauvaises pour le copyright et les créations qu’il protège. Je suis l’un des nombreux artistes qui gagnent leur vie en ligne, et qui profitent d’un Internet libre et ouvert. Mes livres sont disponibles au téléchargement gratuit le jour même où mes éditeurs le mettent en rayon. Mon premier roman pour jeunes adultes – Little Brother (NdT : « Petit Frère ») – a atteint le classement des meilleurs ventes du New York Times grâce à cette stratégie.

Mais même si vous vous fichez éperdument de la musique, des films, des jeux ou des livres, vous devez prêter attention à l’ACAC.

Ceci dit, le fait est que nous ne savons presque rien de la façon dont s’est déroulée la septième réunion. Elle a assez mal démarré : lors d’une réunion d’information publique, les organisateurs de l’ACAC ont tenté de faire signer à l’assistance un accord de non-divulgation (lors d’une réunion publique !), et ont ensuite fait sortir une activiste qui ébruitait des notes sur les éléments publiés — elle a été évincée manu militari sous les huées des lobbyistes présents, outrés que le public puisse assister à la réunion.

Pendant la réunion, des membres de diverses représentations parlementaires de par le monde se sont levés au sein de leur institution, et ont exigé de prendre connaissance des détails du traité qui était négocié par le département du commerce de leur pays, sans la supervision de leur sénat ni de leur parlement. Les législateurs de toute l’Europe, les membres des parlements canadien et australien, et les représentants du Congrès des États-Unis se sont vu opposer un silence de marbre et de vagues garanties.

Ces assurances étant les seules informations publiques visibles que nous ayons sur la question, elles méritent notre attention : l’Union Européenne, les États-Unis et le Canada ont tous affirmé que rien dans l’ACAC n’aura d’impact sur le droit national dont les représentants élus sont responsables.

Au lieu de cela, ils prétendent que l’ACAC ne fait qu’incarner les lois nationales dans un accord international, ce qui dans les faits oblige tout le monde à s’aligner sur les lois existantes.

Cette absurdité — pourquoi négocier un traité qui ne changerait rien ? — devient encore plus ridicule lorsque l’on considère que l’Union Européenne, le Canada et les États-Unis ont des règles de droit d’auteur différentes et incompatibles sur les questions en discussion à l’ACAC. Il est littéralement impossible pour l’ACAC de parvenir à un ensemble de règles qui n’entraînerait pas de modifications pour tout le monde.

Ce que l’avenir nous réserve – et ce que vous pouvez faire

Certes, nous pourrions tous constater par nous-mêmes ce qui a été proposé, si seulement l’ACAC était ouvert au public, comme tous les autres traités sur le copyright mondial le sont depuis l’avènement d’Internet.

Là encore, voici une série de déclarations contradictoires sur lesquelles nous creuser la tête : le délégué en chef du commerce États-Unien dit que le secret est une condition requise par les partenaires des États-Unis. Or, la déclaration sur la confidentialité qui a été divulguée provient clairement des États-Unis. De nombreux États de l’UE sont sur le point de lancer un appel officiel pour la transparence de l’ACAC.

Pour ma part, je parie sur les États-Unis. L’industrie mondiale du divertissement a plus d’emprise là-bas que dans toute autre nation, et l’administration Obama est allée jusqu’à nier la loi sur la liberté de l’information (NdT « Freedom of Information Act ») pour le traité en prétextant des raisons de sécurité nationale. (Oui, la sécurité nationale ! Ceci est un traité de droit d’auteur, pas une liste des codes de lancement de missiles.) Et le Bureau du Représentant État-Unien au Commerce (ndt : « United States Trade Representative », USTR) a déclaré clairement que l’administration Obama prévoit de ratifier l’ACAC par décret, sans la faire passer par le Congrès.

Le prochain sommet de l’ACAC se déroulera en Nouvelle-Zélande en avril, et les militants se préparent pour la bataille. En Nouvelle-Zélande, les opposants au copyright (NdT : « copyfighters ») sont aguerris et prêts à en découdre, ayant récemment repoussé le règlement 92A qui aurait permis aux producteurs de cinéma et de musique de couper l’accès à Internet sur simple accusation — sans preuve — de violation de copyright.

Impliquez-vous. Appelez votre sénateur, votre député, votre euro-député. Dites-leur que vous voulez que l’ACTA soit négocié de façon ouverte, avec la participation du public et de la presse.

Refusez que des règles affectant les moindres recoins de votre vie en ligne soient décidées en douce par ceux qui ne défendent que les intérêts de leur portefeuille.

Cory Doctorow
Militant de l’Internet, blogueur – Co-rédacteur en chef de Boing Boing

Notes

[1] Crédit photo : Raïssa Bandou (Creative Commons By)




Le chemin de croix du logiciel libre à l’école – Quand Mediapart mène l’enquête

Vauvau - CC byLe logiciel libre et sa culture n’ont toujours pas la place qu’ils méritent à l’école. Tel est l’un des chevaux de bataille de ce blog, qui a parfois l’impression de donner des coups d’épée dans l’eau tant ce sujet ne donne pas l’impression de passionner les foules.

Dans ce contexte médiatiquement défavorable, nous remercions Mediapart de s’être récemment emparé du sujet à la faveur d’une enquête conséquente sur L’école à l’ère numérique.

Ces enquêtes approfondies sont l’une des marques de fabrique de ce pure player qui contrairement à d’autres ne mise pas sur le couple gratuit/publicité mais sur l’abonnement qui offre un accès privé et réservé à la majorité de ses contenus (si je puis me permettre une petite digression, le modèle utopique idéal serait pour moi un nombre suffisant d’abonnés à qui cela ne poserait pas de problèmes que le site soit entièrement public et sous licence de libre diffusion).

Ce dossier comporte cinq articles : Les industriels lorgnent le futur grand plan numérique de Luc Chatel, A Antibes, un collège teste les manuels numériques[1], Thierry de Vulpillières : « Les TICE sont une réponse à la crise des systèmes d’éducation »[2], Nouvelles technologies: remue-ménage dans la pédagogie ![3] et Le chemin de croix du logiciel libre à l’école.

Avec l’aimable autorisation de son auteure, nous avons choisi d’en reproduire le premier dans un autre billet et donc ici le dernier, dans la mesure où nous sommes cités mais aussi et surtout parce qu’ils touchent directement nos préoccupations.

Outre votre serviteur, on y retrouve de nombreux acteurs connus des lecteurs du Framablog. J’ai ainsi particulièrement apprécié la métaphore de la « peau de léopard » imaginée par Jean Peyratout pour décrire la situation actuelle du Libre éducatif en France[4].

Et si ce léopard se métamorphosait doucement mais sûrement en une panthère noire ?

Le chemin de croix du logiciel libre à l’école

URL d’origine du document

Louise Fessard – 12 février 2010 – Mediapart

Et le libre dans tout ça ?

Des logiciels et des contenus garantissant à tous le droit d’usage, de copie, de modification et de distribution, ne devraient-ils pas prospérer au sein de l’éducation nationale ? Si l’administration de l’éducation nationale a choisi en 2007 de faire migrer 95% de ses serveurs sous le système d’exploitation libre GNU/Linux, la situation dans les établissements scolaires est bien plus disparate.

Le choix dépend souvent de la mobilisation de quelques enseignants convaincus et de la politique de la collectivité locale concernée. « On se retrouve avec des initiatives personnelles, très locales et peu soutenues », regrette l’un de ses irréductibles, Alexis Kauffmann, professeur de mathématiques et fondateur de Framasoft, un réseau d’utilisateurs de logiciels libres.

« La situation ressemble à une peau de léopard, confirme Jean Peyratout, instituteur à Pessac (Gironde) et président de l’association Scideralle. Le logiciel libre est très répandu mais dans un contexte où aucune politique nationale n’est définie. C’est du grand n’importe quoi : il n’y a par exemple pas de recommandation ministérielle sur le format de texte. Certains rectorats vont utiliser la dernière version de Word que d’autres logiciels ne peuvent pas ouvrir. »

A la fin des années 1990, Jean Peyratout a développé avec un entrepreneur, Eric Seigne, AbulEdu, une solution réseau en logiciel libre destinée aux écoles et basée sur GNU/Linux. Selon Eric Seigne, directeur de la société de service et de formation informatique Ryxeo spécialisée dans le logiciel libre, environ 1000 des 5000 écoles visées à l’origine par le plan d’équipement « écoles numériques rurales », lancé à la rentrée 2009 par le ministère de l’éducation nationale, ont choisi d’installer AbulEdu. Faute de bilan national, il faudra se contenter de ce chiffre, qui ne concerne que le premier degré, pour mesurer l’importance du libre dans les établissements scolaires.

Autre exemple significatif, en 2007, le conseil régional d’Ile-de-France a choisi d’équiper 220.000 lycéens, apprentis de CFA et professeurs, d’une clé USB dotée d’un bureau mobile libre – développé par la société Mostick, à partir des projets associatifs Framakey et PortableApps.

« Pourquoi payer des logiciels propriétaires ? »

Le libre à l’école a plusieurs cordes à son arc. Jean Peyratout met en avant son interopérabilité – « Nos élèves sont amenés à utiliser à la maison ce qu’ils utilisent à l’école » –, la souplesse dans la gestion du parc – pas besoin d’acheter une énième licence en cas de poste supplémentaire – et surtout son éthique. « Faire de la publicité à l’école est interdit, plaide-t-il. Il me semble qu’utiliser un logiciel marchand à l’école alors qu’il existe d’autres solutions, c’est faire la promotion de ce logiciel. Pourquoi aller payer des logiciels propriétaires dont le format et le nombre limité de licences posent problème ? »

D’autant, souligne Eric Seigne, « qu’en investissant dans le libre, l’argent reste en local, alors qu’en achetant du propriétaire, la plus grande partie de l’argent part à l’étranger où sont implantés les gros éditeurs ». Reste à convaincre sur le terrain les enseignants, non experts et qui n’ont pas envie de mettre les mains dans le cambouis. A Saint-Marc-Jaumegarde par exemple, Emmanuel Farges, directeur d’une école primaire pourtant très technophile, est sceptique. « Seul notre site Internet repose sur un logiciel libre mais ça bogue souvent et il n’y a pas de suivi quand il y a un problème », explique-t-il.

A côté de la poignée d’enseignants militants du libre, se sont pourtant développés des professionnels. « Le fait que les logiciels soient gratuits éveille paradoxalement les soupçons de mauvaise qualité, note Bastien Guerry, doctorant en philosophie et membre de l’Association francophone des utilisateurs de logiciels libres (Aful). Mais il existe des associations locales de prestation de service en logiciel libre qui peuvent assurer un suivi. »

Des sites collaboratifs

« Aujourd’hui, les enjeux portent moins sur l’installation des postes que la mise à disposition de logiciels libres via l’environnement numérique de travail et des clefs USB », prévoit Bastien Guerry. A travers des sites participatifs comme Les Clionautes (histoire-géographie), WebLettres (français), et créés au début des années 2000, des enseignants s’adonnent avec enthousiasme à cette création de logiciels et surtout de contenus.

L’exemple le plus abouti en est Sésamath dont la liste de diffusion regroupe 8000 enseignants, soit un quart des profs de mathématiques français selon l’un des fondateurs du projet, Sébastien Hache, lui-même enseignant au collège Villars à Denain (Nord).

« Tous les enseignants créaient déjà eux-mêmes leurs ressources mais Internet leur a permis de les partager, explique-t-il. Et, comme il n’y a pas plus seul qu’un prof face à sa classe, ça évite à chacun de réinventer la roue dans son coin. » Grâce à la collaboration d’enseignants travaillant à distance, Sésamath a même édité « le premier manuel scolaire libre au monde ». « Les manuels des éditeurs sont d’ordinaire écrits par deux ou trois profs, nous, nous avons eu la collaboration d’une centaine d’enseignants avec de nombreux retours », se félicite Sébastien Hache.

400.000 exemplaires de ce manuel, qui couvre les quatre niveaux de collège, ont été vendus (11 euros pour financer les salaires des cinq salariés à mi-temps de l’association), la version en ligne étant gratuite et bien entendu modifiable en vertu de sa licence libre. L’autre activité du site consiste à créer des logiciels outils et des exercices s’adaptant aux difficultés des élèves. Beaucoup de professeurs de mathématiques sont aussi par ailleurs des développeurs passionnés!

Un foisonnement que s’efforce de fédérer le pôle de compétences logiciels libres du Scérén coordonné par Jean-Pierre Archambault. L’école doit désormais prendre en compte les « mutations engendrées par l’immatériel et les réseaux: enseignants-auteurs qui modifient le paysage éditorial, partage de la certification de la qualité, validation par les pairs, redistribution des rôles respectifs des structures verticales et horizontales… », jugeait-il en juin 2008.

Pas vraiment gagné, constate Alexis Kauffmann. « Rien ne laisse à penser que le ministère de l’éducation nationale comprend et souhaite encourager cette culture libre qui explose actuellement sur Internet », lance-t-il. Dernier exemple en date, l’Académie en ligne lancée par le Cned en juin 2009 propose des cours, certes gratuits, mais pas libres et donc non modifiables, manifestement uniquement conçus pour être imprimés! Pour la collaboration, il faudra repasser…

Notes

[1] On peut lire l’article A Antibes, un collège teste les manuels numériques dans son intégralité sur le site Sauvons l’Université.

[2] On peut lire l’article Thierry de Vulpillières : « Les TICE sont une réponse à la crise des systèmes d’éducation » dans son intégralité sur le site Sauvons l’Université.

[3] On peut lire l’article Nouvelles technologies: remue-ménage dans la pédagogie ! dans son intégralité sur le site Sauvons l’Université.

[4] Crédit photo : Vauvau (Creative Commons By)




Libres extraits du rapport Fourgous sur la modernisation de l’école par le numérique

One Laptop Per Child - CC byLa « culture libre » va-t-elle enfin être reconnue, soutenue et encouragée à l’école française ?

Si vous êtes un lecteur régulier du Framablog, vous n’ignorez pas que c’est une question qui nous taraude depuis plusieurs années (sachant que patience et longueur de temps font plus que force ni que rage).

Or on tient peut-être un début de réponse positive avec le rapport de la mission parlementaire du député Jean-Michel Fourgous sur la modernisation de l’école par le numérique. Sous l’égide d’un autre politique issu du monde de l’industrie, le ministre Luc Chatel, ce rapport ambitieux a pour titre Réussir l’école numérique et il a été remis aujourd’hui même à François Fillon.

70 mesures réparties en 12 priorités dans un document de 333 pages, le moins que l’on puisse dire est qu’ils n’ont pas chômé. Enseignant, étudiant[1], parent d’élèves ou simple citoyen curieux de l’avenir du système éducatif dans la société actuelle de l’information et de la communication, je vous invite à le parcourir à votre tour car il y a beaucoup de choses intéressantes dans ce rapport, que l’on soit ou non d’accord avec les analyses, les constats et les pistes de propositions.

En attendant je me suis permis d’en extraire ci-dessous les quelques trop rares passages concernant plus ou moins directement la ligne éditoriale de ce blog. Parce quand bien même ce soit peut-être, ou sûrement, trop timide (est-ce volontaire ?), j’y vois quand même une avancée significative pour le « Libre à l’école » (expression valise que j’avais tenté de synthétiser dans un court article pour une brochure Sésamath).

Des passages dont ne parlent ni la dépêche AFP (et à sa suite tous les grands médias) ni le Café pédagogique (mais ça on sait pourquoi),

On notera que dans le cadre de la consultation préalable, l’April avait envoyé une lettre détaillée et argumentée à Jean-Michel Fourgous. Ceci participant certainement à expliquer cela.

Enfin n’oublions pas qu’un rapport parlementaire n’est qu’un document de travail qui n’augure en rien des décisions qui seront effectivement prises par le gouvernement. Sans compter, comme le souligne cette fois-ci le Café Pédagogique, qu’une « évolution de cette ampleur nécessite une école en paix, est-ce envisageable si l’austérité vient chaque année dégrader la situation scolaire ? »

Libres extraits du rapport Fourgous

URL d’origine du document

Page 29

Grâce aux wikis les contenus sont élaborés de façon collaborative. L’encyclopédie en ligne Wikipedia, les wikilivres (création de ressources pédagogiques libres) ou encore les wikicommons (banque de fichiers multimédias) traduisent la naissance de ce que Pierre Lévy appelle une « intelligence collective » où l’internaute passif, simple « récepteur », est devenu un « webacteur », un « élaborateur » de contenus.

Tiens, Wikipédia et quelques autres projets Wikimédia ont droit de cité. Un peu plus loin, page 141, il sera dit que 40% des « digital natives » consultent l’encyclopédie. Et surtout, le rapport ne craint pas de proposer des liens directs vers ses articles lorsqu’il s’agit d’expliciter certains termes (exemples : Machine to machine, Réalité augmentée, Modèle danois, Littératie, Échec scolaire, Ingénieur pédagogique ou encore Livre électronique). Une telle légitimité officielle est à ma connaissance une grande première dans le secteur éducatif. Serions-nous définitivement en route vers la réconciliation ?

Une note (un peu confuse) est collée aux ressources pédagogiques libres avec un lien Educnet :

Les contenus libres trouvent leurs origines dans le concept de copyleft (en opposition au monopole d’exploitation reconnu par le copyright et le droit d’auteur) né avec les premiers logiciels dit libres car leurs utilisations, copies, redistributions ou modifications étaient laissées au libre arbitre de leurs utilisateurs. L’accès au code source était libre (open source). Cette philosophie du partage et de la promotion du savoir et de sa diffusion s’est propagée ensuite à toutes les formes de créations numériques.

Page 234

Un paragraphe entier est consacré à des pratiques dont je n’arrive toujours pas à comprendre pourquoi on ne veut pas faire ou voir le lien avec la culture du logiciel libre.

Vers de nouvelles pratiques coopératives et collaboratives

« J’ai amélioré ma pratique enseignante parce que je l’ai enrichie de l’expérience de tous les autres »

Cette citation me parle.

Est ensuite fait mention des associations d’enseignants, en distinguant dans cet ordre mutualisation, coopération et collaboration (cf ces dessins).

Il n’est pas anodin de remarquer que l’association la plus avancée dans la collaboration, Sésamath pour ne pas la nommer, a depuis longtemps adopté les licences libres aussi bien pour ses logiciels que pour ses contenus. Il y a corrélation, mais le rapport ne le dira pas.

Le travail d’équipe est, de manière traditionnelle, peu pratiqué et non valorisé sur le plan professionnel. L’organisation des établissements et du service des enseignants ne le facilite d’ailleurs d’aucune manière. L’arrivée de l’Internet et des modèles de travail coopératif ou collaboratif bouleversent les habitudes.

En France, des associations toujours plus nombreuses (Sésamaths, WebLettres, Clionautes…) regroupent des enseignants qui mutualisent leurs supports pédagogiques. La mutualisation correspond à la mise en commun et à l’échange de documents personnels. Dans le travail coopératif chaque participant assume une tâche propre au sein d’un projet donné et dans le travail collaboratif, chaque tâche est assumée collectivement. Ainsi, si Clio-collège est un site de mutualisation, Mathenpoche un exemple de travail coopératif, les manuels Sésamaths sont un bon exemple de travail collaboratif.

(…) La mutualisation arrive officiellement dans les académies : dans celle de Versailles, un site, destiné à recueillir les ressources utilisées par les enseignants sur les tableaux numériques interactifs, a été créé. Les enseignants peuvent y partager les fichiers qu’ils réalisent. En attendant, l’interopérabilité de l’outil, les ressources sont réparties selon les marques de TNI.

C’est l’une des rares fois où l’interopérabilité est évoquée dans le rapport. Un gouvernement responsable n’est pas forcément obligé « d’attendre l’interopérabilité ». Il peut la suggérer fortement, voire l’inclure systématiquement dans ses cahiers des charges.

Les échanges et la communication permettent d’aboutir à une production collégiale finale riche et cohérente et les documents numériques deviennent accessibles et téléchargeables par l’ensemble de la communauté éducative.

(…) Le travail collaboratif prend le pas sur la coopération, comme en témoigne l’évolution depuis quelques mois des associations WebLettres et Clionautes vers ce mode de fonctionnement. Internet permet ainsi de faire évoluer la culture enseignante du « chacun pour soi » vers un travail en équipe.

Les associations Weblettres et Clionautes se dirigent donc vers la collaboration. Ma main à couper qu’elles rencontreront les outils et licences libres en chemin.

Page 267

Un passage important dont le titre est à la fois erroné (« libres de droit ») et peu téméraire (« quelques » avantages) :

Les ressources libres de droit offrent quelques avantages pédagogiques

Quant au corps du paragraphe il a le grand mérite d’exister (Jean-Pierre Archambault est cité dans la note de bas de page) :


Le logiciel libre (gratuit) est mis à disposition des utilisateurs qui peuvent à loisir le modifier ou l’adapter avec pour obligation de le mettre à leur tour à la disposition de tous. Cette technique du « don » permet de générer de la valeur, enrichissant le produit, des compétences et des idées de chacun. Le plus célèbre de tous les logiciels libres est sans conteste le système d’exploitation « Linux » et la suite « Open office » qui se placent en concurrents respectivement de Windows et du pack Office de Microsoft. On peut citer également « Gimp », pendant de Photoshop, le navigateur « Firefox »…

L’entrée du logiciel libre dans l’Éducation nationale s’est réalisée à la suite d’un accord cadre conclu en 1998 avec l’Aful (Association française des utilisateurs de Linux et des logiciels libres).

L’idée de partage et de gratuité a séduit le monde enseignant, mais changer d’environnement de travail nécessite du temps et de la formation.

Certes. Mais se borne-t-on à le constater ou bien agit-on en conséquence comme le Canton de Genève ?

Les avantages pour les élèves sont importants, notamment pour la lutte contre la fracture numérique : l’élève peut en effet télécharger le logiciel gratuitement à son domicile sans aucune difficulté ; en apprenant à utiliser des fonctionnalités plus que des outils, le libre habitue les élèves à la pluralité, à la diversité ; il permet d’entrer dans le programme informatique, de le comprendre voire de le modifier (pour les plus férus d’informatique) : les avantages pédagogiques sont donc plus nombreux.

Cela fait plaisir à lire.

Et pourtant un sentiment mitigé prédomine puisqu’une fois ceci exposé on n’en reparlera plus dans tout le rapport. C’est plus que dommage que dans les 70 mesures préconisées, le logiciel libre n’ait pas fait l’objet d’une mesure à part entière.

Page 274

L’offre libre a peu à peu pénétré le système éducatif : en effet, l’idée de partage et de gratuité (permettant à l’élève de télécharger le logiciel gratuitement à son domicile) a séduit le monde enseignant, de même que l’offre émanant des enseignants eux-mêmes : la collaboration dans le but d’élaborer des ressources adaptées à leurs attentes, remporte un franc succès auprès du monde éducatif. La vocation du métier d’enseignant sera donc sûrement d’évoluer vers plus d’élaborations de ressources, plus de créations, de passer d’un travail solitaire à un travail d’équipe.

Cela séduit le monde enseignant. Mais cela séduit-il le rapport ? Cela n’est pas très clair et ne séduira alors pas forcément le gouvernement.


Page 292

Un long extrait tout à fait pertinent :

Une liberté pédagogique freinée

L’autre problème majeur reste les ressources mises à disposition de l’enseignant afin de préparer son cours : dans l’idéal, la technologie le permettant, chacun s’accorde à penser que les enseignants du XXIe siècle devraient pouvoir trouver sur la toile, toutes les ressources numériques, toute la documentation, toute l’aide qu’ils seraient en droit d’utiliser dans le cadre de leur enseignement.

Pourtant, les droits d’auteur les en empêchent et certains documents qui leur semblent pertinents pour illustrer leurs cours ne leur sont pas accessibles, sauf à se mettre hors la loi.

Ce que font tous les jours des milliers d’enseignants.

En ce temps d’Hadopi, que l’on n’a de cesse de présenter comme une loi « favorisant la création », c’est tout de même intéressant de remarquer qu’ici c’est le rôle castrateur des droits d’auteur qui est mis en exergue. Sans compter que…

Des solutions commencent à apparaître et se révèlent être un appui sérieux pour le travail collaboratif. Les licences creative commons (organisation née en 2001) sont ainsi un début de réponse, de même qu’en sont les cours en ligne sous licences libres proposés par les universités. Creative Commons propose gratuitement des contrats flexibles de droit d’auteur pour diffusions des créations. Ces « autorisations » permettent aux titulaires de droits d’autoriser le public à effectuer certaines utilisations, tout en ayant la possibilité de réserver les exploitations commerciales, les œuvres dérivées ou le degré de liberté (au sens du logiciel libre). Ces contrats peuvent être utilisés pour tout type de création : texte, film, photo, musique, site web… Les enseignants devraient ainsi être incités à partager leurs travaux en protégeant ceux-ci par l’emploi de licences de libre diffusion du type Creative CommonsBySA, GNU Free Documentation License ou Licence Art Libre…

Merci de l’évoquer. Ouf, c’en est fini du temps où l’on criait dans le désert. Mais que ce fut long !

Il y a une note, un peu étrange, concernant les Creative Commons (et Benoît Sibaud, l’excellent mais désormais ex-président de l’April, est cité) :

Creative Commons : Liberté de reproduire, distribuer et communiquer cette création au public, selon les conditions by-nc-sa (paternité, pas d’utilisation commerciale, partage des conditions à l’identique).

Et arrive alors le serpent de mer de « l’exception pédagogique » :

Cependant, beaucoup de ressources n’étant pas sous le « logo » creative commons, les enseignants sont freinés dans leurs pratiques et leur pédagogie (impossibilité de reprendre une publicité ou une photo afin de l’exploiter, de la disséquer pour mieux la comprendre…). L’exception pédagogique, déjà présente dans différents pays s’impose, notamment si on veut éduquer les enfants aux médias numériques et à l’impact de l’image.

Ce n’est pas gagné. Si vous avez cinq minutes, allez jeter un coup d’œil au tout récent Bulletin officiel n° 5 du 4 février 2010 concernant la propriété intellectuelle (partie 1 et 2). Pourquoi faire simple quand on peut faire tellement compliqué que cela en devient totalement incompréhensible !

Toujours est-il que contrairement au logiciel, on a droit à deux mesures bienvenues (dont une « en urgence ») :

Mesure 14 : Créer en urgence, dans le système juridique du droit d’auteur, une exception pédagogique facilitatrice et durable.

Mesure 23 : Favoriser le développement de ressources « libres » et la mise à disposition de ressources non payantes.

Restons sur cette note optimiste pour clore nos morceaux choisis. La balle est désormais dans le camp du législateur.

Pour lire le rapport dans son intégralité

Notes

[1] Crédit photo : One Laptop Per Child (Creative Commons By)