1

Libres extraits du rapport Fourgous sur la modernisation de l’école par le numérique

One Laptop Per Child - CC byLa « culture libre » va-t-elle enfin être reconnue, soutenue et encouragée à l’école française ?

Si vous êtes un lecteur régulier du Framablog, vous n’ignorez pas que c’est une question qui nous taraude depuis plusieurs années (sachant que patience et longueur de temps font plus que force ni que rage).

Or on tient peut-être un début de réponse positive avec le rapport de la mission parlementaire du député Jean-Michel Fourgous sur la modernisation de l’école par le numérique. Sous l’égide d’un autre politique issu du monde de l’industrie, le ministre Luc Chatel, ce rapport ambitieux a pour titre Réussir l’école numérique et il a été remis aujourd’hui même à François Fillon.

70 mesures réparties en 12 priorités dans un document de 333 pages, le moins que l’on puisse dire est qu’ils n’ont pas chômé. Enseignant, étudiant[1], parent d’élèves ou simple citoyen curieux de l’avenir du système éducatif dans la société actuelle de l’information et de la communication, je vous invite à le parcourir à votre tour car il y a beaucoup de choses intéressantes dans ce rapport, que l’on soit ou non d’accord avec les analyses, les constats et les pistes de propositions.

En attendant je me suis permis d’en extraire ci-dessous les quelques trop rares passages concernant plus ou moins directement la ligne éditoriale de ce blog. Parce quand bien même ce soit peut-être, ou sûrement, trop timide (est-ce volontaire ?), j’y vois quand même une avancée significative pour le « Libre à l’école » (expression valise que j’avais tenté de synthétiser dans un court article pour une brochure Sésamath).

Des passages dont ne parlent ni la dépêche AFP (et à sa suite tous les grands médias) ni le Café pédagogique (mais ça on sait pourquoi),

On notera que dans le cadre de la consultation préalable, l’April avait envoyé une lettre détaillée et argumentée à Jean-Michel Fourgous. Ceci participant certainement à expliquer cela.

Enfin n’oublions pas qu’un rapport parlementaire n’est qu’un document de travail qui n’augure en rien des décisions qui seront effectivement prises par le gouvernement. Sans compter, comme le souligne cette fois-ci le Café Pédagogique, qu’une « évolution de cette ampleur nécessite une école en paix, est-ce envisageable si l’austérité vient chaque année dégrader la situation scolaire ? »

Libres extraits du rapport Fourgous

URL d’origine du document

Page 29

Grâce aux wikis les contenus sont élaborés de façon collaborative. L’encyclopédie en ligne Wikipedia, les wikilivres (création de ressources pédagogiques libres) ou encore les wikicommons (banque de fichiers multimédias) traduisent la naissance de ce que Pierre Lévy appelle une « intelligence collective » où l’internaute passif, simple « récepteur », est devenu un « webacteur », un « élaborateur » de contenus.

Tiens, Wikipédia et quelques autres projets Wikimédia ont droit de cité. Un peu plus loin, page 141, il sera dit que 40% des « digital natives » consultent l’encyclopédie. Et surtout, le rapport ne craint pas de proposer des liens directs vers ses articles lorsqu’il s’agit d’expliciter certains termes (exemples : Machine to machine, Réalité augmentée, Modèle danois, Littératie, Échec scolaire, Ingénieur pédagogique ou encore Livre électronique). Une telle légitimité officielle est à ma connaissance une grande première dans le secteur éducatif. Serions-nous définitivement en route vers la réconciliation ?

Une note (un peu confuse) est collée aux ressources pédagogiques libres avec un lien Educnet :

Les contenus libres trouvent leurs origines dans le concept de copyleft (en opposition au monopole d’exploitation reconnu par le copyright et le droit d’auteur) né avec les premiers logiciels dit libres car leurs utilisations, copies, redistributions ou modifications étaient laissées au libre arbitre de leurs utilisateurs. L’accès au code source était libre (open source). Cette philosophie du partage et de la promotion du savoir et de sa diffusion s’est propagée ensuite à toutes les formes de créations numériques.

Page 234

Un paragraphe entier est consacré à des pratiques dont je n’arrive toujours pas à comprendre pourquoi on ne veut pas faire ou voir le lien avec la culture du logiciel libre.

Vers de nouvelles pratiques coopératives et collaboratives

« J’ai amélioré ma pratique enseignante parce que je l’ai enrichie de l’expérience de tous les autres »

Cette citation me parle.

Est ensuite fait mention des associations d’enseignants, en distinguant dans cet ordre mutualisation, coopération et collaboration (cf ces dessins).

Il n’est pas anodin de remarquer que l’association la plus avancée dans la collaboration, Sésamath pour ne pas la nommer, a depuis longtemps adopté les licences libres aussi bien pour ses logiciels que pour ses contenus. Il y a corrélation, mais le rapport ne le dira pas.

Le travail d’équipe est, de manière traditionnelle, peu pratiqué et non valorisé sur le plan professionnel. L’organisation des établissements et du service des enseignants ne le facilite d’ailleurs d’aucune manière. L’arrivée de l’Internet et des modèles de travail coopératif ou collaboratif bouleversent les habitudes.

En France, des associations toujours plus nombreuses (Sésamaths, WebLettres, Clionautes…) regroupent des enseignants qui mutualisent leurs supports pédagogiques. La mutualisation correspond à la mise en commun et à l’échange de documents personnels. Dans le travail coopératif chaque participant assume une tâche propre au sein d’un projet donné et dans le travail collaboratif, chaque tâche est assumée collectivement. Ainsi, si Clio-collège est un site de mutualisation, Mathenpoche un exemple de travail coopératif, les manuels Sésamaths sont un bon exemple de travail collaboratif.

(…) La mutualisation arrive officiellement dans les académies : dans celle de Versailles, un site, destiné à recueillir les ressources utilisées par les enseignants sur les tableaux numériques interactifs, a été créé. Les enseignants peuvent y partager les fichiers qu’ils réalisent. En attendant, l’interopérabilité de l’outil, les ressources sont réparties selon les marques de TNI.

C’est l’une des rares fois où l’interopérabilité est évoquée dans le rapport. Un gouvernement responsable n’est pas forcément obligé « d’attendre l’interopérabilité ». Il peut la suggérer fortement, voire l’inclure systématiquement dans ses cahiers des charges.

Les échanges et la communication permettent d’aboutir à une production collégiale finale riche et cohérente et les documents numériques deviennent accessibles et téléchargeables par l’ensemble de la communauté éducative.

(…) Le travail collaboratif prend le pas sur la coopération, comme en témoigne l’évolution depuis quelques mois des associations WebLettres et Clionautes vers ce mode de fonctionnement. Internet permet ainsi de faire évoluer la culture enseignante du « chacun pour soi » vers un travail en équipe.

Les associations Weblettres et Clionautes se dirigent donc vers la collaboration. Ma main à couper qu’elles rencontreront les outils et licences libres en chemin.

Page 267

Un passage important dont le titre est à la fois erroné (« libres de droit ») et peu téméraire (« quelques » avantages) :

Les ressources libres de droit offrent quelques avantages pédagogiques

Quant au corps du paragraphe il a le grand mérite d’exister (Jean-Pierre Archambault est cité dans la note de bas de page) :


Le logiciel libre (gratuit) est mis à disposition des utilisateurs qui peuvent à loisir le modifier ou l’adapter avec pour obligation de le mettre à leur tour à la disposition de tous. Cette technique du « don » permet de générer de la valeur, enrichissant le produit, des compétences et des idées de chacun. Le plus célèbre de tous les logiciels libres est sans conteste le système d’exploitation « Linux » et la suite « Open office » qui se placent en concurrents respectivement de Windows et du pack Office de Microsoft. On peut citer également « Gimp », pendant de Photoshop, le navigateur « Firefox »…

L’entrée du logiciel libre dans l’Éducation nationale s’est réalisée à la suite d’un accord cadre conclu en 1998 avec l’Aful (Association française des utilisateurs de Linux et des logiciels libres).

L’idée de partage et de gratuité a séduit le monde enseignant, mais changer d’environnement de travail nécessite du temps et de la formation.

Certes. Mais se borne-t-on à le constater ou bien agit-on en conséquence comme le Canton de Genève ?

Les avantages pour les élèves sont importants, notamment pour la lutte contre la fracture numérique : l’élève peut en effet télécharger le logiciel gratuitement à son domicile sans aucune difficulté ; en apprenant à utiliser des fonctionnalités plus que des outils, le libre habitue les élèves à la pluralité, à la diversité ; il permet d’entrer dans le programme informatique, de le comprendre voire de le modifier (pour les plus férus d’informatique) : les avantages pédagogiques sont donc plus nombreux.

Cela fait plaisir à lire.

Et pourtant un sentiment mitigé prédomine puisqu’une fois ceci exposé on n’en reparlera plus dans tout le rapport. C’est plus que dommage que dans les 70 mesures préconisées, le logiciel libre n’ait pas fait l’objet d’une mesure à part entière.

Page 274

L’offre libre a peu à peu pénétré le système éducatif : en effet, l’idée de partage et de gratuité (permettant à l’élève de télécharger le logiciel gratuitement à son domicile) a séduit le monde enseignant, de même que l’offre émanant des enseignants eux-mêmes : la collaboration dans le but d’élaborer des ressources adaptées à leurs attentes, remporte un franc succès auprès du monde éducatif. La vocation du métier d’enseignant sera donc sûrement d’évoluer vers plus d’élaborations de ressources, plus de créations, de passer d’un travail solitaire à un travail d’équipe.

Cela séduit le monde enseignant. Mais cela séduit-il le rapport ? Cela n’est pas très clair et ne séduira alors pas forcément le gouvernement.


Page 292

Un long extrait tout à fait pertinent :

Une liberté pédagogique freinée

L’autre problème majeur reste les ressources mises à disposition de l’enseignant afin de préparer son cours : dans l’idéal, la technologie le permettant, chacun s’accorde à penser que les enseignants du XXIe siècle devraient pouvoir trouver sur la toile, toutes les ressources numériques, toute la documentation, toute l’aide qu’ils seraient en droit d’utiliser dans le cadre de leur enseignement.

Pourtant, les droits d’auteur les en empêchent et certains documents qui leur semblent pertinents pour illustrer leurs cours ne leur sont pas accessibles, sauf à se mettre hors la loi.

Ce que font tous les jours des milliers d’enseignants.

En ce temps d’Hadopi, que l’on n’a de cesse de présenter comme une loi « favorisant la création », c’est tout de même intéressant de remarquer qu’ici c’est le rôle castrateur des droits d’auteur qui est mis en exergue. Sans compter que…

Des solutions commencent à apparaître et se révèlent être un appui sérieux pour le travail collaboratif. Les licences creative commons (organisation née en 2001) sont ainsi un début de réponse, de même qu’en sont les cours en ligne sous licences libres proposés par les universités. Creative Commons propose gratuitement des contrats flexibles de droit d’auteur pour diffusions des créations. Ces « autorisations » permettent aux titulaires de droits d’autoriser le public à effectuer certaines utilisations, tout en ayant la possibilité de réserver les exploitations commerciales, les œuvres dérivées ou le degré de liberté (au sens du logiciel libre). Ces contrats peuvent être utilisés pour tout type de création : texte, film, photo, musique, site web… Les enseignants devraient ainsi être incités à partager leurs travaux en protégeant ceux-ci par l’emploi de licences de libre diffusion du type Creative CommonsBySA, GNU Free Documentation License ou Licence Art Libre…

Merci de l’évoquer. Ouf, c’en est fini du temps où l’on criait dans le désert. Mais que ce fut long !

Il y a une note, un peu étrange, concernant les Creative Commons (et Benoît Sibaud, l’excellent mais désormais ex-président de l’April, est cité) :

Creative Commons : Liberté de reproduire, distribuer et communiquer cette création au public, selon les conditions by-nc-sa (paternité, pas d’utilisation commerciale, partage des conditions à l’identique).

Et arrive alors le serpent de mer de « l’exception pédagogique » :

Cependant, beaucoup de ressources n’étant pas sous le « logo » creative commons, les enseignants sont freinés dans leurs pratiques et leur pédagogie (impossibilité de reprendre une publicité ou une photo afin de l’exploiter, de la disséquer pour mieux la comprendre…). L’exception pédagogique, déjà présente dans différents pays s’impose, notamment si on veut éduquer les enfants aux médias numériques et à l’impact de l’image.

Ce n’est pas gagné. Si vous avez cinq minutes, allez jeter un coup d’œil au tout récent Bulletin officiel n° 5 du 4 février 2010 concernant la propriété intellectuelle (partie 1 et 2). Pourquoi faire simple quand on peut faire tellement compliqué que cela en devient totalement incompréhensible !

Toujours est-il que contrairement au logiciel, on a droit à deux mesures bienvenues (dont une « en urgence ») :

Mesure 14 : Créer en urgence, dans le système juridique du droit d’auteur, une exception pédagogique facilitatrice et durable.

Mesure 23 : Favoriser le développement de ressources « libres » et la mise à disposition de ressources non payantes.

Restons sur cette note optimiste pour clore nos morceaux choisis. La balle est désormais dans le camp du législateur.

Pour lire le rapport dans son intégralité

Notes

[1] Crédit photo : One Laptop Per Child (Creative Commons By)




Il était une fois un livre sur et avec Richard Stallman

Biographie de Stallman - Couverture Eyrolles - 3D HarrypopofLe livre Richard Stallman et la révolution du logiciel libre – Une biographie autorisée, qui est sorti le 21 janvier aux éditions Eyrolles, possède trois auteurs.

Il y a bien entendu Sam Williams, auteur de la version d’origine en anglais. Mais si nous n’étions qu’en face de sa simple traduction, il demeurerait alors le seul auteur de l’ouvrage. Or deux autres noms apparaissent : Richard Stallman lui-même et Christophe Masutti de Framasoft.

Pourquoi cette originalité et pourquoi méritent-ils tous deux de venir s’associer à Sam Williams ? Vous le saurez en parcourant l’histoire peu commune de ce livre, telle qu’elle a été vécue par Christophe.

Il nous propose une très jolie formule pour expliquer les intentions et les apports de Stallman :
il a souhaité « hacker » le livre.

Avec le même état d’esprit, ou plutôt la même éthique, que lorsqu’il se trouvait, plusieurs dizaines d’années auparavant, jeune programmeur parmi les siens au département de recherche en intelligence artificielle du MIT.

Il était une fois un livre sur et avec Richard Stallman

Christophe Masutti – janvier 2010 – GNU Free Documentation License

Christophe MasuttiTout a commencé en mars 2007, lorsque Alexis Kauffmann a posté un message sur le forum du réseau Framasoft, invitant les volontaires à participer à la traduction du livre de Sam Williams, Free as in Freedom: Richard Stallman’s Crusade for Free Software, publié en 2002 chez O’Reilly sous la licence libre GNU Free Documentation License.

Framasoft a une certaine habitude des traductions et s’est même constitué avec le temps une équipe entièrement dédiée à cela, le groupe Framalang. Il se trouve qu’à cette époque Framalang ne chômait pas et nous ne souhaitions pas leur rajouter une charge de travail supplémentaire avec un livre de quelque 300 pages !

Nous avons donc fait le choix de proposer directement le projet dans un wiki public, et pas n’importe lequel d’entre eux : Wikisource, la bibliothèque libre du réseau Wikimedia. Lors d’une conférence tenue aux Rencontres mondiales du logiciel libre 2009 de Nantes, Alexis donne plus de détails sur le mode opératoire : quelqu’un avait déjà traduit la préface et le premier chapitre du livre sur un site personnel, ce qui nous a servi de base pour créer la structure de l’ensemble du projet sur Wikisource. L’objectif était bien entendu d’arriver à nos fins mais il s’agissait également d’une expérience, celle d’une ambitieuse traduction collaborative et spontanée ouverte à tous, exactement comme on crée, modifie et améliore les articles de Wikipédia.

Un an plus tard, le bilan était contrasté. Nous avions bénéficié de l’exposition de Wikisource et de nombreuses personnes étaient venues participer. Mais quantitativement il restait encore beaucoup à faire et qualitativement ce qui avait été fait manquait singulièrement de cohérence et d’harmonie (ne serait-ce que pour se mettre d’accord sur la traduction de tel ou tel terme important et récurrent). Et puis nous butions sur des questions aussi élémentaires que la décision de « clore » un chapitre traduit, ce qui sur un wiki aussi fréquenté ne va pas de soi.

Ne nous en déplaise, il fallait mettre un peu de « cathédrale dans le bazar », c’est-à-dire un peu de verticalité dans l’horizontalité du projet. Alexis a alors pris la décision de relancer le projet sur le blog de Framasoft, en invitant les bonnes volontés à se regrouper sur une liste de discussion dédiée et créée pour l’occasion. Pour ma part, je pris l’initiative d’animer cette liste qui compta rapidement une bonne dizaine d’inscrits (dans le livre vous trouverez en préambule les remerciements à cette liste nominative de participants).

Notre première décision consista à créer ailleurs un deuxième wiki, mais cette fois-ci loin des regards du réseau Wikimedia. Il ne s’agissait pas de jouer les cachottiers, mais nous en étions arrivés à la conclusion qu’il n’était plus possible de continuer à travailler sur Wikisource, dans la mesure où à tout moment une personne externe à la liste pouvait s’en venir tout « bouleverser » (c’est, j’en conviens fort bien, ce qui fait tout le charme de Wikipédia, mais à cette période d’un projet si spécifique nous souhaitions avant toute chose être efficaces et coordonnés dans notre travail).

Nous nous trouvions cependant face à un dilemme : d’un côté la traduction d’origine sur Wikisource restait bien entendu ouverte et continuait sa vie de texte wiki (bien que fort peu active, puisque la liste avait capté une bonne part de l’énergie disponible) et de l’autre côté, le travail sur notre nouveau wiki prenait forme et la traduction avançait plutôt bien. Une fois terminée, notre intention était de reverser la traduction de Free as in Freedom dans Wikisource, quitte à « écraser » les contributions effectuées dans l’intervalle (ces contributions peuvent néanmoins être réhabilitées grâce à l’historique des modifications). Aujourd’hui, on peut donc trouver sur Wikisource cette traduction française de Free as in Freedom publiée par Sam Williams en 2002. Modulo le fait que quelqu’un est peut-être venu en déplacer un mot il y a une heure 😉

Notre traduction avançait donc plutôt bien jusqu’à obtenir une forme convenable à la relecture en novembre 2008, avec en prime la décision définitive d’en faire un volume de plus de la collection de livres libres Framabook.

Une petite parenthèse est ici nécessaire. En effet, nous travaillions depuis peu en étroite collaboration avec l’équipe de La Poule ou l’Oeuf, qui est une chaîne éditoriale en ligne pour la production de livres, pensés comme unités d’une collection, permettant un rendu final de type TeX, PDF, ePub ou HTML. Ce livre était aussi pour nous l’occasion d’implémenter dans le système non seulement l’ouvrage mais aussi la maquette générale de notre collection Framabook. Nous sommes très heureux du résultat car non seulement la Poule ou l’Oeuf a servi pour la mise en page du livre publié chez Eyrolles, mais ce sont désormais tous les framabooks qui vont bénéficier de la puissance de cet outil et des compétences de l’équipe de la Poule ou l’Oeuf.

Parenthèse fermée. Un mois plus tard, en décembre 2008, j’écrivis à Sam Williams pour lui demander une préface. Il accepta, tout en me précisant qu’il aurait bien aimé que Richard Stallman eût participé aux éventuelles modifications de l’ouvrage en anglais mais que finalement cela ne s’était pas produit. À ce moment-là, je ne compris guère l’allusion qui trouva son explication quelques jours plus tard.

Nous réfléchissions également aux illustrations possibles de l’ouvrage. Il y avait une belle photo de Richard Stallman dans le livre d’origine chez O’Reilly, tirée du site web personnel de Richard. Je contacte donc ce dernier, non seulement pour lui demander l’autorisation d’utiliser sa photo, mais aussi pour l’informer que nous comptions publier la traduction en français (une traduction en italien avait été publiée en 2003).

C’est là que tout a basculé (positivement).

Il faut savoir que le livre Free as in Freedom n’a jamais obtenu l’appui formel de Richard Stallman. Pire : Richard aurait déjà affirmé qu’il était hors de question de venir lui demander un autographe sur le livre. On peut légitimement se demander pourquoi… Certes le travail de Sam Williams est d’abord un travail de journaliste, et il dresse un portrait sans concession de la personnalité de Richard Stallman : introverti, controversé, irascible et intransigeant. Tous ceux qui se sont rendus au moins une fois à l’une de ses conférences et qui sont au courant de ses activités, ont une bonne idée de ce que je veux dire.

Mais ce n’est pas sur ce point que Richard Stallman était en désaccord avec l’ouvrage : il y avait des erreurs manifestes voire des interprétations faussées dans les faits concrets relatés dans l’ouvrage. En somme, un travail mené un peu trop vite et sans assez de recul. Par ailleurs, un programmeur de l’envergure de Richard Stallman met un point d’honneur à vouloir reformuler avec exactitude les approximations, même lorsqu’elles ont été commises volontairement dans le but de rendre l’ouvrage plus accessible. Il n’en demeure pas moins que sous le prétexte de l’accessibilité, certaines approximations transformaient carrément le propos ou les évènements. La manière dont Richard a agit sur le texte est relatée dans sa préface et lorsque le propos relève notamment de l’interprétation personnelle de Sam Williams, les ajouts de Richard sont clairement identifiés dans le livre par des encarts et des notes de bas de page. Les lecteurs pourront donc se faire une bonne idée des transformations ainsi opérées, quitte à aller voir et comparer avec l’original de Sam Williams.

Je prends un exemple : lorsque Sam Williams relate la tension entre Eric S. Raymond et Richard Stallman, on comprend que Raymond accuse Richard d’être la principale cause du manque de réactivité du projet Hurd (le projet de noyau du système GNU), et que cette accusation est fondée (on se doute néanmoins que Raymond n’a pas bien digéré la fin de non recevoir pour les modifications de l’éditeur Emacs qu’il voulait imposer). Pour Williams, et aussi pour Raymond, c’est le « micro-management » à la Stallman, c’est à dire sans concession, qui a freiné Hurd, avec pour conséquence la popularisation du noyau Linux, qui obéit, lui, à un schéma de développement beaucoup plus ouvert. Il serait pourtant simpliste de se contenter de cette interprétation. Richard l’explique autrement, tant en montrant que Hurd n’est pas une mince affaire qu’en montrant aussi que le noyau Linux n’est pas la panacée du point de vue technique comme du point de vue éthique (le plus important à ses yeux).

Bref, suite à mon courriel, Richard me répondit qu’il désirait apporter quelques précisions sur l’épisode LMI et Symbolics, deux entreprises qui débauchèrent le gros de l’équipe de hackers du MIT au début des années 1980. Cet épisode était très important, mais il ne touchait en gros qu’une dizaine de paragraphes dans l’ouvrage. Lorsque j’en fis référence à l’équipe de notre liste de discussion, tout le monde approuva l’idée.

Pourtant, au fil des échanges, Richard me confia qu’il n’avait jamais lu le livre de Sam Williams, et qu’en lisant les chapitres en anglais que je lui envoyais (repris depuis le site personnel de Sam Williams), il ressentait fortement le besoin de le réécrire.

Et tout l’art du hacker se révéla.

Alors que je lui suggérais d’écrire lui-même son autobiographie (d’un certain côté, j’anticipais sur mes craintes : la retraduction de l’ensemble à partir de toutes ces nouvelles modifications !), il se contenta de me renvoyer des chapitres réécris, sur lesquels je faisais un « diff » (une commande Unix permettant d’afficher les différences entre deux fichiers) pour pouvoir implémenter ces modifications dans la traduction française.

Après tout, qu’est-ce qu’un hacker ? Le lecteur en trouvera une bonne définition historique en annexe de l’ouvrage. L’essentiel est de comprendre que « hacker » signifie surtout améliorer, et qu’un bon hacker qui se respecte ne supporte pas l’imperfection. En toute logique, Richard ressentait tout simplement l’envie irrésistible de « hacker » le livre de Sam Williams. Qui d’autre sinon lui ?

J’énonce tout ceci avec le recul que me permet la parution de l’ouvrage. Dans les faits, je recevais plusieurs courriels par semaine contenant les modifications de Richard. Je les implémentais après les avoir lues, demandé des précisions, et argumenté lorsqu’elles étaient discutables. Bref, un travail soutenu qui nous amena Richard et moi jusqu’au début de l’été 2009.

Un mois auparavant, Alexis avait rencontré Muriel Shan Sei Fan, directrice de la collection Accès Libre aux éditions Eyrolles. Et entre la poire et le fromage, il évoqua « l’aventure » de cette traduction qu’il continuait à suivre attentivement. Muriel trouva le projet tant est si bien intéressant qu’elle nous proposa de le publier chez eux.

Nous acceptâmes, mais ce serait vous mentir que d’affirmer que ce fut une décision facile et unanime dans l’équipe. En effet, nous avons, et nous avons encore, nos habitudes chez InLibroVeritas, l’éditeur si particulier et attachant de tous les autres framabooks, avec qui nous travaillons main dans la main depuis des années pour défendre et faire la promotion du logiciel libre et sa culture.

Plusieurs arguments ont cependant pesé dans la balance. Tout d’abord nous n’avions plus affaire cette fois à un livre sur un logiciel libre particulier (Thunderbird, OpenOffice.org, LaTeX, Ubuntu…). Nous étions face à un livre mutant, une traduction devenue « biographie autorisée » car modifiée et enrichie pour l’occasion par son sujet même. Et pas n’importe quel sujet : la plus illustre des personnalités de la jeune histoire du logiciel libre. Cela méritait assurément de rechercher la plus grande exposition possible. Outre sa capacité de diffusion et distribution, Eyrolles nous offrait aussi son expertise et expérience. Le livre avait été traduit et une première fois relu, mais nous étions néanmoins conscients de sa perfectibilité de par les conditions mêmes de sa réalisation mentionnées plus haut (sachant de plus qu’à ce moment précis de l’histoire Richard n’en avait toujours pas fini avec ses propres modifications). Eyrolles a ainsi retravaillé le texte et mis à disposition du projet plusieurs personnes non seulement pour effectuer de nouvelles relectures mais parfois même pour retraduire certains passages. J’ajoute que nous appréciions la collection pionnière Accès Libre qui abrite en son sein de nombreux ouvrages de qualité sur le logiciel libre. Et enfin dernier argument et non des moindres : sous notre impulsion, Eyrolles allait pour la première fois publier d’emblée un livre sous licence libre, avec tous les avantages et inconvénients que cela suppose.

Nous nous rencontrâmes in the real life, Muriel, Richard, Alexis et moi, au cours d’un déjeuner en marge des Rencontres mondiales du logiciel libre de Nantes en juillet 2009. Nous discutâmes des modalités de publication et surtout, justement, de la question de la licence. L’ouvrage d’origine étant sous licence GNU Free Documentation License (à cause d’un Stallman insistant, Sam Williams s’en explique à la fin de son livre), sa traduction ne pouvait que l’être également. Or publier sous licence libre n’était pas dans les habitudes d’Eyrolles et cela ne rentrait pas forcement dans les « cases » de ses contrats types (rien que le fait d’interdire la classique interdiction de photocopier était une nouveauté). De plus nous connaissons les positions sans concession de Stallman dès que l’on touche à ces questions de licence. Mais nous avons néanmoins réussi sans trop de mal à nous mettre d’accord, et il faut rendre ici hommage aux éditions Eyrolles d’avoir su s’adapter et innover.

La dernière ligne droite fut en tout cas aussi passionnante que stressante, avec ses nombreux va-et-vient entre Richard (apportant ses dernières modifications), Eyrolles (éditant à la volée l’ensemble de l’ouvrage), La Poule (obligée à mettre en forme un texte sans cesse en mouvement) et moi (dispersé un peu partout). Toujours est-il que vers la fin décembre 2009, ouf, nous étions prêts et le projet bouclé. Nous méritions tous ce beau cadeau de Noël que nous nous offrions là 😉

De leur côté, Richard Stallman et John Sullivan vont très prochainement publier en anglais le livre dans sa nouvelle version, aux éditions internes à la Free Software Foundation, ajoutant ainsi une dimension supplémentaire au projet. Non seulement nous touchons les lecteurs francophones, mais le monde anglophone pourra aussi se délecter de ce « hack biographique ». Grâce à la licence libre (et aux efforts de quelques uns), le livre, parti des États-Unis, revient à la maison après un détour par la France qui l’aura transformé !

Pour moi, ce livre n’est pas seulement une biographie, même s’il en a l’apparence et la saveur. Il s’agit d’une histoire, celle du mouvement pour le logiciel libre, qui a influencé profondément l’histoire générale de l’informatique depuis la fin des années 1960. On considère généralement cette histoire à travers celle de l’industrie logicielle ou des composants d’ordinateurs. Mais il manque souvent une approche en termes de pratiques d’ingénierie et de circulation de l’information. Le logiciel libre constitue en cela une belle illustration de l’ingénierie logicielle, qui avance non seulement par projet, mais aussi parce qu’elle est fondamentalement un débat permanent sur la disponibilité et le partage de l’information. Lorsque le partage d’idées est impossible (notamment à cause des brevets) et lorsque les développeurs et les utilisateurs sont restreints dans leurs libertés, alors c’est la société toute entière qui pâti de la pénurie de code et de libertés.

Tous les métiers ont leur déontologie. Les informaticiens ont une éthique et ceux qui la distillent sont les hackers. Par delà ses actes et ses programmes, l’un des principaux mérites de Richard Stallman est d’avoir réussi à concentrer et matérialiser cette éthique dans une simple licence (la fameuse GNU General Public License), qui va non seulement fonder, défendre et diffuser le logiciel libre mais qui constitue aujourd’hui une référence et une source d’inspiration pour d’autres mouvements émancipateurs. En fait, les programmes ont toujours été libres, et c’est un non-sens éthique qui les a rendu privateurs à un moment donné. L’histoire de l’informatique est heureusement loin d’être terminée.

Celle de ce livre touche par contre à sa fin, puisqu’il sera officiellement publié le 21 janvier prochain sous le titre Richard Stallman et la révolution du logiciel libre – Une biographie autorisée. Je remercie chaleureusement tous ceux que cette aventure a mis sur notre chemin. Toutes ces rencontres qui font aussi le sel d’un tel projet. À Framasoft, nous sommes fiers d’avoir pu le mener à son terme. Et malgré le labeur qui n’a pas manqué, ce fut un réel plaisir. Plaisir que nous espérons désormais partager avec le lecteur…

Cette histoire touche donc à sa fin, disais-je, mais, licence libre oblige, rien ne dit qu’il ne subisse pas à l’avenir d’autres métamorphoses. Ne serait-ce que parce que Richard est heureusement toujours parmi nous et qu’il lui reste encore certainement de belles pages à écrire dans le livre de sa vie.




Vente liée : Un reportage exemplaire de France 3 Bretagne

Lu sur le site de l’AFUL : Éric Magnien, qui a gagné deux fois en justice contre le constructeur ASUS (lire le commentaire détaillé de la décision de justice par Me Frédéric Cuif), s’exprime dans le journal télévisé 19-20 de France 3 Bretagne le 21 décembre 2009 : Un Morbihannais en lutte contre Windows, par Géraldine Lassalle.

—> La vidéo au format webm

Transcript

Voix off : C’est un combat semblable à celui de David contre Goliath. Dans le rôle de David, Éric Magnien, régiseur de théâtre lorientais, dans le rôle de Goliath, le fabricant d’ordinateur Asus. Tout commence en mai 2008 quand Eric décide de s’acheter un ordinateur.

Éric Magnien : Je voulais acheter un ordinateur, mais je ne voulais pas des logiciels qui étaient installés avec, parce que j’utilisais déjà avec un autre ordinateur des logiciels libres, donc sous Linux.

Voix off : Pourtant Éric n’a pas le choix. il doit acheter l’ordinateur avec avec le système d’exploitation de Microsoft déjà installé. Il décide alors de demander au constructeur le remboursement des logiciels Windows dont il n’a pas besoin.

Éric Magnien : Il me demandait à ce que je renvois l’ordinateur à mes frais, à leur service après-vente à Paris, pour effacer totalement le disque dur et enlever l’étiquette de Windows. Donc c’était totalement inacceptable, pour un remboursement de 40 euros alors que dans le commerce ces mêmes logiciels coutaient 205 euros.

Voix off : S’engage alors une bataille juridique qui va durer plus d’un an. Avec l’aide de l’Association Francophone des Utilisateurs de Logiciels Libres (AFUL), Éric rassemble tous les elements demontrant l’abus dont il est victime. Face à lui une armée d’avocats experts, un combat inégal mais Éric sait qu’il est légitime. En août 2009 la justice condamne le constructeur.

Éric Magnien : C’est une procédure longue, difficile mais nécessaire, et qui vaut le coup parce que c’est notre droit. On a le droit d’obtenir réparation de ce genre de choses, on a le droit d’obtenir le remboursement de ces licences. Et donc c’est aussi pour une certaine idée du droit, de la justice, que j’ai été jusqu’au bout de la démarche.

Voix off : La décision de justice rendu par le tribunal de Lorient pourrait bien décider d’autres consommateurs à faire valoir leurs droits. Le 2 décembre dernier, la société Acer a été condamnée pour la cinquième fois pour des faits similaires.




Souhaitons-nous une société d’illettrés numériques ou une société libre ?

Glitter Feet - CC byOn peut s’extasier béatement devant les prétendues capacités technologiques de la nouvelle génération, née une souris dans la main, et baptisée un peu vite les « digital natives ».

Mais s’il ne s’agit que de savoir manier de nouveaux objets, sans conscience, sans recul, et sans compétence ni curiosité pour en soulever les capots, alors nous nous mettons peut-être en danger[1].

Or, parmi ces nouveaux objets, il y a les logiciels, dont tout le monde aura noté la place croissante qu’ils occupent dans nos sociétés contemporaines. Nous écarterons d’autant plus facilement ce danger que nous serons toujours plus nombreux à accorder de la valeur à la liberté des logiciels.

C’est la thèse que défend ici Hugo Roy en évoquant, par analogie avec la démocratie, une approche systémique de la situation.

PS : Pour l’anecdote, il s’agit d’une traduction que nous avons entamée sans savoir qu’Hugo Roy était… français ! Du coup c’est la première fois qu’on se retrouve avec une traduction relue par l’auteur même de l’article d’origine !

Logiciel Libre, Société Libre : À propos de la Démocratie et du Hacking

Free Software, Free Society: Of Democracy and Hacking

Hugo Roy – 8 novembre 2009 – Blog de la FSFE
(Traduction Framalang : Gilles Coulais et Hugo Roy)

Lorsqu’on explique pourquoi le logiciel libre est important, une question revient souvent :
« Ai-je réellement besoin de la liberté du logiciel ? »

L’utilité de la liberté du logiciel n’est pas évidente pour tous. Tout le monde n’est pas capable de comprendre le code source d’un programme, et ils sont encore moins nombreux à pouvoir le modifier. Seuls les hackers et les développeurs peuvent en effet jouir pleinement des quatre libertés d’un logiciel libre. Il est alors difficile de convaincre quelqu’un d’abandonner le logiciel propriétaire pour le simple bénéfice de la liberté, tant qu’il ne comprend pas l’utilité de cette liberté.

Il est essentiel de penser ce problème non pas comme un simple engagement envers la liberté, mais plus comme un problème de systèmes.

Tout d’abord, ne pas jouir d’une liberté n’implique pas pour autant qu’on ne bénéficie pas des effets de cette liberté. L’analogie la plus évidente ici sont les systèmes politiques. La Constitution est à la souveraineté ce que la licence des logiciels libres est au droit d’auteur. La Constitution qui définit notre système politique donne à chaque citoyen des libertés et des droits, tel que le droit de se porter candidat à une élection.

Tout le monde peut se présenter à une élection, ce qui ne signifie pas pour autant que tout le monde le fera. Tout le monde n’a pas la compétence ou l’envie de devenir politicien. Cela étant, diriez-vous que la démocratie n’a aucune importance juste parce que vous ne souhaitez pas personnellement entrer en politique ? Je crois que la plupart des gens ne diraient pas cela.

C’est la même chose avec le logiciel libre. Chacun peut utiliser, partager, étudier ou améliorer le programme. Mais le fait que vous ne le ferez pas ne doit pas vous amener à penser que ce n’est pas important pour vous. C’est important pour le système lui-même. Et plus le système devient important, plus cette liberté prend de la valeur.

À moins, bien sûr, que vous ne partiez du principe que le logiciel n’est pas important, et par conséquent son degré de liberté également. Mais alors, je suggère que vous éteigniez votre ordinateur et que vous arrêtiez de me lire. Prenez un avion et passez le reste de votre vie sur une île déserte.

Regardons maintenant de plus près l’utilité de la liberté logicielle. Alors que de plus en plus de logiciels sont utilisés dans notre société pour faire toujours davantage, nous devrions être de plus en plus nombreux à être capables de comprendre le logiciel. Sauf à vouloir donner à certains un contrôle total sur vous-même. Et alors les autres façonneront le système à votre place, en vue d’obtenir toujours plus de pouvoir au sein de ce système.

C’est la raison pour laquelle nous avons besoin de démocratiser le hacking. Et cette démocratisation viendra naturellement si le logiciel libre est largement utilisé. Donnez aux gens la possibilité d’étudier et d’explorer quelque chose, et ils finiront par le faire, au moins par curiosité, de la même manière que l’Imprimerie a donné aux gens la volonté d’être capable de lire puis d’écrire. Il s’agit évidemment d’un long processus. Mais ce processus peut s’avérer beaucoup plus long si nous utilisons du logiciel propriétaire, un logiciel que vous ne pouvez ni lire, ni modifier, ni partager.

Souhaitons-nous une société d’illettrés numériques ou une société libre ?

Notes

[1] Crédit photo : Glitter Feet (Creative Commons By)




Montre-moi tes commentaires et je te dirai si tu es un bon développeur

Fraserspeirs - CC byEn programmation, les commentaires sont des portions du code source ignorées par le compilateur ou l’interpréteur, car ils ne sont pas nécessaires à l’exécution du programme, nous dit Wikipédia.

De fait ils sont le plus souvent utilisés pour expliquer le code, et contrairement à ce dernier qui nécessite un langage de programmation, les commentaires se font dans une langue humaine, généralement en anglais.

C’est une opération indispensable et une partie intégrante du travail du développeur, afin qu’un autre puisse comprendre et éventuellement modifier le code initial (quitte à ce que cet autre soit l’auteur même des commentaires, reprenant son code quelques temps plus tard).

De par le fait que sa nature en autorise l’accès et le ré-appropriation, on comprendra que ces commentaires soient encore plus importants dans le cas d’un logiciel libre.

Il se trouve cependant que, par paresse, manque de temps ou mépris pour ce qui ne serait pas de la programmation stricto sensu, ils sont parfois quelque peu négligés par les développeurs.

Or l’hypothèse défendue ici est qu’il y aurait une corrélation directe en la qualité des commentaires et la qualité du code.

Affirmer ainsi péremptoirement que l’un n’irait pas sans l’autre est somme toute assez osé. Mais cela a le mérite d’évoquer cette « face cachée » de la programmation qui fait aussi partie des compétences attendues d’un bon développeur[1].

Si les commentaires sont moches, le code est moche

If the comments are ugly, the code is ugly

Esther Schindler – 15 novembre 2009 – IT World
(Traduction Framalang : Goofy)

C’est un peu dur, je sais, mais finalement je crois que c’est vrai.

Le développeur de Plone Martin Aspeli m’a signalé un billet assez judicieux dans lequel un programmeur en C faisait part de trois règles apprises à ses dépens. Celle qui a particulièrement attiré l’attention de Martin (et la mienne) est la suivante :

Les bons programmes ne comportent aucune faute d’orthographe ni de faute de grammaire. Je pense que cela vient probablement d’une attention soutenue aux moindres détails ; dans les programmes excellents tout est correct à tous les niveaux, jusqu’aux points qui terminent les phrases de commentaires.

« Allez, tu charries ou quoi ? ». Vous pourriez croire que pinailler à ce point est indigne de vous, « Et bien je m’en vais commencer à vous signaler les erreurs dans votre code lui-même ». J’ai été bien embarrassé les deux ou trois fois où ça m’est arrivé.

La programmation, que vous la pratiquiez en enthousiaste de l’open source ou parce que vous êtes au service du patron, est un exercice qui exige de l’attention aux détails. Quiconque écrit un logiciel doit être pointilleux, sinon le code ne fonctionnera pas. Je suis sûre que je n’ai pas besoin de vous citer la série des célèbres bogues de programmation dont s’est rendu coupable un programmeur qui a utilisé une virgule et non un point, ou des plantages aléatoires provoqués par deux lignes de code placées au mauvais endroit ?

Il est possible que mon jugement soit faussé par mes fonctions d’écrivain et d’éditrice, mais je crois fermement que si vous ne pouvez pas trouver le temps d’apprendre les règles de syntaxe de la langue (y compris la différence entre « c’est » et « ces », ou encore « m’a » et « ma »), je ne crois pas que vous puissiez être beaucoup plus consciencieux pour écrire du code en respectant les bonnes pratiques. Si vos commentaires sont négligés, je m’attends à trouver du code négligé.

Mon postulat vient de ce que m’a enseigné un éditeur très brillant, il y a dix ans (Laton McCartney, si tu lis ça : merci !). Si tu peux écrire le chapeau, disait-il, tu peux écrire l’article très facilement. Si tu ne peux pas écrire le chapeau, c’est que tu ne comprends pas encore ce que tu veux dire, et tu ne devrais pas commencer à écrire (le « chapeau » est le petit paragraphe d’accroche qui suit le grand titre, qui dit en un mot de quoi il est question et invite gentiment le lecteur à en savoir plus). De filandreuses « explications » du code dans les commentaires de l’application (c’est-à dire, ceux qui se lisent comme de bonnes excuses) indiquent que le développeur ne savait probablement pas ce qu’il faisait au juste. Ce qui signifie que son code est éligible au titre de nid à bugs.

Se plaindre de la mauvaise documentation interne est un vieux refrain, mais il existe une raison pour laquelle il est important de la faire bien. Vos commentaires sont la seule façon dont vous disposez pour communiquer avec la prochaine personne qui regardera votre logiciel (il se peut même que ce soit vous) en profondeur, et pas juste une ligne ou deux. À quoi pensiez-vous en écrivant ce code ? D’accord, du code « auto-documenté » c’est l’idéal, mais c’est un peu arrogant de prétendre que vous l’avez atteint, et ça l’est tout autant de ma part si je prétends que mes phrases n’ont pas besoin d’être révisées (elles en ont besoin, je suis bien contente d’avoir un correcteur).

Un autre problème habituel dans la médiocrité des commentaires apparaît lorsque les développeurs mettent à jour le code sans mettre à jour les commentaires ; comme l’a expliqué un consultant, les commentaires ne sont pas testés. Mais est-ce qu’il ne s’agit pas là encore d’un manque d’attention aux détails ? À chaque fois que vous n’êtes pas totalement attentif, vous êtes prédisposé à laisser tomber un petit bout de logique.

Vous voulez quelques exemples ?

En voici un tiré d’une explication à propos d’un choix de conception. (« oui, je devine que c’était probablement intentionnel », a écrit le programmeur qui m’a montré cet exemple. « mais c’est bien là le problème : il faut que je devine ».)

 «... des questions prévues pour injustifier un débat...» 

Voici maintenant une authentique ligne de code avec un commentaire. Notez que le commentaire met l’accent sur la faute d’orthographe. Sans compter que le commentaire vous indique que le programmeur n’avait pas la moindre idée de ce qu’il faisait au départ. Particulièrement parce qu’il n’aurait pas dû écrire « finished » (NdT : fini) dans ce bout de code, mais qu’il aurait dû essayer « complete » (NdT : terminé).

 if item.getState() == 'finsihed': #est-ce correct? 

Bon, je vous accorde quelques exceptions. Si l’anglais n’est pas votre langue maternelle, il est possible que les commentaires que vous laissez dans votre code montrent que vous n’êtes pas à l’aise pour écrire en anglais. Cependant, en ce qui me concerne je n’ai pas trouvé que c’était le cas. Comme beaucoup d’Américains s’en sont rendu compte, les capacités en anglais des « étrangers » sont généralement bien meilleures que les nôtres. Parmi les développeurs que je connais, ceux qui ont des lacunes dans leur maîtrise de la langue anglaise en sont conscients et font tout leur possible pour qu’un anglophone passe en revue leur documentation.

Je ne me lancerai pas dans des considérations sur l’indentation du code et des commentaires, c’est une guerre de religions. Mais j’ai rencontré des développeurs qui réagissaient aussi violemment devant un formatage de code « moche » que moi devant une grammaire moche.

Les environnements de développement modernes procurent la discutable possibilité aux développeurs d’être négligents sans effets pervers ; une interface glisser-déposer vous permet de créer une application vite fait bien fait (ou plutôt mal fait, j’en ai peur) avec bien moins d’horribles dommages collatéraux qu’à l’époque où les logiciels étaient généralement écrits en assembleur. Pourtant, d’une certaine façon, j’ai du mal à considérer le « je peux être négligent » comme un avantage réel.

La règle du commentaire « moche » vaut autant pour les applications propriétaires que pour les logiciels open source. Mais les développeurs de FOSS (NdT : Free and Open Source Software, les logiciels libres et open source) doivent faire beaucoup plus attention encore pour deux raisons. La première, c’est qu’au bureau, vous avez de grandes chances de croiser le développeur du code mal fichu et de pouvoir lui poser des questions (ou de lui en coller une, si c’était vraiment horrible). De plus, dans la communauté open source, davantage de gens regardent dans le code et ont besoin de le comprendre.

Toutefois, lorsque j’ai suggéré à des développeurs que « si les commentaires sont moches, le code est moche », beaucoup n’étaient pas d’accord. Et vous non plus peut-être. J’aimerais savoir pourquoi, et je vous invite donc à laisser un… commentaire.

Notes

[1] Crédit photo : Fraserspeirs (Creative Commons By)




Educatice 2009 : Demandez le programme libre, avec Jean-Pierre Archambault

Styeb - CC by-saJean-Pierre Archambault œuvre depuis des années pour le logiciel libre à l’école, contribution au pluralisme technologique..

Il ne le fait pas « de l’extérieur », en se contenant de chausser ses gros sabots pour crier haro sur le baudet dans un blog (suivez mon regard !).

Il le fait « de l’intérieur » et par petites touches, au sein même des arcanes de l’Éducation nationale, dans le cadre de l’accord signé en octobre 1998 par le Ministère de l’Education nationale et l’AFUL, ce qui suppose patience, tactique et diplomatie.

Avec le temps c’est toute une petite équipe qui s’est agrégée autour de lui : le pôle de compétences logiciels libres du SCEREN, qui a pris la bonne habitude de venir chaque année nombreux représenter dignement le logiciel libre au Salon Educatec-Educatice (manifestation parallèle au Salon de l’Education mais réservée aux professionnels de l’éducation).

L’occasion était belle pour rencontrer Jean-Pierre Archambault[1], lui demander le programme 2009 de cette manifestation (du 18 au 20 novembre à Paris) et en profiter au passage pour évoquer le situation actuelle du libre dans l’éducation.

Rencontre avec Jean-Pierre Archambault

CNDP-CRDP de Paris, coordonnateur du pôle de compétences logiciels libres du SCEREN


Comme chaque année depuis 2004, le pôle de compétences logiciels libres du SCEREN sera présent au salon Educatec-Educatice.

Oui. Les organisateurs de ce salon ont toujours considéré comme allant de soi, dans leur vision marquée du sceau du pluralisme, qu’il devait y avoir une composante libre dans leur manifestation consacrée à l’informatique pédagogique dans toute sa diversité. Je tiens à les en remercier à nouveau.

Cette année, nous organisons une table ronde – conférence « Logiciels et ressources libres pour l’éducation ». Elle se déroulera le jeudi 19 novembre, de 15h45 à 17h15 en salle 1. Nous ferons un état des lieux en termes de solutions et ressources utilisées. Nous verrons les coopérations de l’institution éducative avec les associations, les collectivités locales et les entreprises. Nous verrons également en quoi le libre est la réponse appropriée à la question de « l’exception pédagogique ».

Nous participerons à deux autres tables rondes : « L’Ecole numérique, de la théorie à la pratique », le mercredi 18 novembre, de 14h à 17h15, en salle 3 ; et « CRDP : valoriser la diffusion multi-support des documents éditoriaux », le jeudi 19 novembre, de 9h30 à 11h, en salle 3[2].


Et il y a bien sûr le village du pôle dont j’ai le souvenir, les années où je suis venu à Educatice, qu’il était une véritable « ruche ».

Ce village s’inscrit dans la mise en oeuvre de l’une des missions du pôle, à savoir fédèrer les initiatives, les compétences et les énergies, ce qui l’amène à coopérer avec de nombreux acteurs, institutionnels ou partenaires de l’Education nationale, ainsi les collectivités locales, les entreprises, les associations.

Le village accueillera différents exposants, institutionnels et associatifs. Le CRDP de Lyon présentera OSCAR, lauréat aux Trophées du libre 2009, un ensemble d’outils qui permet aux administrateurs réseaux d’installer et de gérer facilement une salle informatique. Le CRDP de Paris présentera lui ses différentes activités en matière de logiciels et de ressources libres : partenariats éditoriaux avec Sésamath, réalisation de clés USB, démonstration de Freemind… La présence du CDDP de Seine-Maritime sera centrée sur l’opération du Conseil général qui a consisté à doter tous les collégiens du département d’un bureau virtuel.

Le Réseau Ecole et Nature, dont le but est de développer l’éducation à l’environnement, fera visiter son site réalisé à partir de logiciels libres, et qui vient de faire peau neuve. On connaît bien Sugar, plate-forme pédagogique libre, née du projet One Laptop Per Child (OLPC). Aujourd’hui utilisée sur le XO par plus d’un million d’enfants dans le monde entier, elle sera sur le village.

Les visiteurs pourront faire connaissance avec la toute jeune association EducOoo (un an juste), liée au projet OpenOffice.org Éducation. Elle sert de ressource et vise à faciliter la mise en place et l’accompagnement de projets entre OpenOffice.org et le monde de l’enseignement.

Les visiteurs pourront mieux connaître deux chaînes éditoriales libres, La Poule ou l’Oeuf et Scenari. La Poule ou l’Œuf est une chaîne éditoriale Web dédiée à l’édition de documents longs (monographies, cours, mémoires, thèses, actes…), à destination électronique aussi bien que papier. Elle s’adresse à toute institution éditrice de contenus académiques pour une production structurée sémantiquement et intégrée au réseau, en vue d’une exploitation dynamique et évolutive des savoirs. Scenari, elle, est une chaîne éditoriale générique, basée sur la séparation des formats de stockage et des formats de publication : les formats de stockage décrivent la structure du fonds documentaire et les formats de publication la forme physique du document vue par l’utilisateur.

Seront également présents l’AFUL (Association francophone des utilisateurs de Linux et des logiciels libres) et Scidéralle (les logiciels du Terrier, AbulÉdu, AbulEduLive…).


Educatice est un moment important de l’année scolaire pour le pôle de compétences logiciels libres du SCEREN.

Effectivement. Il s’inscrit aussi dans ce qui est la mission première du pôle qui est d’informer la communauté éducative, afin d’aider les uns et les autres à faire leurs choix. Les modalités sont diverses : organisation et/ou participation à des journées, séminaires, colloques, salons mais aussi textes et articles. Les initiatives sont multiples. Pour les dernières années scolaires, on peut mentionner, entre autres : depuis 2000, la présidence du cycle Education du salon Solutions Linux ; Paris Capitale du Libre ; le Forum Mondial du Libre ; les journées Autour du libre coorganisées par le CNDP et les ENST ; les colloques et séminaires d’ePrep ; les Rencontres de l’Orme, les Trophées du libre ; la Semaine de la Science ; les Rencontres mondiales des logiciels libres…


Comment ces actions d’information sont-elles reçues ?


En général très bien ! Il faut dire qu’est tellement évidente la convergence entre les principes du libre et les missions du système éducatif, la culture enseignante de libre accès à la connaissance et de sa diffusion à tous, de formation aux notions et non à des recettes. L’enseignement requiert la diversité des environnements scientifiques et techniques. La compréhension des systèmes suppose l’accès à leur « secret de fabrication ». Des formes de travail en commun des enseignants, de travail et d’usages coopératifs supposent des modalités de droit d’auteur facilitant l’échange et la mutualisation des documents qu’ils produisent. Du côté des usages éducatifs des TIC, on retrouve l’approche du libre, notamment ses licences GPL ou Creative Commons.

Il faut cependant ajouter qu’informer sur le libre, dans un esprit de diversité scientifique et technologique, ne fut pas toujours un « long fleuve tranquille ». Dans l’éducation comme ailleurs, il y a une pluralité de points de vue. Mais les choses sont entendues, depuis un certain temps déjà : le libre est sans conteste une composante à part entière et de premier plan de l’informatique pédagogique.


Peux-tu nous rappeler le contexte institutionnel ?

Créé en 2002, regroupant aujourd’hui vingt-trois CRDP, le pôle de compétences logiciels libres du SCÉRÉN est à la fois une structure de réflexion et d’action. Il a pris le relais de la Mission veille technologique à qui la direction générale du CNDP avait confié, dès 1999, le pilotage du « chantier » des logiciels libres, dans le contexte institutionnel éducatif défini, en octobre 1998, par un accord-cadre signé entre le Ministère de l’Éducation nationale et l’AFUL. Cet accord, régulièrement reconduit depuis lors, indiquait qu’il y a pour les établissements scolaires, du côté des logiciels libres, des solutions alternatives de qualité et à très moindre coût aux logiciels propriétaires, dans une perspective de pluralisme technologique. Et depuis plus de dix ans, les différents directeurs généraux qui se sont succédé à la tête du CNDP ont accordé une attention particulière au dossier des logiciels libres.


Quel est l’accueil du côté des collectivités locales ?

Bon également. Il y a des enjeux financiers, la question étant moins celle de la gratuité que celle du caractère « raisonnable » des coûts informatiques. Comme le dit François Elie, président de l’Adullact (Association pour le développement des logiciels libres dans l’administration et les collectivités territoriales), un logiciel est gratuit une fois qu’il a été payé et l’argent public ne doit servir qu’une fois pour payer un logiciel.

Les logiciels libres permettent de réduire d’une manière très significative les dépenses informatiques dans le système éducatif. Les collectivités locales sont de plus en plus sensibles à cet aspect des choses, notamment pour le poste de travail avec la suite bureautique OpenOfice.org. La licence GPL permet aux élèves, et aux enseignants, de retrouver à leur domicile leurs outils informatiques, sans frais supplémentaires et en toute légalité. Concernant les ENT, la région Ile-de-France va déployer une solution libre.


Et les ressources pédagogiques ?

Dans l’éducation, le libre c’est le logiciel mais également (et peut-être surtout) les ressources pédagogiques. Dans ce domaine, le « vaisseau-amiral » est l’association Sésamath[3]. Les lecteurs de Framasoft étant très bien informés des multiples activités de cette association remarquable, nous rappellerons qu’elle a eu un Prix de l’UNESCO en 2007 et qu’elle édite (en partenariat avec un éditeur privé) des manuels scolaires pour le collège qui connaissent un franc succès, et bientôt pour les CPGE (Classes préparatoires aux grandes écoles).


On sait que le numérique et les réseaux ont plongé l’édition scolaire (et l’édition en général) dans une période de turbulences. D’un côté, Sésamath met librement et gratuitement ses réalisations pédagogiques sur la Toile. De l’autre, elle procède à des coéditions, à des prix « raisonnables », de logiciels, de documents d’accompagnement, de produits dérivés sur support papier avec des éditeurs, public (les CRDP de Paris et de Lille) et privé, à partir des ressources mises en ligne sur la Toile. Le succès est au rendez-vous. La question est posée de savoir si ce type de démarche préfigure un nouveau modèle économique de l’édition scolaire, dans lequel la rémunération se fait sur le produit papier, sur le produit dérivé, le produit hybride et par le service rendu.


Des enjeux de société aussi


Oui, comme l’ont montré les vifs débats qui ont accompagné la transposition par le Parlement en 2006 de la directive européenne sur les Droits d’auteur et les droits voisins dans la société de l’information (DADVSI) et plus récemment à propos de la loi Hadopi.

John Sulston, prix Nobel de médecine, évoquant en décembre 2002 dans les colonnes du Monde Diplomatique les risques de privatisation du génome humain, disait que « les données de base doivent être accessibles à tous, pour que chacun puisse les interpréter, les modifier et les transmettre, à l’instar du modèle de l’open source pour les logiciels ». Il existe une transférabilité de l’approche du libre à la réalisation des biens informationnels en général.

La question est donc posée de savoir si le modèle du libre préfigure des évolutions majeures en termes de modèles économiques et de propriété intellectuelle. Le logiciel libre est un « outil conceptuel » pour entrer dans les problématiques de l’économie de l’immatériel et de la connaissance. Incontournable pour le citoyen. Or l’on sait que l’une des trois missions de l’Ecole est de former le citoyen !

En guise de conclusion

Je voudrais profiter de cet interview pour remercier l’association Framasoft pour la place qu’elle occupe dans le paysage éducatif et culturel, et le rôle qu’elle y joue, la qualité de sa réflexion, son attachement au bien commun et au pluralisme.

Et puis, rendez-vous au salon Educatice. Pré-enregistrement sur le site d’Educatec-Educatice avec demande de badge d’accès gratuit.

Notes

[1] Crédit photo : Styeb (Creative Commons By-Sa)

[2] Signalons que Jean-Pierre Archambault, cette fois-ci avec sa casquette de président de l’EPI, animera également une table ronde, le vendredi 20 novembre de 11h15 à 12h45, « Un enseignement de l’informatique au lycée », avec Gérard Berry, Professeur au Collège de France, membre de l’Académie des Sciences, Gilles Dowek, Professeur d’informatique à l’École Polytechnique et Pierre Michalak, IA-IPR de l’Académie de Versailles. Thème souvent évoqué dans le Framablog.

[3] Remarque : Sésamath sera non seulement présent à Educatice mais également au Salon de l’Éducation, stand CE40.




Enseigner et apprendre l’informatique sans ordinateur

Computer Science UnpluggedLe Framablog se fait volontiers le relai de ceux qui, comme Jean-Pierre Archambault (de l’EPI), souhaient une présence renforcée et assumée de l’informatique à l’école française.

En témoignent ces trois articles mis en ligne : Ouvrons le débat de l’informatique à l’école, L’informatique doit-elle rester un simple outil à l’école ? et, plus récemment, Fracture et solidarité numériques.

Voilà pour la théorie.

Pour ce qui concerne la pratique, c’est-à-dire ce que pourrait être concrètement aujourd’hui un enseignement et un apprentissage de l’informatique en tant que discipline à part entière, c’est encore chez nous en discussion et en débat.

Mais nul doute que le livre (sous licence Creative Commons By-Nc-Nd) Computer Science Unplugged, que vient de traduire l’équipe Intertices[1] et que nous présente ci-dessous Roberto Di Cosmo, sera en bonne place dans la bibliothèque des ressources de référence.

En tordant le coup au passage à deux idées reçues : on peut s’initier et faire de l’informatique sans ordinateur et ce dès le plus jeune âge[2].

Enseigner et apprendre les sciences informatiques à l’école

URL d’origine du document

Roberto Di Cosmo – 9 octobre 2009 – Interstices

Computer Science UnpluggedLes TIC, Technologies de l’Information et de la Communication, ont pris une telle importance dans la société d’aujourd’hui, que le simple fait de priver un de nos concitoyens d’un accès à Internet reviendrait à en faire un citoyen de deuxième classe : on en a besoin pour communiquer, travailler, échanger avec les administrations publiques et les entreprises privées, vendre, acheter, se divertir, s’informer et informer les autres.

Mais ces technologies en évolution rapide changent aussi profondément notre rapport au monde du travail, aux loisirs et à la sphère politique, au point qu’il devient aujourd’hui indispensable de fournir à tous nos concitoyens les notions fondamentales nécessaires pour se constituer un modèle mental correct de ce qu’est l’informatique.

Il ne suffit plus de savoir se servir d’une souris (ce à quoi peut suffire le Brevet Informatique et Internet) : il faut comprendre et maîtriser la véritable mutation sociétale induite par la dématérialisation de l’information, la mise en réseau des connaissances et l’augmentation massive de la puissance de calcul disponible ; cela exige des capacités de traitement et d’analyse conceptuelle de l’information qui ne se font pas sans une bonne familiarité avec ce que l’on appelle, dans certains cercles, la « pensée informatique » (Computational Thinking en anglais).

Computer Science UnpluggedIl est devenu indispensable d’introduire les sciences informatiques de façon généralisée dans l’enseignement primaire et secondaire : c’est une lourde tâche qui devrait commencer par la reconnaissance de l’importance de la discipline, qui ne se résume pas à l’apprentissage de ses épiphénomènes technologiques, passer par la définition d’un programme d’études et se poursuivre par la formation des maîtres, mais cela demandera du temps, alors que le besoin est pressant.

En tant qu’enseignants et/ou chercheurs en informatique, nombre d’entre nous ressentent la nécessité d’y contribuer sans plus attendre : des collègues néozélandais, Tim Bell, Ian H. Witten et Mike Fellows, ont mis en place il y a quelques années un programme d’enseignement des fondements de l’informatique, Computer Science Unplugged, avec le parti pris de transmettre quelques notions de base de façon ludique, et sans aucun recours à l’ordinateur. Ils ont réussi à montrer comment, si on peut passer des heures à cliquer sur une souris sans rien apprendre d’informatique, on peut aussi apprendre beaucoup d’informatique sans toucher une souris.

Computer Science UnpluggedGrâce aux efforts coordonnés par l’équipe d’Interstices, avec le concours de Anne Berry, Paul Gibson, Isabelle Souveton, et de l’association EPI, ces ressources sont enfin disponibles dans la langue de Molière, pour le plus grand plaisir de tous ceux qui désirent faire partager largement aux jeunes générations leur passion pour cette science magnifique qu’est l’informatique. Jouons à découvrir ensemble la puissance magique de la représentation de l’information, des algorithmes et des langages de programmation.

Mais assez de théorie, c’est le moment de passer à la pratique : téléchargez le document (en PDF, 14 Mo), choisissez votre première activité, et faites-la partager aussi largement que possible !

Notes

[1] Interstices est un site de culture scientifique créé par des chercheurs, lancé à l’initiative de l’INRIA, en partenariat avec le CNRS, les Universités et l’ASTI.

[2] Les trois images proviennent du site Computer Science Unplugged et illustrent le contrôle d’erreurs appelé bit de parité.




Fracture et solidarité numériques, par Jean-Pierre Archambault

Ferdinand Reus - CC by-saRien de tel pour aborder la rentrée scolaire qu’un excellent article de synthèse de notre ami Jean-Pierre Archambault qui réunit ici deux de ses sujets favoris : le logiciel libre et la place de l’informatique à l’école.

Il est intéressant de noter que l’auteur a associé dans le titre les termes « fracture » et « solidarité », sachant bien que le logiciel, les contenus et les formats libres et ouverts apportent non seulement une réponse au premier mais développent et favorisent le second[1].

Un article un peu long pour un format blog mais qui vaut le coup ! Pour vous donner un ordre d’idée il correspond à deux cents messages Twitter que l’on parcourerait en enfilade 😉

Fracture et solidarité numériques

URL d’origine du document

Jean-Pierre Archambault – septembre 2009 – Association EPI
Licence Creative Commons By-Nd


Le thème de la fracture numérique est solidement installé dans le paysage des débats sociétaux. La nécessité de la réduire prend des allures de consensus : acceptons-en l’augure. Une raison de fond à cela : la place sans cesse croissante de l’informatique dans tous les secteurs de la société, et les enjeux qui y correspondent. La fracture numérique ce sont les inégalités d’accès aux réseaux, aux contenus entre le Nord et le Sud, ainsi qu’au sein des pays développés. Ce sont aussi les inégalités en terme de maîtrise conceptuelle du numérique. Nous examinerons ces problématiques. Le libre, désormais composante à part entière de l’industrie informatique, a permis de constituer au plan mondial un bien commun informatique, accessible à tous. Nous verrons donc pourquoi il est intrinsèquement lié à la lutte contre la fracture numérique, et donc à la solidarité numérique, avec son approche, transposable pour une part à la production des autres biens informationnels, ses réponses en matière de droit d’auteur. Comme le sont également les formats et les standards ouverts. Et nous rappellerons que dans la société de la connaissance, la « matière grise » et l’éducation jouent, on le sait, un rôle décisif.

Le numérique partout

Le numérique est partout, dans la vie de tous les jours, au domicile de chacun, avec l’ordinateur personnel et l’accès à Internet ; dans l’entreprise où des systèmes de contrôle informatisés font fonctionner les processus industriels. Ses métiers, et ceux des télécommunications, occupent une place importante dans les services. On ne compte plus les objets matériels qui sont remplis de puces électroniques. Il y a relativement, et en valeur absolue, de plus en plus de biens informationnels. C’est l’informatique, pour ne prendre que ces exemples, qui a récemment fait faire de très spectaculaires progrès à l’imagerie médicale et qui permet ceux de la génétique. Elle modifie progressivement, et de manière irréversible, notre manière de poser et de résoudre les questions dans quasiment toutes les sciences expérimentales ou théoriques qui ne peuvent se concevoir aujourd’hui sans ordinateurs et réseaux. Elle change la manière dont nous voyons le monde et dont nous nous voyons nous-mêmes. L’informatique s’invite aussi au Parlement, ainsi on s’en souvient, en 2006, pour la transposition de la directive européenne sur les Droits d’auteur et les droits voisins dans la société de l’information (DADVSI), suscitant des débats complexes où exercice de la citoyenneté rimait avec technicité et culture scientifique. Et plus récemment avec la « loi Hadopi ».

La fracture numérique

On imagine sans peine que pareille omniprésence de l’informatique signifie des enjeux forts, économiques notamment. Que tous ne soient pas sur un pied d’égalité, loin s’en faut, face aux profondes mutations que le numérique engendre ne saurait a priori surprendre. Cela vaut, à plus ou moins grande échelle, pour tous les pays. Il y a beaucoup de fractures : sanitaires, alimentaires… Culturelles aussi. Ainsi concernant la maîtrise de sa langue maternelle. Ainsi la fracture mathématique, qui serait bien plus grave encore s’il n’y avait pas un enseignement de culture générale mathématique tout au long de la scolarité. Si l’interrogation sur « la poule et l’oeuf » est éternelle, on peut penser qu’« il est certain que la fracture numérique résulte des fractures sociales produites par les inégalités sur les plans économique, politique, social, culturel, entre les hommes et les femmes, les générations, les zones géographiques, etc. »[2].

Un problème d’accès

La fracture numérique tend à être perçue, d’abord et surtout, comme un problème d’accès : les recherches sur Internet avec son moteur préféré ne laissent aucun doute à ce sujet. Il y a ceux pour qui il est possible, facile de disposer d’ordinateurs connectés au réseau mondial, et les autres. C’est vrai pour le monde en général, et la France en particulier. En juin 2008, présentant « ordi 2.0 », plan anti-fracture numérique, Éric Besson rappelait qu’« être privé d’ordinateur aujourd’hui pour les publics fragiles, c’est être privé d’accès à l’information, à la culture, à l’éducation, aux services publics, donc être exposé à un risque accru de marginalisation ». Un premier volet de son plan, qui confirmait la possibilité prévue par la loi de finances 2008, permettait aux entreprises de donner leurs ordinateurs inutiles, mais en état de marche, à leurs salariés, sans charges sociales ni fiscales. Un deuxième volet visait à favoriser la création d’une filière nationale de reconditionnement, de redistribution et de retraitement des ordinateurs, ainsi que la mise en place d’un « label de confiance », garantissant un matériel en état de fonctionnement et vendu à très bas prix.

La fracture numérique a une dimension géographique. De ce point de vue, la question de l’accès égal aux réseaux est primordiale. Une politique d’aménagement du territoire ne peut que s’en préoccuper. Avec l’objectif de « démocratiser le numérique en accélérant le déploiement des infrastructures », la décision 49 du Rapport de la Commission pour la libération de la croissance française, sous la présidence de Jacques Attali[3], consistait en la « garantie d’une couverture numérique optimale en 2011 ». La décision 51, « faciliter l’accès de tous au réseau numérique » correspondait à l’objectif de réduire les fractures numériques, dont il était dit qu’« elles recouvrent la fracture sociale ». Elle proposait d’« accélérer le taux d’équipement en ordinateurs dans les foyers et TPE/PME avec un objectif d’équipement de 85 % en 2012, au moyen notamment de donations des PC usagés, de soutiens spécifiques aux étudiants, et microcrédit social ».

Pour le World Wide Web consortium qui, le 28 mai 2008, lançait un groupe d’intérêt web mobile pour le développement social (MW4D), « les technologies mobiles peuvent ouvrir aux plus pauvres des accès à des services d’informations essentiels comme les soins de santé, l’éducation, les services administratifs »[4].

L’accès à Internet, un bien commun

Le problème de l’accès est bien réel. De l’accès à Internet, tel qu’il a été créé et a fonctionné jusqu’à maintenant, et qu’il faut préserver. En effet, Internet est, en lui-même, un bien commun accessible à tous, une ressource sur laquelle n’importe quel usager a des droits, sans avoir à obtenir de permission de qui que ce soit. Son architecture est neutre et ouverte. Le « réseau des réseaux » constitue un point d’appui solide dans la lutte contre la fracture numérique[5].

Internet repose sur des standards ouverts de formats de données (HTML pour écrire des pages web) et de protocoles de communication (TCP/IP, HTTP). Il fonctionne à base de logiciels libres : Apache, SendMail, Linux… Il est donc impossible de verrouiller le réseau par la pratique du secret. Les logiciels libres contribuent à construire une plate-forme neutre. Ils la protègent par des licences comme la GPL et la diffusion du code source, garantissant aux développeurs qu’elle le restera dans l’avenir.

Les logiciels et les contenus numériques

Si l’accent est mis, à juste titre, sur la nécessité de disposer d’un ordinateur pour accéder au monde du numérique[6], les discours sont en général plus « discrets » sur le système d’exploitation. Or, sans système d’exploitation, que les acheteurs ont encore trop souvent l’impression de ne pas payer même lorsqu’il est « propriétaire », pas de machine qui fonctionne.

La fracture numérique, c’est aussi les inégalités d’accès aux logiciels et aux contenus, les régimes de propriété intellectuelle qui entravent leur circulation, leur production. Il y a désormais deux informatiques qui coexistent : libre et propriétaire. Des contenus numériques sous copyright mais aussi sous licences Creative Commons. Ces approches diffèrent sensiblement, sont quasiment antinomiques. Le débat sur leurs « mérites » respectifs, et les choix à opérer, se situe de plain-pied dans la problématique de la fracture numérique. Il peut arriver qu’il en soit absent, les deux « protagonistes » n’étant pas explicitement nommés. Cela étant, la Conférence « Repenser la fracture numérique » de l’Association for Learning Technology, dans une vision multidimensionnelle de la fracture numérique, posait la question « Open or proprietary ? »[7]. Une question qui mérite effectivement d’être posée.

Ce fut le cas à l’Université d’été de Tunisie qui s’est déroulée à Hammamet, du 25 au 28 août 2008[8]. Organisée par le Fonds Mondial de Solidarité Numérique (FSN)[9] et par l’Association pour le Développement de l’Éducation en Afrique (ADEA), elle était consacrée au thème de « La solidarité numérique au service de l’enseignement ». À son programme figuraient notamment les usages du TBI (Tableau blanc interactif), la création de ressources pédagogiques par les enseignants « auto-producteurs » et le rôle des communautés d’enseignants, les problématiques de droits d’auteur. Un atelier, qui portait sur les ressources pédagogiques des disciplines scientifiques et techniques des lycées, a fait différentes propositions dont l’une essentielle aux yeux de ses participants, qui affirme que les logiciels et les ressources pédagogiques utilisés et produits doivent être libres. Les standards et les formats de données doivent être ouverts[10]. Trois raisons ont motivé cette proposition : les coûts, le caractère opérationnel de la production collaborative de contenus pédagogiques, et le fait que les modalités de réalisation et les réponses du libre en terme de propriété intellectuelle sont en phase avec la philosophie générale d’un projet de solidarité numérique, à savoir partage, coopération, échange.

Le projet RELI@, « Ressources en ligne pour institutrices africaines », est destiné à améliorer la qualité de l’enseignement dans les pays du Sud par l’utilisation des outils et contenus numériques. Il repose sur des logiciels et ressources libres. Il a tenu son premier atelier à Dakar, du 22 au 24 octobre 2008[11]. Un « Appel de Dakar » a été lancé pour la production panafricaine de ressources pédagogiques numériques libres.

L’Unesco prime le libre

En 2007, l’association Sésamath[12] a reçu le 3e prix UNESCO (sur 68 projets) sur l’usage des TICE[13]. Pour le jury, Sésamath est « un programme complet d’enseignement des mathématiques conçu par des spécialistes, des concepteurs et près de 300 professeurs de mathématiques ». Il a été récompensé « pour la qualité de ses supports pédagogiques et pour sa capacité démontrée à toucher un large public d’apprenants et d’enseignants ».

« Remerciant particulièrement la commission française pour l’UNESCO qui a soutenu officiellement sa candidature », l’association Sésamath a vu dans l’obtention de ce prix « l’ouverture d’une nouvelle ère pour son action, vers l’internationalisation et plus particulièrement encore vers l’aide au développement ». Elle a ajouté : « Que pourrait-il y avoir de plus gratifiant pour des professeurs de Mathématiques que de voir leurs productions coopératives libres (logiciels, manuels…) utilisées par le plus grand nombre et en particulier par les populations les plus défavorisées ? C’est vrai dans toute la Francophonie… mais de nombreuses pistes de traductions commencent aussi à voir le jour. »[14]

Les deux lauréats 2007 étaient le Consortium Claroline[15] et Curriki[16]. Claroline, représenté par l’Université Catholique de Louvain, en Belgique, fournit à quelque 900 établissements répartis dans 84 pays une plate-forme « open source », sous licence GPL, en 35 langues. Claroline offre une série d’outils pédagogiques interactifs et centrés sur l’apprenant. C’est un modèle de réseau et de communauté qui met en relation des apprenants, des enseignants et des développeurs du monde entier. Créée en 2004 par Sun Microsystems, Curriki est une communauté mondiale qui se consacre à l’éducation et à la formation. Elle a désormais le statut d’organisme à but non lucratif. Elle fournit un portail Internet, un ensemble d’outils et de services aux utilisateurs grâce auxquels chacun peut librement concevoir, regrouper, évaluer et enrichir les meilleurs programmes d’enseignement, ce qui permet de répondre aux besoins de toutes les classes d’âge et de toutes les disciplines. Curriki a ainsi créé une communauté très vivante composée d’enseignants, d’apprenants, de ministères de l’Éducation, d’établissements scolaires et d’organisations publiques et privées.

L’UNESCO a ainsi mis à l’honneur des démarches éducatives fondées sur le libre, logiciels et ressources.

Parmi les avantages du libre

Parmi les avantages du libre, bien connus, il y a des coûts nettement moins importants. Si libre ne signifie pas gratuit, on peut toujours se procurer une version gratuite d’un logiciel libre, notamment en le téléchargeant. Une fantastique perspective quand, organisée au niveau d’un pays, la diffusion d’un logiciel libre permet de le fournir gratuitement à tous, avec seulement des coûts de « logistique » pour la collectivité mais une économie de licences d’utilisation à n’en plus finir.

Partage-production collaborative-coopération sont des maîtres mots de la solidarité numérique qui supposent des modalités de propriété intellectuelle qui, non seulement, favorisent la circulation des ressources numériques et les contributions des uns et des autres mais, tout simplement l’autorisent. La réponse est du côté de la GPL et des Creative Commons.

L’on sait la profonde affinité entre libre et standards et formats ouverts. Or, par exemple, les documents produits par un traitement de texte lambda doivent pouvoir être lus par un traitement de texte bêta, et réciproquement. La coopération et l’échange sont à ce prix. Il s’agit là d’une question fondamentale de l’informatique et de la fracture numérique. Tout citoyen du monde doit pouvoir avoir accès à ses données, indépendamment du matériel et du logiciel qu’il utilise. De plus en plus de biens informationnels ont une version numérisée. L’enjeu est d’accéder au patrimoine culturel de l’humanité, de participer à sa production, d’être un acteur à part entière du partage et de la coopération.

Avec le libre, chaque communauté peut prendre en main la localisation/culturisation qui la concerne, connaissant ses propres besoins et ses propres codes culturels mieux que quiconque. Il y a donc, outre une plus grande liberté et un moindre impact des retours économiques, une plus grande efficacité dans le processus, en jouant sur la flexibilité naturelle des créations immatérielles pour les adapter à ses besoins et à son génie propre. C’est aussi plus généralement ce que permettent les « contenus libres », c’est-à-dire les ressources intellectuelles – artistiques, éducatives, techniques ou scientifiques – laissées par leurs créateurs en usage libre pour tous. Logiciels et contenus libres promeuvent, dans un cadre naturel de coopération entre égaux, l’indépendance et la diversité culturelle, l’intégration sans l’aliénation.

Les logiciels (et les ressources) libres, composante à part entière de l’industrie informatique, ne peuvent qu’avoir une place de choix dans la lutte contre la fracture numérique. Sans pour autant verser dans l’angélisme. Entre les grands groupes d’acteurs du libre (communautés de développeurs, entreprises, clients comme les collectivités), dont les motivations et ressorts sont divers, il existe des conflits et des contradictions. Des dérives sont possibles, comme des formes de travail gratuit. Mais au-delà des volontés des individus, il y a la logique profonde d’une façon efficace de produire des contenus de qualité[17].

L’accès à la culture informatique

Dans un texte de l’UNESCO, TIC dans l’éducation[18], il est dit que « l’utilisation des TIC dans et pour l’éducation est vue maintenant dans le monde entier comme une nécessité et une opportunité. ». Les grandes questions sur lesquelles l’UNESCO se concentre en tant « qu’expert et conseiller impartial » sont : « Comment peut-on employer les TIC pour accélérer le progrès vers l’éducation pour tous et durant toute la vie ? (…) En second lieu, les TIC, comme tous les outils, doivent être considérées en tant que telles, et être employées et adaptées pour servir des buts éducatifs. » Elle revendique que « l’initiation à l’informatique soit reconnue comme une compétence élémentaire dans les systèmes d’enseignement »[19].

Le numérique, ce sont des outils conceptuels, des abstractions, une discipline scientifique et technique en tant que telle. Au service des autres disciplines, comme le sont les mathématiques. L’ordinateur est une prothèse du cerveau, dont on se sert d’autant plus intelligemment qu’on en connaît l’« intelligence »[20]. La fracture numérique ne serait-elle pas aussi (d’abord ?) une fracture culturelle, qui ne concerne pas que le Sud ? D’ailleurs, ne parle-t-on pas fréquemment de l’« accès » à la culture ?

« L’utilisation d’un outil, si fréquente et diversifiée soit-elle, ne porte pas en elle-même les éléments qui permettent d’éclairer sa propre pratique. »[21] « Comment en effet procéder à une recherche d’information efficace lorsque l’on n’a aucune connaissance du mode de fonctionnement de l’instrument utilisé ? »[22] Or, une enquête menée auprès de 640 000 utilisateurs de l’internet en France en 2001 avait montré que 87 % d’entre eux ne savaient pas se servir d’un moteur de recherche[23]. « Depuis que "l’homo faber" fabrique des outils et s’en sert, une bonne intelligence de l’outil est considérée comme nécessaire pour une bonne utilisation, efficace, précise et raisonnée : plus on en sait quant aux possibilités de réglage et aux conditions d’utilisation mieux cela vaut, partout. Il n’y aurait que l’informatique qui échapperait à cette règle et où l’ignorance serait un avantage ! »[24].

Partout dans le monde, lutter véritablement contre la fracture numérique suppose de donner à tous les élèves les fondamentaux scientifiques du domaine[25]. L’objectif est la maîtrise de ces instruments intellectuels d’un type nouveau. Elle n’est pas vraiment aisée et nécessite des années d’apprentissage (pour un individu il faut environ 20 ans pour maîtriser l’ensemble des instruments et méthodes liés à l’exercice d’une pensée rationnelle). On voit mal comment la diffusion d’objets matériels permettrait en elle-même de raccourcir les délais d’apprentissage, comment on entrerait dans le monde du numérique, abstrait et conceptuel, sans en faire un objet d’étude.

À l’appui de cette nécessité d’enseignement en tant que tel, le fait que la fracture numérique peut se loger là où on ne l’attend pas. Ainsi pointe-t-on une fracture numérique qui émerge, non plus entre les particuliers, mais entre les entreprises, notamment les plus petites et les plus grandes[26]. D’un côté « les mieux loties, accompagnées d’une armée de consultants ou naturellement aguerries à ces sujets ». De l’autre « des centaines de milliers d’entreprises qui souhaitent ardemment tirer profit, dès maintenant, des outils à disposition mais qui butent sur la complexité technologique, les tarifications inadaptées, les offres sur ou sous dimensionnées sans parler des compétences inaccessibles et en voie de raréfaction ». En fait, on voit aujourd’hui émerger « une nouvelle e-aristocratie qui va à l’encontre de la promesse de démocratisation des bénéfices économiques des NTIC (productivité, économie, accessibilité) ».

Dans leur rapport sur l’économie de l’immatériel[27], Maurice Lévy et Jean-Pierre Jouyet soulignent que, dans l’économie de l’immatériel, « l’incapacité à maîtriser les TIC constituera (…) une nouvelle forme d’illettrisme, aussi dommageable que le fait de ne pas savoir lire et écrire ». Ils mettent en évidence les obstacles qui freinent l’adaptation de notre pays à l’économie de l’immatériel, notamment « notre manière de penser », invitant à changer un certain nombre de « nos réflexes collectifs fondés sur une économie essentiellement industrielle ».

La lutte contre la fracture numérique a bien d’abord une dimension éminemment culturelle. Il s’agit d’un enjeu éducatif majeur, de culture générale scientifique et technique pour tous. D’un défi aussi dont les réponses pour le relever se trouvent d’évidence dans les systèmes éducatifs, dont c’est une des raisons d’être.

Jean-Pierre Archambault
Chargé de mission au CNDP-CRDP de Paris

Notes

[1] Crédit photo : Ferdinand Reus (Creative Commons By-Sa)

[2] Les politiques de tous les bords, beaucoup d’institutions (Banque Mondiale et le G8, l’Union Européenne, l’UNESCO…) s’emparent de la problématique de la fracture numérique, avec l’objectif affirmé de la résorber. D’autres s’en inquiètent : « Dejà, le fait qu’une telle notion fasse l’objet d’un consensus aussi large, au sein de groupes sociaux qui s’opposent les uns aux autres, donne à penser qu’elle est scientifiquement fragile. ». Voir La fracture numérique existe-t-elle ?, Éric Guichard, INRIA – ENS.

[3] http://www.liberationdelacroissance.fr/files…

[4] http://www.sophianet.com/wtm_article47688.fr.htm

[5] On pourra se référer aux études de Yochai Benkler reprises par Lawrence Lessig dans son remarquable ouvrage L’avenir des idées, Presses universitaires de Lyon, 2005. Voir « Innover ou protéger ? un cyber-dilemme », Jean-Pierre Archambault, Médialog n°58.

[6] Mais, à trop privilégier dans le discours le nécessaire équipement de tous, il y a le risque de donner à croire que les intérêts des constructeurs ne sont pas loin, en arrière plan de la « noble » lutte contre la fracture numérique.

[7] http://thot.cursus.edu/rubrique.asp?no=27124

[8] http://www.tunisiait.com/article.php?article=2912

[9] ttp://www.dsf-fsn.org/cms/component/option…

[10] http://repta.net/repta/telechargements/Universite_Tunisie…

[11] Premier atelier RELI@ à Dakar : Appel de DAKAR pour la production panafricaine de ressources pédagogiques numériques libres.

[12] http://sesamath.net

[13] http://portal.unesco.org/fr…

[14] http://www.sesamath.net/blog…

[15] http://www.claroline.net/index.php?lang=fr

[16] http://www.curriki.org/xwiki/bin/view/Main/WebHome

[17] L’économie du logiciel libre, François Élie, Eyrolles, 2008.

[18] http://portal.unesco.org/ci/fr/ev.php-URL_ID=2929…

[19] http://portal.unesco.org/ci/fr/ev.php-URL_ID=4347…

[20] « Informatique et TIC : une vraie discipline ? », Jean-Pierre Archambault, Médialog n° 62,

[21] Ordinateur et système éducatif : quelques questions, in Utilisations de l’ordinateur dans l’enseignement secondaire, Jean-Michel Bérard, Inspecteur général de l’Éducation nationale, Hachette Éducation, 1993.

[22] « La nature du B2i lui permet-elle d’atteindre ses objectifs ? » Jean-François Cerisier, Les dossiers de l’ingénierie éducative n° 55, septembre 2006.

[23] http://barthes.ens.fr/atelier/theseEG/

[24] « Enseigner l’informatique », Maurice Nivat, membre correspondant de l’Académie des Sciences,

[25] Voir : Le bloc-notes de l’EPI, La formation à l’informatique et aux TIC au lycée / Proposition de programme / Seconde Première Terminale et « Quelle informatique enseigner au lycée ? », Gilles Dowek, professeur d’informatique à l’École Polytechnique, intervention à l’Académie des Sciences du 15 mars 2005.

[26] Une fracture numérique existe aussi entre les entreprises, Vincent Fournoux, Le Journal du Net du 31 juillet 2008.

[27] L’économie de l’immatériel – La croissance de demain, rapport de la commission sur l’économie de l’immatériel remis à Thierry Breton, Maurice Lévy, Jean-Pierre Jouyet, décembre 2006.