CaRMetal : Entretien avec Eric Hakenholz

CaRMetal - Copie d'écranCaRMetal est un excellent logiciel éducatif de géométrie dynamique. CaRMetal est un logiciel libre (sinon d’ailleurs il n’aurait jamais vu le jour puisqu’il est directement issu du code source d’un autre logiciel libre). CaRMetal est développé et maintenu par un professeur de mathématiques français fort expérimenté qui a des choses à dire.

Autant de bonnes raisons de rencontrer Eric Hakenholz pour un entretien témoignage riche et intéressant.

Remarque : Le Framablog poursuit ici sa série de mises en valeur et en lumière de projets éducatifs libres et de ceux qui les portent.

Entretien avec Eric Hakenholz

Eric bonjour, une rapide présentation personnelle ?

Je suis professeur de mathématiques depuis 1989. J’ai passé mes deux premières années d’enseignement dans une école française installée dans un lycée public australien (Melbourne). Grâce à ce poste d’enseignant, j’ai eu la chance de pouvoir travailler dès 89 dans un environnement très informatisé et d’être témoin de nombreuses pratiques pédagogiques liées à l’utilisation du réseau (les nombreux Mac Plus de l’établissement étaient tous interconnectés). J’ai programmé là-bas mon premier logiciel Mac : un traceur de courbes et de surfaces, dont l’interface paraîtrait aujourd’hui bien désuète.

J’ai passé ensuite douze années dans l’académie de la Réunion, où j’ai « milité » pour l’utilisation du logiciel Cabri-Géomètre par le biais de formations et de publications (sites, journal bimestriel abraCAdaBRI, développement de l’utilitaire Cabri File Exchange). En 2004, en arrivant dans l’académie de Toulouse, j’ai cherché s’il existait un autre logiciel de géométrie dynamique, libre et gratuit cette fois-ci, qui puisse rivaliser avec la puissance et la pertinence de Cabri : j’ai découvert cette année-là le logiciel C.a.R. (Compass and Ruler).

Qu’est-ce que le logiciel CaRMetal ?

C’est un logiciel de géométrie dynamique, un environnement qui permet notamment d’explorer de manière interactive les propriétés géométriques des figures. Dans ce type de logiciel, les utilisateurs peuvent effectuer des constructions géométriques et déplacer les objets sur lesquels se basent la construction.

Pendant ces déplacements les propriétés sont conservées, et de nombreuses constatations peuvent surgir à ce moment-là : le simple mouvement des figures permet de mettre en évidence de nombreuses propriétés géométriques qui seraient passées inaperçues dans un environnement papier-crayon.

CaRMetal - Copie d'écran

Lorsque j’ai découvert le logiciel C.a.R. de René Grothmann en 2004, je me suis aperçu qu’il contenait de nombreuses fonctionnalités très originales, avec une gestion très pointue des macro-constructions (possibilité de se créer des outils à partir de ceux déjà existants). Cependant, malgré tout l’émerveillement que me procurait la découverte des possibilités de C.a.R., je gardais un oeil assez critique sur la façon d’accéder aux fonctionnalités, sur l’interface utilisateur.

CaRMetal au départ (février 2006) était juste un « TP » motivé par mon envie d’apprendre le langage java. Mes années de programmation en Pascal et en C m’ont amené petit à petit à vouloir changer pour un langage objet multi-plateforme, sur un code qui puisse être exécuté aussi bien sur GNU/Linux, Macintosh ou Windows. Les sources du logiciel C.a.R., écrits en Java par un programmeur clair, rigoureux et doué, ont rempli à merveille leur rôle de tuteur pendant mes deux premiers mois d’apprentissage. Le but que je m’étais fixé au départ était de reprendre les algorithmes mathématiques de C.a.R. et de les installer dans une interface neuve, intuitive, et toute en manipulation directe. Les choses sont allées plus vite que je ne le pensais, et les premiers résultats m’ont encouragé à changer d’optique : ce qui n’était qu’un TP est rapidement devenu un vrai projet, que j’ai décidé de publier sur Internet et de mettre à jour régulièrement.

On développe aujourd’hui des interfaces avec le soucis de donner une réponse immédiate à l’action de l’utilisateur : on s’aperçoit qu’il est presque toujours possible, avec des efforts de programmation supplémentaires, de supprimer toute situation bloquante (comme un dialogue avec boutons ok ou appliquer) ou toute situation qui ralentirait l’action (comme l’obligation systématique de dérouler un menu et de chercher l’item). Développée dans ce sens, avec le soucis d’une organisation claire et rationnelle des outils, une interface graphique permet de travailler d’une façon beaucoup plus fluide, avec un gain de temps très sensible, et une impression de liberté pour l’utilisateur qui s’en trouve nettement améliorée.

C’est avec l’objectif de produire un logiciel qui réponde un peu à ces critères que j’ai programmé CaRMetal : les seules boîtes à dialogues qui existent sont celles relatives à l’enregistrement et l’ouverture des fichiers. En phase de construction ou d’édition des objets, aucun menu n’est à dérouler, l’accès aux fonctionnalités est sans étape intermédiaire et les modifications apportées à l’aspect des objets sont visibles immédiatement dans la fenêtre de travail.

Jusqu’en décembre 2007, je suivais de très près l’évolution du logiciel C.a.R. en incluant dans CaRMetal, version après version, les modifications que René apportait à son « moteur mathématique ». Mais à partir de cette date j’ai souhaité mettre la main sous le capot algorithmique, ce qui nécessitait l’abandon du copier-coller de C.a.R. vers CaRMetal, et plusieurs dizaines de fonctionnalités qui me tenaient particulièrement à coeur ont ainsi pu voir le jour.

CaRMetal - Copie d'écran

En quoi se distingue-il des autres logiciels de la catégorie ? Je pense en particulier à Geogebra lui aussi libre et sous Java.

L’interface utilisateur de CaRMetal se distingue de celle des autres logiciels pour toutes les raisons évoquées précédemment. Certains utilisateurs me disent aussi que, pour leurs élèves, les retours vidéos systématiques ainsi que le caractère graphique des palettes et de l’inspecteur rend pratiquement nul le temps de prise en main du logiciel. D’autres, en général des adultes habitués à des logiciels différents, disent que l’absence de menus-boutons classés par types d’objets les perturbent : je laisse donc le soin aux utilisateurs de se faire leur propre opinion !

Bien sûr il y a de nombreuses fonctionnalités originales qui ne se retrouvent que dans CaRMetal, mais dire uniquement ceci serait oublier un peu trop vite que c’est aussi le cas pour d’autres logiciels de géométrie dynamique, comme Geogebra (je pense notamment à sa récente fonctionnalité « tableur » qui ne se retrouve nulle part ailleurs, du moins dans une forme très proche de celle des tableurs).

Comparer les fonctionnalités est un exercice assez subjectif : chacun peut faire son propre tableau avec en ligne le nom des logiciels, en colonne ses propres fonctionnalités, et ainsi faire apparaître une belle et unique ligne entièrement cochée… Je préfère de loin m’intéresser à l’ergonomie et l’expérience utilisateur, mais je vais tout de même essayer de faire une liste non exhaustive de quelques fonctionnalités "exotiques" de CaRMetal :

  • Les diaporamas : CaRMetal peut transformer automatiquement (en un seul clic comme disent les commerciaux) un dossier contenant des figures en un mini site web. En cliquant sur les liens de la page générée, on charge des applets qui correspondent à chacune des figures.
  • Les objets magnétiques : Cela permet notamment de créer un point sur plusieurs objets ou un point tout simplement attiré par un ensemble d’objets, conformément à une zone d’attraction définie en pixels par l’utilisateur.
  • Les contrôles systèmes : on peut inclure dans la figure des curseurs systèmes, des menus déroulants, des boîtes à cocher, des boîtes d’entrées numériques et des boutons poussoir.
  • Le JavaScript : un éditeur graphique permet de créer des scripts utilisant l’intégralité du langage javascript, enrichi de commandes liées à la pratique de la géométrie dynamique. Le logiciel permet de lancer un script et de l’annuler dans une figure.
  • Attribution automatique des noms de points : avec un tableau numérique interactif, il est assez gênant d’avoir à utiliser le clavier. Un dispositif d’attribution de noms permet de sélectionner à la volée et au stylet les noms qu’on veut donner aux objets.
  • Le mode « tableau numérique interactif » (TNI) : un stylet sur un tableau interactif ne se comporte pas tout à fait comme une souris. On perd la notion de mouse over et par conséquent bon nombre d’informations que donne la souris lors du survol d’objets d’intérêts (retours vidéos). Va-t-on par exemple, en cliquant, créer un point à une intersection, ou va-t-on louper sa cible et créer un point libre à côté ? En mode TNI, un cliquer-glisser équivaut à un survol de souris, et un lâché de stylet correspond à un clic de souris. Dans ce mode, sur un tableau interactif, on garde le même confort visuel et la même précision que lorsqu’on construit à la souris.
  • Les exercices : le formateur peut créer une construction-exercice avec comme objectif de faire construire un objet-cible (un orthocentre par exemple). L’élève doit effectuer la construction et s’il la réussit correctement, le message bravo ! apparaît. Dans ce type de figure c’est le logiciel lui-même qui s’assure que le travail a été effectué sans erreur.

CaRMetal dérive du logiciel C.a.R. (Compass and Ruler) développé par un professeur allemand. C’est parce que ce dernier était un logiciel libre que vous avez pu récupérer les sources et le modifier pour l’adapter à vos besoin. Que cela vous inspire-t-il ?

Certains informaticiens qui vivent en free-lance de leurs productions n’ont pas envie de produire des algorithmes ouverts, de peur que ce qu’ils programment ne soit immédiatement repris et vendu par d’autres. De peur finalement que le bénéfice de leurs travaux, pour lesquels ils ont dépensé beaucoup d’énergie et monopolisé beaucoup de connaissances, aillent dans une autre poche que la leur. Même si je ne fais pas partie de ce monde-là, je peux comprendre cette démarche de protection, par fermeture, dans des secteurs pointus dominés par les majors, les requins et la course au profit. Je préfère de très loin cette démarche cohérente à celle de nombreuses boîtes informatiques entièrement habillées chez Microsoft, et qui d’un autre côté ne jurent que par l’open source, en utilisant abondamment ce label dans le seul but de faire du dollars à grands coups de copier-coller. Concernant l’open source, les choses ne sont donc pas si simples et si manichéennes…

C.a.R. est un logiciel libre, et pas seulement open source : il est sous licence GNU-GPL et par conséquent CaRMetal l’est aussi. René Grothmann, le concepteur de C.a.R., a développé son logiciel dans une démarche d’ouverture et de partage : le véritable esprit du libre est-là, dans un comportement plus éthique et moral que purement technique. Reprendre les sources de René, les adapter suivant mes préférences, ajouter de nouvelles fonctionnalités m’a permis de créer un autre logiciel, qui a son tour peut être repris, et amélioré dans le même esprit.

L’idée du libre me fait penser au chanteur folk américain Woody Guthrie, qui, prenant le contre-pied des copyrights déjà en vogue à son époque, écrivait ceci en 1930 dans un recueil de chansons : This song is Copyrighted in U.S., under Seal of Copyright #154085, for a period of 28 years, and anybody caught singin’ it without our permission, will be mighty good friends of ourn, cause we don’t give a dern. Publish it. Write it. Sing it. Swing to it. Yodel it. We wrote it, that’s all we wanted to do.

Rares sont les enseignants développeurs de logiciels libres, êtes-vous reconnu et soutenu par l’Institution ? Est-ce important pour vous ?


N’ayant jamais aimé jouer les commerciaux, je n’ai jamais rien demandé à personne pendant ces quatre années de développement. C’est peut-être la raison pour laquelle je n’ai jamais eu aucun soutien, aucune reconnaissance de la part de ma hiérarchie institutionnelle ici, dans l’académie de Toulouse.

Lorsque je lis par exemple des présentations de CaRMetal comme celle mise en ligne par l’académie de Poitier, cela me fait bien évidemment plaisir, et je ne cacherai pas qu’une petite reconnaissance du travail effectué, par ma hiérarchie toulousaine, me paraîtrait bien sympathique. Développer un logiciel comme celui-ci prend beaucoup de temps, et le temps n’est pas extensible… Pour la petite histoire, en dehors de mes 19h00 de cours hebdomadaire, il m’a été reproché l’an dernier de ne pas avoir voulu m’investir et participer à la vie informatique de mon établissement, comme personne ressource. Si l’absence de reconnaissance de ma hiérarchie locale n’est pour moi qu’un petit regret, ce genre de reproche-là, par contre, fait plutôt du mal.

Hors institution par contre, l’encouragement est très présent, avec des articles récents comme celui publié sur le portail des IREMs (Institut de Recherche sur l’Enseignement des Mathématiques), ou par exemple les travaux réalisés par l’IREM de La Réunion. L’IREM de Toulouse m’a contacté très tôt, en 2007, pour savoir si je voulais intervenir dans ses stages « Enseigner les maths au collège » et c’est avec grand plaisir que j’ai accepté, et que je donne dans ce cadre-là quelques heures de formation par an. Tout ce qui est écrit aussi au sujet de CaRMetal dans le monde du logiciel libre me donne bien sûr l’envie de continuer !

Que pensez-vous du label RIP et de l’initiative SIALLE visant à promouvoir le logiciel libre dans l’éducation ?


Sans même parler des critères d’attribution de ce label RIP (Reconnu d’Intérêt Pédagogique), on peut se demander si les enseignants ont vraiment besoin qu’on leur indique quelles ressources sont intéressantes pour eux, avec comme corollaire possible que les autres ne le sont pas. Une ressource pédagogique n’étant pas tout à fait comparable à un poulet sous cellophane, j’ai toujours été assez réservé sur la nécessité de labelliser quoi que ce soit dans notre métier d’enseignant. Pour bénéficier de ce label, il faut le demander, et ce n’est peut-être pas dans la culture de tous les développeurs libres du monde éducatif. Cependant, je n’irai pas jusqu’à affirmer que c’est pour cela que presque aucun logiciel libre n’est classé RIP !

Je n’ai jamais demandé le label RIP pour CaRMetal, qui ne fait donc pas partie de la liste : on constate par contre que cela convient tout à fait aux sociétés privées de e-learning qui cherchent à se faire estampiller leurs animations flash, et qui, par les temps qui courent, y arrivent plutôt bien.

Je vois par contre d’un tout autre oeil l’initiative SIALLE, qui montre que l’idée du libre fait aussi son chemin dans l’Education Nationale, même si tout cela reste très timide. C’est pour cette raison-là que lorsqu’on m’a contacté il y a deux ans pour faire partie de cette base de logiciels, j’ai donné mon accord immédiatement. Je regrette un peu l’aspect rigide de la base de données, avec des classements par étoiles qui ne sont issus en général que d’un ou deux avis, mais il reste que cette initiative a le mérite d’exister et qu’il faut l’encourager, et faire en sorte qu’elle prenne plus d’importance.

En mathématiques, il y a l’incontournable et très libre association Sésamath. Participez-vous, de près ou de loin, à ses travaux ?

Non, et c’est un de mes grands regrets… J’ai participé il y a trois ans, avec l’équipe de développeurs de mathenpoche, à une réunion qui s’était fixée pour objectif de jeter les bases du Labomep à venir. J’aurai dû continuer à collaborer sur ce projet avec ces collègues sympas et talentueux, mais je suis resté "en solo" sur CaRMetal, en ne traitant que l’infinie liste des choses à faire pour ce logiciel… On n’a qu’une vie et c’est dommage ! Je suis par contre, dans ma pratique pédagogique, un utilisateur très assidu de toutes les productions de cette association : les manuels, les démos, Mathenpoche, Sesaprofs, eBep’s etc.

Sésamath est un formidable ballon d’oxygène au milieu d’un monde de brutes. Je ne prendrai qu’un seul exemple, que je souhaite détailler : celui des manuels numériques. A l’occasion des nouveaux programmes de sixième estampillés « manuels numériques », les enseignants ont reçu en fin d’année dernière de nombreux spécimens, avec du Bordas, du Nathan, du Hachette et du Hatier comme s’il en pleuvait. Rien de très nouveau dans cette avalanche de papier glacé, mise à part la possibilité de vidéo-projeter le manuel. Il n’y a souvent aucune interactivité véritable dans les documents proposés : juste du texte, des images, et l’idée véhiculée qu’avec tout ça, on allait enfin pouvoir se sentir dans le vent.

Les choses se compliquent lorsque l’enseignant veut installer pour lui et pour sa classe les manuels numériques en question :

  • On commence par la case tiroir-caisse avec en moyenne 5,50€ par élève, si on a bien sûr déjà payé les 20€ par élève du manuel papier. Ceux qui souhaitent étudier de près les grilles de tarification des éditeurs, peuvent cliquer ici pour visualiser l’exemple de l’offre de la maison Hachette.
  • On part sur un site portail (KNE) pour télécharger son manuel, avec les codes d’accès achetés par l’établissement.
  • On installe une application nommée delivery (logiciel utilisé pour les ventes de magazines en ligne) qui a pour fonction de télécharger, lire, et cadenasser la ressource par l’utilisation d’un format propriétaire (.dly).

Pour un enseignant donné, le manuel ne s’installe qu’une seule fois, avec à la limite une autre installation possible sur une clé USB. Si cela vous rappelle quelque chose, c’est normal : il s’agit bien de DRMs appliquées à l’Education Nationale. J’allais oublier de signaler que l’installation de ces manuels numériques, quand on y arrive (de nombreux collègues rencontrent de grosses difficultés techniques pendant cette phase), ne peut se faire que sur windows ou mac. Amis linuxiens, bonjour. Les collègues qui ont opté pour le manuel sesamath 6e (mais aussi les autres !) peuvent aller librement sur le site, téléchargent sans code d’accès ce qu’ils veulent, d’où ils veulent, sous format pdf ou OpenOffice.org, le modifient comme ils le souhaitent, utilisent les démos interactives des chapitres, le site Mathenpoche, ainsi que tous les formidables outils produits par cette association.

Sésamath, c’est le choix de la pertinence et de la sérénité, très loin des contraintes, des contorsions techniques et des interdits que veulent nous imposer les marchands du temple par le biais de leurs relais institutionnels.

La situation du logiciel libre à l’école : excellente, bonne, peut mieux faire ?

Peut beaucoup mieux faire bien entendu… J’attends impatiemment que l’institution se mette enfin à étudier sérieusement les alternatives libres, mais avec des exemples récents comme celui des manuels numériques, on peut se dire qu’il y a encore beaucoup de travail à faire de ce côté-là.

Il serait pourtant possible d’imaginer des établissements entièrement équipés de clients linux sur les réseaux pédagogiques : l’offre logicielle, ainsi que la simplicité d’installation et d’utilisation des nouvelles distributions le permettrait dès maintenant. Il manque juste, pour se faire, une évolution des mentalités des acteurs du monde éducatif, et je ne parle pas que de l’institution : beaucoup de collègues, qui ne se sentent pas en confiance avec l’outil informatique, sont encore très attachés au système windows qui leur a été livré en standard avec leur machine. Je peux comprendre cela et je ne critique pas : je pense juste que la situation du logiciel libre à l’école va sûrement évoluer, mais pas aussi rapidement qu’on pourrait le croire…

Que manque-t-il à CarMetal selon vous et quels sont les améliorations que vous aimeriez voir figurer dans les prochaines versions ?

CaRMetal est un logiciel de géométrie plane qui simule assez bien la 3D, mais il lui manque certaines fonctionnalités pour qu’on puisse directement construire et manipuler des objets dans l’espace : c’est sur cette question-là que je travaille en ce moment, et une version qui véritablement 3D devrait voir le jour d’ici décembre.

Une autre amélioration en vue : le multi-fenêtrage de l’application devrait être remplacé, dans un avenir proche, par une navigation par onglets qui permettra un accès plus simple aux figures.

CaRMetal - Copie d'écran




LinuxÉdu, le groupe qui fait bouger le Libre éducatif de Toulouse et sa région

Logo LinuxEdu - ToulouseMon petit doigt me dit que cette année le Framablog va moins se lamenter sur la situation du Libre dans l’éducation nationale française que par le passé.

D’abord parce même au sein du ministère, les mentalités évoluent. Mais aussi parce que nous souhaitons être plus constructifs en mettant l’accent sur les nombreuses et positives actions de terrain (sachant que ces dernières ne bénéficient pas forcément de la même attention médiatique qu’un projet comme l’Académie en ligne par exemple).

Ici, on ne se lamente pas mais on agit. Et ces actions sont autant de petits ruisseaux qui convergent lentement mais sûrement vers une grande rivière, rivère qui finira bien par passer un jour sous les fenêtres du ministère !

Et justement, cela tombe bien, parce qu’avec le dynamique projet LinuxÉdu de Toulouse et sa région, on tient une action des plus intéressantes qui ne demande qu’à « faire jurisprudence ».

Il est en effet rare, voire unique, d’afficher ainsi officiellement (sur un site académique) sa volonté de promouvoir le logiciel libre à l’école, de réussir à pénétrer le monde a priori fermé de la formation continue pour proposer des stages aux titres plus qu’explicites (exemple : « Linux et les logiciels libres pour l’éducation »), et d’organiser d’originales rencontres publiques (comme les rendez-vous « BarCamp TICE libres » qui débutent le 7 octobre prochain) en collaboration étroite avec Toulibre, le GULL du coin (il y a même un cinéma local impliqué, la totale quoi !).

Nous nous devions d’en savoir plus, en partant à la rencontre de l’un des ses principaux acteurs.

PS : Si d’autres académies veulent se manifester dans les commentaires pour évoquer leurs propres initiatives en faveur du Libre à l’école, qu’elles n’hésitent surtout pas.

Entretien avec Rémi Boulle

Rémi Boulle, bonjour, une petite présentation personnelle ?

Rémi BoulleBonjour, dans la vraie vie, je suis père de famille.

Dans le monde du libre, je participe au projet OpenOffice.org Éducation, suis membre du CA d’EducOOo (qui développe OOo4kids), participe au groupe éducation de l’APRIL et bien sûr au groupe LinuxEdu de l’académie de Toulouse.

Quelles fonctions exercez-vous au sein de l’Académie de Toulouse ?

Je suis professeur de maths dans un collège de la proche banlieue toulousaine. J’enseigne depuis une dizaine d’année (déjà !). Je suis membre de l’IREM (groupe maths et Internet) et fais aussi de la formation continue (stages LinuxÉdu, tableur au collège, WIMS).

Qu’est-ce que le groupe LinuxÉdu ? (historique, structures, objectifs, effectifs, champ d’activites, etc.)


Vu la montée en puissance du libre dans nos métiers et la nécessité pour un professeur de pouvoir utiliser, modifier, redistribuer des ressources et ne voyant rien venir du côté de l’institution, nous nous sommes dits que c’était à nous de prendre des initiatives et de proposer.

Avec des collègues (Frédéric Bellissent et Yves Dhenain), nous avons donc proposé un premier stage « Linux et les logiciels libres pour l’éducation ». Celui-ci a eu beaucoup de demandes. L’intérêt des personnels pour le libre et pour linux est bien présent. Le libre est, pour les enseignants, une nécessité professionnelle. Depuis, nous avons lancé un stage « niveau 2 ».

Tout cela nous a beaucoup encouragé. Nous avons donc continué de fédérer au plan académique les professionnels de l’éducation utilisateurs du libre et à intensifier nos actions. La liste de diffusion, deux sites Internet, le canal IRC, le micro-blogging… sont d’ailleurs des outils essentiels pour cela.

La structure du groupe LinuxÉdu ? Ce serait davantage une communauté de pratique informelle plutôt du côté du bazar que de la cathédrale. Nous mutualisons nos connaissances, échangeons, partageons… Le groupe au sens large est formé de 150 à 200 personnes. On y trouve majoritairement des professeurs, certains en charge de la gestion du réseau de leur établissement mais aussi des personnels du rectorat, des membres des AIDAT (assistance informatique pour les réseaux pédagogiques), du CRIA (idem mais pour les réseaux administratifs) et aussi des développeurs ou des gérants de SSLL travaillant dans l’éducation.

Est-ce le premier et (pour le moment) unique groupe faisant explicitement la promotion du logiciel libre au sein d’un site académique ?


J’ai l’impression que oui. J’espère me tromper. Pourtant faire progresser les pratiques sur ce plan est relativement simple à faire et vite très efficace…

Je profite de cette interview pour lancer un appel à l’ensemble des personnels de l’éducation afin que, dans leurs académies :

  • ils créent une liste de diffusion type linuxedu@ac-monacademie.fr (contacter le service académique ad hoc).
  • ils fassent une communication la plus large possible de l’existence de cette liste dans le maximum de réseaux professionnels (listes professionnelles, syndicats, listes internes…) afin d’en augmenter l’effectif.

Il est fondamental dans un premier temps de rassembler les enseignants innovants que sont les utilisateurs du libre dans une liste de diffusion académique. Le reste suivra.

Vous avez donc réussi à investir la formation continue des enseignants en proposant des stages originaux. Pouvez-vous nous en dire plus ?


Dans notre académie, il n’y avait pas de stages fléchés « ressources libres », « Linux » ou « intéropérabilité ». De nos jours, un Plan Académique de Formation (PAF) sans ce type de contenu ne peut, à mon avis, sembler qu’incomplet. Quid alors des parties « veille technologique et pédagogique », « innovations pédagogiques » sans ce volet ?

Si ce n’était pas à nous de combler ce vide, qui l’aurait fait ?

Il faut savoir qu’en théorie n’importe qui peu proposer des stages de formations. Je veux dire par là que ce n’est pas seulement les gros opérateurs de formations comme les IUFM ou les Inspections. Un personnel peut tout à fait proposer un stage… et voir sa proposition validée. C’est la voie que nous avons suivi.

Lorsque notre proposition de stage est arrivée en commission, je sais qu’elle a été bien accueillie. Le groupe LinuxÉdu s’est constitué au fil de ces formations.

Avez-vous rencontré des résistances internes aussi bien pour ce qui concerne la création de LinuxEdu que pour les propositions de stages ? Mais peut-être que le temps d’une certaine méfiance vis-à-vis du logiciel libre est définitivement révolu ?

Selon Héraclite, les chiens aboient contre les inconnus… face à quelque chose que l’on est incapable de comprendre, l’Homme est plus souvent tenté d’attaquer. Ce fût parfois le cas pour le libre et ce fût le plus souvent cocasse. Ce stade est, je pense, révolu.

Le libre est une solution de qualité professionnelle pour nos établissements scolaires. C’est déjà le cas en entreprise. Au delà du logiciel, la licence libre est tout ce qu’il y a de plus compatible avec les missions d’un professeur. Cela ne semble pas faire de doutes. Reste à vraiment franchir le pas.

Nous travaillons beaucoup avec le Centre Régional de Documentation Pédagogique (CRDP) de Midi-Pyrénées. Nous y avons toujours eu un accueil des plus favorables. Ils ont été un partenaire crucial pour les journées TICE libres en 2009.

La Mission aux TICE de notre académie avec qui nous avons de très bons contacts nous a ouvert la liste de diffusion ainsi qu’un hébergement sans difficultés. Elle fait aussi partie de nos partenaires, nous y avons notamment déjà fait une réunion de travail pour notre projet de paquets « linuxedu ».

De quoi s’agit-il ?

Quasiment tous les serveurs des réseaux pédagogiques des établissements sont sous windows, ce n’est pas le cas pour les réseaux administratifs et des serveur web du rectorat qui sont sous Linux.

L’idée est de mettre à disposition des établissements un paquet logiciel pour linux qui automatise l’intégration d’une machine Linux dans le réseau et qui installe aussi toute une sélection de logiciels et ressources pédagogiques.

Ainsi, un élève ou un professeur, qu’il soit sous Linux ou Windows, utilisera le même compte, retrouvera ses propres documents et bénéficiera de la complémentarité des deux univers.

On a tendance à caricaturer le corps enseignant comme un bloc monolithique assez difficile à déplacer. Comment faites-vous pour arriver à convaincre les enseignants de « s’essayer au Libre » ? Abordez-vous le sujet en insistant sur la qualité technique (angle « open source ») ou en mettant plutôt l’accent sur le caractère éthique et social du logiciel libre (angle « free software ») ?


L’accès au code source importe peu à la très grande majorité des enseignants. Ce n’est tout simplement pas notre métier.

L’angle idéal est celui des ressources. Pouvoir récupérer une ressource pédagogique, la modifier, y adjoindre des éléments venant d’ailleurs, la redistribuer à nos élèves, à nos collègues c’est un aspect très important de notre travail. Cela implique d’avoir des formats ouverts, d’utiliser des logiciels librement distribuables, des ressources libres… Le libre est une condition nécessaire d’exercice forte de notre métier. D’ailleurs beaucoup d’enseignants développent des logiciels libres éducatifs.

Le monde propriétaire même s’il a des produits de qualité complique inutilement notre travail, pose des barrières à la transmission des connaissances à nos élèves, à la mutualisation de nos ressources : problèmes de formats qui ne sont pas intéropérables, de logiciels dont la mise à jour n’est pas automatique, dont on impose indirectement l’achat ou la copie illégale à nos élèves, problème de licence des ressources, difficulté d’interagir avec les développeurs… C’est une vision de l’éducation qui contraste quelque peu avec les valeurs de l’école de la République.

Cette découverte s’accompagne-t-elle de réelles migrations chez nos collègues, jusqu’à changer de système d’exploitation ?


On en observe de plus en plus. Dans tous les cas, la curiosité et l’envie sont très vives. Ce BarCamp est aussi destiné à accompagner celles et ceux qui souhaitent migrer.

Quelles sont vos relations avec la très dynamique association TouLibre ?


Excellentes ! Je suis d’ailleurs membre de Toulibre même si je participe plus souvent aux Qjelt. Ils nous ont beaucoup aidé lors de l’organisation de LinuxEdu Pride 2008, des journées TICE libres 2009 ainsi que pour La journée du libre pour l’éducation en partenariat avec les cinémas Utopia. Nous savons que nous pouvons compter sur eux dans le futur.

Le mercredi 7 octobre prochain aura lieu le premier « BarCamp TICE libres » au CRDP Midi-Pyrénées à Toulouse. Pourquoi une telle manifestation et quel en sera le programme ?


L’idée est de permettre aux collègues d’avoir une antenne du libre éducatif à leur disposition, de servir de point relais, de lieu d’innovation technique et pédagogique. Comme nous avons tous des centres d’intérêts variés et que nous voulons tous avancer, l’organisation sous forme de BarCamp s’est imposée.

Selon Wikipédia, Un BarCamp, c’est une rencontre, une non-conférence ouverte qui prend la forme d’ateliers-événements participatifs où le contenu est fourni par les participants qui doivent tous, à un titre ou à un autre, apporter quelque chose au Barcamp.

Tout le monde est invité à participer quelles que soient ses compétences techniques : on peut présenter un logiciel, un exemple d’activité utilisant les TICE, aborder des aspects techniques mais aussi une simple idée…

« BarCamp » c’est pour faire moderne ou bien cela cache une véritable originalité dans l’organisation et le déroulement de l’évènement ?


Un peu les deux j’avoue. J’ai l’impression que les programmes trop définis, trop minutés ont tendance a attirer moins de participants. L’idée de base est que nous avons tous des compétences, des connaissances et que nous souhaitons les donner et en recevoir. Partageons-les !

Outre TouLibre et LinuxÉdu, Toulouse accueille également le président d’Ubuntu-fr (Christophe Sauthier) et la présidente de Wikimedia France (Adrienne Alix). Est-ce un hasard ? Pourquoi Toulouse a-t-elle de telles bonnes dispositions pour le Libre ? Et pourquoi ne pas avoir encore organisé de RMLL ?


Je ne sais pas. Peut-être le confit de canard et le Gaillac ont-ils tendance à libérer ? À vérifier lors des RMLL à Toulouse 😉

Une dernière chose. Est-ce que le service rendu par le réseau Framasoft vous est utile. Et que nous suggéreriez-vous pour l’améliorer ?


Je suis venu au libre par l’approche « free software » et avec l’aide de Framasoft. Surtout continuez !




Fracture et solidarité numériques, par Jean-Pierre Archambault

Ferdinand Reus - CC by-saRien de tel pour aborder la rentrée scolaire qu’un excellent article de synthèse de notre ami Jean-Pierre Archambault qui réunit ici deux de ses sujets favoris : le logiciel libre et la place de l’informatique à l’école.

Il est intéressant de noter que l’auteur a associé dans le titre les termes « fracture » et « solidarité », sachant bien que le logiciel, les contenus et les formats libres et ouverts apportent non seulement une réponse au premier mais développent et favorisent le second[1].

Un article un peu long pour un format blog mais qui vaut le coup ! Pour vous donner un ordre d’idée il correspond à deux cents messages Twitter que l’on parcourerait en enfilade 😉

Fracture et solidarité numériques

URL d’origine du document

Jean-Pierre Archambault – septembre 2009 – Association EPI
Licence Creative Commons By-Nd


Le thème de la fracture numérique est solidement installé dans le paysage des débats sociétaux. La nécessité de la réduire prend des allures de consensus : acceptons-en l’augure. Une raison de fond à cela : la place sans cesse croissante de l’informatique dans tous les secteurs de la société, et les enjeux qui y correspondent. La fracture numérique ce sont les inégalités d’accès aux réseaux, aux contenus entre le Nord et le Sud, ainsi qu’au sein des pays développés. Ce sont aussi les inégalités en terme de maîtrise conceptuelle du numérique. Nous examinerons ces problématiques. Le libre, désormais composante à part entière de l’industrie informatique, a permis de constituer au plan mondial un bien commun informatique, accessible à tous. Nous verrons donc pourquoi il est intrinsèquement lié à la lutte contre la fracture numérique, et donc à la solidarité numérique, avec son approche, transposable pour une part à la production des autres biens informationnels, ses réponses en matière de droit d’auteur. Comme le sont également les formats et les standards ouverts. Et nous rappellerons que dans la société de la connaissance, la « matière grise » et l’éducation jouent, on le sait, un rôle décisif.

Le numérique partout

Le numérique est partout, dans la vie de tous les jours, au domicile de chacun, avec l’ordinateur personnel et l’accès à Internet ; dans l’entreprise où des systèmes de contrôle informatisés font fonctionner les processus industriels. Ses métiers, et ceux des télécommunications, occupent une place importante dans les services. On ne compte plus les objets matériels qui sont remplis de puces électroniques. Il y a relativement, et en valeur absolue, de plus en plus de biens informationnels. C’est l’informatique, pour ne prendre que ces exemples, qui a récemment fait faire de très spectaculaires progrès à l’imagerie médicale et qui permet ceux de la génétique. Elle modifie progressivement, et de manière irréversible, notre manière de poser et de résoudre les questions dans quasiment toutes les sciences expérimentales ou théoriques qui ne peuvent se concevoir aujourd’hui sans ordinateurs et réseaux. Elle change la manière dont nous voyons le monde et dont nous nous voyons nous-mêmes. L’informatique s’invite aussi au Parlement, ainsi on s’en souvient, en 2006, pour la transposition de la directive européenne sur les Droits d’auteur et les droits voisins dans la société de l’information (DADVSI), suscitant des débats complexes où exercice de la citoyenneté rimait avec technicité et culture scientifique. Et plus récemment avec la « loi Hadopi ».

La fracture numérique

On imagine sans peine que pareille omniprésence de l’informatique signifie des enjeux forts, économiques notamment. Que tous ne soient pas sur un pied d’égalité, loin s’en faut, face aux profondes mutations que le numérique engendre ne saurait a priori surprendre. Cela vaut, à plus ou moins grande échelle, pour tous les pays. Il y a beaucoup de fractures : sanitaires, alimentaires… Culturelles aussi. Ainsi concernant la maîtrise de sa langue maternelle. Ainsi la fracture mathématique, qui serait bien plus grave encore s’il n’y avait pas un enseignement de culture générale mathématique tout au long de la scolarité. Si l’interrogation sur « la poule et l’oeuf » est éternelle, on peut penser qu’« il est certain que la fracture numérique résulte des fractures sociales produites par les inégalités sur les plans économique, politique, social, culturel, entre les hommes et les femmes, les générations, les zones géographiques, etc. »[2].

Un problème d’accès

La fracture numérique tend à être perçue, d’abord et surtout, comme un problème d’accès : les recherches sur Internet avec son moteur préféré ne laissent aucun doute à ce sujet. Il y a ceux pour qui il est possible, facile de disposer d’ordinateurs connectés au réseau mondial, et les autres. C’est vrai pour le monde en général, et la France en particulier. En juin 2008, présentant « ordi 2.0 », plan anti-fracture numérique, Éric Besson rappelait qu’« être privé d’ordinateur aujourd’hui pour les publics fragiles, c’est être privé d’accès à l’information, à la culture, à l’éducation, aux services publics, donc être exposé à un risque accru de marginalisation ». Un premier volet de son plan, qui confirmait la possibilité prévue par la loi de finances 2008, permettait aux entreprises de donner leurs ordinateurs inutiles, mais en état de marche, à leurs salariés, sans charges sociales ni fiscales. Un deuxième volet visait à favoriser la création d’une filière nationale de reconditionnement, de redistribution et de retraitement des ordinateurs, ainsi que la mise en place d’un « label de confiance », garantissant un matériel en état de fonctionnement et vendu à très bas prix.

La fracture numérique a une dimension géographique. De ce point de vue, la question de l’accès égal aux réseaux est primordiale. Une politique d’aménagement du territoire ne peut que s’en préoccuper. Avec l’objectif de « démocratiser le numérique en accélérant le déploiement des infrastructures », la décision 49 du Rapport de la Commission pour la libération de la croissance française, sous la présidence de Jacques Attali[3], consistait en la « garantie d’une couverture numérique optimale en 2011 ». La décision 51, « faciliter l’accès de tous au réseau numérique » correspondait à l’objectif de réduire les fractures numériques, dont il était dit qu’« elles recouvrent la fracture sociale ». Elle proposait d’« accélérer le taux d’équipement en ordinateurs dans les foyers et TPE/PME avec un objectif d’équipement de 85 % en 2012, au moyen notamment de donations des PC usagés, de soutiens spécifiques aux étudiants, et microcrédit social ».

Pour le World Wide Web consortium qui, le 28 mai 2008, lançait un groupe d’intérêt web mobile pour le développement social (MW4D), « les technologies mobiles peuvent ouvrir aux plus pauvres des accès à des services d’informations essentiels comme les soins de santé, l’éducation, les services administratifs »[4].

L’accès à Internet, un bien commun

Le problème de l’accès est bien réel. De l’accès à Internet, tel qu’il a été créé et a fonctionné jusqu’à maintenant, et qu’il faut préserver. En effet, Internet est, en lui-même, un bien commun accessible à tous, une ressource sur laquelle n’importe quel usager a des droits, sans avoir à obtenir de permission de qui que ce soit. Son architecture est neutre et ouverte. Le « réseau des réseaux » constitue un point d’appui solide dans la lutte contre la fracture numérique[5].

Internet repose sur des standards ouverts de formats de données (HTML pour écrire des pages web) et de protocoles de communication (TCP/IP, HTTP). Il fonctionne à base de logiciels libres : Apache, SendMail, Linux… Il est donc impossible de verrouiller le réseau par la pratique du secret. Les logiciels libres contribuent à construire une plate-forme neutre. Ils la protègent par des licences comme la GPL et la diffusion du code source, garantissant aux développeurs qu’elle le restera dans l’avenir.

Les logiciels et les contenus numériques

Si l’accent est mis, à juste titre, sur la nécessité de disposer d’un ordinateur pour accéder au monde du numérique[6], les discours sont en général plus « discrets » sur le système d’exploitation. Or, sans système d’exploitation, que les acheteurs ont encore trop souvent l’impression de ne pas payer même lorsqu’il est « propriétaire », pas de machine qui fonctionne.

La fracture numérique, c’est aussi les inégalités d’accès aux logiciels et aux contenus, les régimes de propriété intellectuelle qui entravent leur circulation, leur production. Il y a désormais deux informatiques qui coexistent : libre et propriétaire. Des contenus numériques sous copyright mais aussi sous licences Creative Commons. Ces approches diffèrent sensiblement, sont quasiment antinomiques. Le débat sur leurs « mérites » respectifs, et les choix à opérer, se situe de plain-pied dans la problématique de la fracture numérique. Il peut arriver qu’il en soit absent, les deux « protagonistes » n’étant pas explicitement nommés. Cela étant, la Conférence « Repenser la fracture numérique » de l’Association for Learning Technology, dans une vision multidimensionnelle de la fracture numérique, posait la question « Open or proprietary ? »[7]. Une question qui mérite effectivement d’être posée.

Ce fut le cas à l’Université d’été de Tunisie qui s’est déroulée à Hammamet, du 25 au 28 août 2008[8]. Organisée par le Fonds Mondial de Solidarité Numérique (FSN)[9] et par l’Association pour le Développement de l’Éducation en Afrique (ADEA), elle était consacrée au thème de « La solidarité numérique au service de l’enseignement ». À son programme figuraient notamment les usages du TBI (Tableau blanc interactif), la création de ressources pédagogiques par les enseignants « auto-producteurs » et le rôle des communautés d’enseignants, les problématiques de droits d’auteur. Un atelier, qui portait sur les ressources pédagogiques des disciplines scientifiques et techniques des lycées, a fait différentes propositions dont l’une essentielle aux yeux de ses participants, qui affirme que les logiciels et les ressources pédagogiques utilisés et produits doivent être libres. Les standards et les formats de données doivent être ouverts[10]. Trois raisons ont motivé cette proposition : les coûts, le caractère opérationnel de la production collaborative de contenus pédagogiques, et le fait que les modalités de réalisation et les réponses du libre en terme de propriété intellectuelle sont en phase avec la philosophie générale d’un projet de solidarité numérique, à savoir partage, coopération, échange.

Le projet RELI@, « Ressources en ligne pour institutrices africaines », est destiné à améliorer la qualité de l’enseignement dans les pays du Sud par l’utilisation des outils et contenus numériques. Il repose sur des logiciels et ressources libres. Il a tenu son premier atelier à Dakar, du 22 au 24 octobre 2008[11]. Un « Appel de Dakar » a été lancé pour la production panafricaine de ressources pédagogiques numériques libres.

L’Unesco prime le libre

En 2007, l’association Sésamath[12] a reçu le 3e prix UNESCO (sur 68 projets) sur l’usage des TICE[13]. Pour le jury, Sésamath est « un programme complet d’enseignement des mathématiques conçu par des spécialistes, des concepteurs et près de 300 professeurs de mathématiques ». Il a été récompensé « pour la qualité de ses supports pédagogiques et pour sa capacité démontrée à toucher un large public d’apprenants et d’enseignants ».

« Remerciant particulièrement la commission française pour l’UNESCO qui a soutenu officiellement sa candidature », l’association Sésamath a vu dans l’obtention de ce prix « l’ouverture d’une nouvelle ère pour son action, vers l’internationalisation et plus particulièrement encore vers l’aide au développement ». Elle a ajouté : « Que pourrait-il y avoir de plus gratifiant pour des professeurs de Mathématiques que de voir leurs productions coopératives libres (logiciels, manuels…) utilisées par le plus grand nombre et en particulier par les populations les plus défavorisées ? C’est vrai dans toute la Francophonie… mais de nombreuses pistes de traductions commencent aussi à voir le jour. »[14]

Les deux lauréats 2007 étaient le Consortium Claroline[15] et Curriki[16]. Claroline, représenté par l’Université Catholique de Louvain, en Belgique, fournit à quelque 900 établissements répartis dans 84 pays une plate-forme « open source », sous licence GPL, en 35 langues. Claroline offre une série d’outils pédagogiques interactifs et centrés sur l’apprenant. C’est un modèle de réseau et de communauté qui met en relation des apprenants, des enseignants et des développeurs du monde entier. Créée en 2004 par Sun Microsystems, Curriki est une communauté mondiale qui se consacre à l’éducation et à la formation. Elle a désormais le statut d’organisme à but non lucratif. Elle fournit un portail Internet, un ensemble d’outils et de services aux utilisateurs grâce auxquels chacun peut librement concevoir, regrouper, évaluer et enrichir les meilleurs programmes d’enseignement, ce qui permet de répondre aux besoins de toutes les classes d’âge et de toutes les disciplines. Curriki a ainsi créé une communauté très vivante composée d’enseignants, d’apprenants, de ministères de l’Éducation, d’établissements scolaires et d’organisations publiques et privées.

L’UNESCO a ainsi mis à l’honneur des démarches éducatives fondées sur le libre, logiciels et ressources.

Parmi les avantages du libre

Parmi les avantages du libre, bien connus, il y a des coûts nettement moins importants. Si libre ne signifie pas gratuit, on peut toujours se procurer une version gratuite d’un logiciel libre, notamment en le téléchargeant. Une fantastique perspective quand, organisée au niveau d’un pays, la diffusion d’un logiciel libre permet de le fournir gratuitement à tous, avec seulement des coûts de « logistique » pour la collectivité mais une économie de licences d’utilisation à n’en plus finir.

Partage-production collaborative-coopération sont des maîtres mots de la solidarité numérique qui supposent des modalités de propriété intellectuelle qui, non seulement, favorisent la circulation des ressources numériques et les contributions des uns et des autres mais, tout simplement l’autorisent. La réponse est du côté de la GPL et des Creative Commons.

L’on sait la profonde affinité entre libre et standards et formats ouverts. Or, par exemple, les documents produits par un traitement de texte lambda doivent pouvoir être lus par un traitement de texte bêta, et réciproquement. La coopération et l’échange sont à ce prix. Il s’agit là d’une question fondamentale de l’informatique et de la fracture numérique. Tout citoyen du monde doit pouvoir avoir accès à ses données, indépendamment du matériel et du logiciel qu’il utilise. De plus en plus de biens informationnels ont une version numérisée. L’enjeu est d’accéder au patrimoine culturel de l’humanité, de participer à sa production, d’être un acteur à part entière du partage et de la coopération.

Avec le libre, chaque communauté peut prendre en main la localisation/culturisation qui la concerne, connaissant ses propres besoins et ses propres codes culturels mieux que quiconque. Il y a donc, outre une plus grande liberté et un moindre impact des retours économiques, une plus grande efficacité dans le processus, en jouant sur la flexibilité naturelle des créations immatérielles pour les adapter à ses besoins et à son génie propre. C’est aussi plus généralement ce que permettent les « contenus libres », c’est-à-dire les ressources intellectuelles – artistiques, éducatives, techniques ou scientifiques – laissées par leurs créateurs en usage libre pour tous. Logiciels et contenus libres promeuvent, dans un cadre naturel de coopération entre égaux, l’indépendance et la diversité culturelle, l’intégration sans l’aliénation.

Les logiciels (et les ressources) libres, composante à part entière de l’industrie informatique, ne peuvent qu’avoir une place de choix dans la lutte contre la fracture numérique. Sans pour autant verser dans l’angélisme. Entre les grands groupes d’acteurs du libre (communautés de développeurs, entreprises, clients comme les collectivités), dont les motivations et ressorts sont divers, il existe des conflits et des contradictions. Des dérives sont possibles, comme des formes de travail gratuit. Mais au-delà des volontés des individus, il y a la logique profonde d’une façon efficace de produire des contenus de qualité[17].

L’accès à la culture informatique

Dans un texte de l’UNESCO, TIC dans l’éducation[18], il est dit que « l’utilisation des TIC dans et pour l’éducation est vue maintenant dans le monde entier comme une nécessité et une opportunité. ». Les grandes questions sur lesquelles l’UNESCO se concentre en tant « qu’expert et conseiller impartial » sont : « Comment peut-on employer les TIC pour accélérer le progrès vers l’éducation pour tous et durant toute la vie ? (…) En second lieu, les TIC, comme tous les outils, doivent être considérées en tant que telles, et être employées et adaptées pour servir des buts éducatifs. » Elle revendique que « l’initiation à l’informatique soit reconnue comme une compétence élémentaire dans les systèmes d’enseignement »[19].

Le numérique, ce sont des outils conceptuels, des abstractions, une discipline scientifique et technique en tant que telle. Au service des autres disciplines, comme le sont les mathématiques. L’ordinateur est une prothèse du cerveau, dont on se sert d’autant plus intelligemment qu’on en connaît l’« intelligence »[20]. La fracture numérique ne serait-elle pas aussi (d’abord ?) une fracture culturelle, qui ne concerne pas que le Sud ? D’ailleurs, ne parle-t-on pas fréquemment de l’« accès » à la culture ?

« L’utilisation d’un outil, si fréquente et diversifiée soit-elle, ne porte pas en elle-même les éléments qui permettent d’éclairer sa propre pratique. »[21] « Comment en effet procéder à une recherche d’information efficace lorsque l’on n’a aucune connaissance du mode de fonctionnement de l’instrument utilisé ? »[22] Or, une enquête menée auprès de 640 000 utilisateurs de l’internet en France en 2001 avait montré que 87 % d’entre eux ne savaient pas se servir d’un moteur de recherche[23]. « Depuis que "l’homo faber" fabrique des outils et s’en sert, une bonne intelligence de l’outil est considérée comme nécessaire pour une bonne utilisation, efficace, précise et raisonnée : plus on en sait quant aux possibilités de réglage et aux conditions d’utilisation mieux cela vaut, partout. Il n’y aurait que l’informatique qui échapperait à cette règle et où l’ignorance serait un avantage ! »[24].

Partout dans le monde, lutter véritablement contre la fracture numérique suppose de donner à tous les élèves les fondamentaux scientifiques du domaine[25]. L’objectif est la maîtrise de ces instruments intellectuels d’un type nouveau. Elle n’est pas vraiment aisée et nécessite des années d’apprentissage (pour un individu il faut environ 20 ans pour maîtriser l’ensemble des instruments et méthodes liés à l’exercice d’une pensée rationnelle). On voit mal comment la diffusion d’objets matériels permettrait en elle-même de raccourcir les délais d’apprentissage, comment on entrerait dans le monde du numérique, abstrait et conceptuel, sans en faire un objet d’étude.

À l’appui de cette nécessité d’enseignement en tant que tel, le fait que la fracture numérique peut se loger là où on ne l’attend pas. Ainsi pointe-t-on une fracture numérique qui émerge, non plus entre les particuliers, mais entre les entreprises, notamment les plus petites et les plus grandes[26]. D’un côté « les mieux loties, accompagnées d’une armée de consultants ou naturellement aguerries à ces sujets ». De l’autre « des centaines de milliers d’entreprises qui souhaitent ardemment tirer profit, dès maintenant, des outils à disposition mais qui butent sur la complexité technologique, les tarifications inadaptées, les offres sur ou sous dimensionnées sans parler des compétences inaccessibles et en voie de raréfaction ». En fait, on voit aujourd’hui émerger « une nouvelle e-aristocratie qui va à l’encontre de la promesse de démocratisation des bénéfices économiques des NTIC (productivité, économie, accessibilité) ».

Dans leur rapport sur l’économie de l’immatériel[27], Maurice Lévy et Jean-Pierre Jouyet soulignent que, dans l’économie de l’immatériel, « l’incapacité à maîtriser les TIC constituera (…) une nouvelle forme d’illettrisme, aussi dommageable que le fait de ne pas savoir lire et écrire ». Ils mettent en évidence les obstacles qui freinent l’adaptation de notre pays à l’économie de l’immatériel, notamment « notre manière de penser », invitant à changer un certain nombre de « nos réflexes collectifs fondés sur une économie essentiellement industrielle ».

La lutte contre la fracture numérique a bien d’abord une dimension éminemment culturelle. Il s’agit d’un enjeu éducatif majeur, de culture générale scientifique et technique pour tous. D’un défi aussi dont les réponses pour le relever se trouvent d’évidence dans les systèmes éducatifs, dont c’est une des raisons d’être.

Jean-Pierre Archambault
Chargé de mission au CNDP-CRDP de Paris

Notes

[1] Crédit photo : Ferdinand Reus (Creative Commons By-Sa)

[2] Les politiques de tous les bords, beaucoup d’institutions (Banque Mondiale et le G8, l’Union Européenne, l’UNESCO…) s’emparent de la problématique de la fracture numérique, avec l’objectif affirmé de la résorber. D’autres s’en inquiètent : « Dejà, le fait qu’une telle notion fasse l’objet d’un consensus aussi large, au sein de groupes sociaux qui s’opposent les uns aux autres, donne à penser qu’elle est scientifiquement fragile. ». Voir La fracture numérique existe-t-elle ?, Éric Guichard, INRIA – ENS.

[3] http://www.liberationdelacroissance.fr/files…

[4] http://www.sophianet.com/wtm_article47688.fr.htm

[5] On pourra se référer aux études de Yochai Benkler reprises par Lawrence Lessig dans son remarquable ouvrage L’avenir des idées, Presses universitaires de Lyon, 2005. Voir « Innover ou protéger ? un cyber-dilemme », Jean-Pierre Archambault, Médialog n°58.

[6] Mais, à trop privilégier dans le discours le nécessaire équipement de tous, il y a le risque de donner à croire que les intérêts des constructeurs ne sont pas loin, en arrière plan de la « noble » lutte contre la fracture numérique.

[7] http://thot.cursus.edu/rubrique.asp?no=27124

[8] http://www.tunisiait.com/article.php?article=2912

[9] ttp://www.dsf-fsn.org/cms/component/option…

[10] http://repta.net/repta/telechargements/Universite_Tunisie…

[11] Premier atelier RELI@ à Dakar : Appel de DAKAR pour la production panafricaine de ressources pédagogiques numériques libres.

[12] http://sesamath.net

[13] http://portal.unesco.org/fr…

[14] http://www.sesamath.net/blog…

[15] http://www.claroline.net/index.php?lang=fr

[16] http://www.curriki.org/xwiki/bin/view/Main/WebHome

[17] L’économie du logiciel libre, François Élie, Eyrolles, 2008.

[18] http://portal.unesco.org/ci/fr/ev.php-URL_ID=2929…

[19] http://portal.unesco.org/ci/fr/ev.php-URL_ID=4347…

[20] « Informatique et TIC : une vraie discipline ? », Jean-Pierre Archambault, Médialog n° 62,

[21] Ordinateur et système éducatif : quelques questions, in Utilisations de l’ordinateur dans l’enseignement secondaire, Jean-Michel Bérard, Inspecteur général de l’Éducation nationale, Hachette Éducation, 1993.

[22] « La nature du B2i lui permet-elle d’atteindre ses objectifs ? » Jean-François Cerisier, Les dossiers de l’ingénierie éducative n° 55, septembre 2006.

[23] http://barthes.ens.fr/atelier/theseEG/

[24] « Enseigner l’informatique », Maurice Nivat, membre correspondant de l’Académie des Sciences,

[25] Voir : Le bloc-notes de l’EPI, La formation à l’informatique et aux TIC au lycée / Proposition de programme / Seconde Première Terminale et « Quelle informatique enseigner au lycée ? », Gilles Dowek, professeur d’informatique à l’École Polytechnique, intervention à l’Académie des Sciences du 15 mars 2005.

[26] Une fracture numérique existe aussi entre les entreprises, Vincent Fournoux, Le Journal du Net du 31 juillet 2008.

[27] L’économie de l’immatériel – La croissance de demain, rapport de la commission sur l’économie de l’immatériel remis à Thierry Breton, Maurice Lévy, Jean-Pierre Jouyet, décembre 2006.




De la contradiction d’avoir un iPhone

Mat Honan - CC byL’été dernier, me voici attablé à la terrasse d’un café, place de la Bastille, en compagnie de quelques membres influents de la blogosphère française. L’occasion d’évoquer Hadopi. Il allait de soit qu’ils étaient tous contre.

Un petit détail m’a frappé : ils étaient tous accompagnés de leur iPhone, qui d’ailleurs ne leur laissait que rarement plus de cinq minutes de répit. iPhone qui vers la fin de notre entretien est carrément devenu le sujet principal de conversation, lorsque le possesseur de je ne sais plus quelle toute nouvelle application issue de l’App Store a voulu en faire la démonstration aux autres[1].

Peut-on être un pourfendeur d’Hadopi et plus généralement un chaud défenseur des libertés numériques tout en possédant un iPhone ? Certes oui. Sauf que, comme vient nous le rappeler Bruno Kerouanton dans ce court et percutant article, nous sommes peut-être en situation de compromis, voire de compromission, avec quelques uns de nos idéaux, fussent-ils numériques[2].

Le paradoxe du citoyen consommateur

URL d’origine du document

Bruno Kerouanton – 14 septembre 2009 – Le Club des Vigilants
Licence Creative Commons By-Nc

Apple est loin d’être seule en cause mais le succès phénoménal de son iPhone illustre, à bien des égards, le paradoxe du citoyen consommateur contemporain.

D’un côté, il se dit écolo. De l’autre, il se jette sur un appareil dont la batterie est intégrée au téléphone, faisant de l’objet un produit jetable complexe à recycler.

D’un côté, il prône la liberté de téléchargement sur Internet, et le droit de dupliquer à l’infini films et œuvres musicales au grand dam des auteurs et de leurs ayants droit. De l’autre, il se précipite sur l’une des plateformes informatiques les plus verrouillées en termes de mesures anticopie.

D’un côté, il se méfie des monopoles. De l’autre, il utilise la plateforme de téléchargement AppStore qui centralise de manière obligatoire toute application disponible, préalablement soumise à la censure de l’éditeur californien.

D’un côté, il défend les logiciels libres et leur gratuité. De l’autre, il n’a jamais autant acheté de logiciels depuis la mise en place de l’AppStore.

D’un côté, il aime l’anonymat et le respect de la vie privée. De l’autre, il se rue sur l’iPhone qui est l’une des plateformes les plus intrusives, en termes de géolocalisation, mais également de suivi des habitudes d’utilisation et de consommation.

Le succès d’Apple tient à la technologie et à l’innovation. En offrant à ses clients un produit très en avance sur ses concurrents, en termes d’ergonomie et de fonctionnalités, ceux-ci sont prêts à en oublier les inconvénients, voire carrément à en occulter l’existence.

Ce comportement paradoxal doit être pris en compte dans le cadre de nouveaux enjeux sociétaux relatifs aux nouvelles technologies. Risques liés aux réseaux sociaux, difficulté de mise en application de réglementations de type Hadopi et bien d’autres thèmes d’actualité devraient être revus en tenant compte de cette surprenante tendance.

Notes

[1] Crédit photo : Mat Honan (Creative Commons By)

[2] Sur le même sujet on pourra aussi lire cet autre article du Framablog : iPhone 3G : tout ce qui brille n’est pas or.




Pandémie grippale + Sanction Hadopi = Continuité pédagogique non assurée

Freeparking - CC byCette rentrée scolaire rime avec risque annoncé de pandémie grippale A/H1N1.

C’est pourquoi le ministère de l’Éducation nationale a rédigé une circulaire apportant « les réponses que la communauté éducative attend, en matière d’hygiène et de santé au travail et en matière de continuité pédagogique ».

Pour ce qui concerne la continuité pédagogique, on peut lire ceci pour les collèges et les lycées[1] :

« Dans tous les cas d’absence d’élèves, de fermeture de classes ou d’établissements, il appartient à chaque professeur d’assurer la continuité pédagogique des cours de sa discipline. Pour ce faire, plusieurs moyens sont mobilisables ; les établissements s’organiseront en tenant compte de l’ensemble des équipements et des compétences dont ils disposent.

Pour les établissements disposant d’espace numérique de travail (E.N.T.) ou fournissant par le biais d’internet un accès à des ressources pédagogiques, les professeurs pourront adresser les supports de cours et d’exercices aux élèves absents et permettre ainsi un échange continu et interactif ;

En l’absence d’E.N.T., les travaux à faire pourront être mis en ligne sur le site de l’établissement, et s’appuieront sur les manuels scolaires utilisés en classe.

Si le site de l’établissement est indisponible, et pour les élèves ne disposant pas d’accès à internet, les travaux à faire à la maison seront remis aux élèves dès l’avis de fermeture de la classe ou de l’établissement.

De surcroît, les professeurs conseilleront aux familles équipées d’internet de se connecter au site http://www.academie-en-ligne.fr, mis en place par le CNED qui propose à titre gratuit des ressources téléchargeables : cours et exercices sous forme écrite ou audio. Ces ressources seront disponibles dès la mi-septembre pour le premier degré, fin octobre pour la plupart des disciplines d’enseignement général du second degré. »

Le dénominateur commun de toutes ces mesures (sauf une) ?

Elles nécessitent un accès à Internet. Ce qui n’est pas encore le cas de tous les foyers français.

Mais si en plus Hadopi s’en mêle, en étant susceptible de couper la connexion à toute une famille, on arrive à une situation pour le moins problématique !

C’est ce que nous rappelle l’Isoc France[2], dans un récent communiqué que nous avons reproduit ci-dessous, à la veille de l’examen à l’Assemblée nationale du projet de loi « Hadopi 2 » (qui aura lieu le mardi 15 septembre prochain).

PS : Pour une lecture (plus que) critique du site de l’Académie en ligne, nous vous renvoyons vers ce billet du Framablog.

Hadopi 2 et pandémie : ne coupez pas l’éducation en ligne !

URL d’origine du document

Isoc – 9 septembre – Communique de Presse

Les solutions proposées pour affronter la pandémie grippale mettent au jour l’inanité des dispositions contenues dans la loi dite Hadopi 2, à commencer par la coupure de l’accès pour toute une famille.

Prochainement proposée au vote du Parlement, cette loi fait suite à la loi Hadopi 1 qui a été partiellement invalidée par le Conseil constitutionnel. Dès le début de la discussion relative à ce premier texte, le chapitre français de l’Internet Society a contesté que la coupure à Internet puisse être une sanction acceptable.

Pour faire face aux fermetures d’établissements, le gouvernement voudrait proposer des cours de substitution par Internet. En attendant que les classes puissent rouvrir normalement, Internet permettra ainsi à nos enfants de continuer à apprendre.

Or, si les dispositions de la Loi Hadopi 2 étaient en vigueur aujourd’hui, l’accès au net de milliers de famille pourrait être suspendu et leurs enfants privés de facto du droit à l’éducation.

Peut-on punir une famille entière, pour les errements supposés d’un de ses membres (ou de ses voisins) ? Quelle législation nationale, pour préserver les profits de quelques artistes et industriels du divertissement, priverait des milliers de familles de l’accès au réseau ?

La pandémie grippale vient rappeler qu’on ne peut pas prétendre entrer dans la société du 21e siècle avec des conceptions disciplinaires d’un autre âge. La société de la connaissance qui s’annonce est une société ouverte, où l’échange direct entre les individus est créateur de richesse et de sens. En votant l’Hadopi 2, les parlementaires français voteront pour le monde d’avant-hier.

La suspension d’Internet ne peut pas être la sanction au téléchargement illégal ou au défaut de sécurisation de sa connexion.

L’Isoc France demande aux députés français de penser au présent et l’avenir de nos enfants, au moment du vote. En leur âme et conscience.

Notes

[1] Crédit photo : Freeparking (Creative Commons By)

[2] Fondée en 1996 par une poignée de pionniers, l’Internet Society France est le Chapitre Français de l’Isoc Association internationale, A l’heure où le réseau devient un enjeu technologique, économique et sociétal majeur, l’Isoc France s’attache à préserver et à défendre les valeurs fondamentales de l’Internet que sont l’universalité, l’accessibilité, le respect des standards ouverts, la non discrimination du réseau et l’interopérabilité des solutions techniques.




Unix a 40 ans : passé, présent et futur d’un OS révolutionnaire

Rudolf Schuba - CC bySéquence Histoire, à l’occasion du quarantième anniversaire de la naissance d’Unix, le mythique système d’exploitation multitâche et multi-utilisateur, créé en août 1969, dont l’héritage est impressionnant.

Quarante ans, dans la jeune histoire de l’informatique, c’est une véritable épopée. Et le fait qu’il soit toujours évoqué aujourd’hui en dit long sur ses qualités d’origine. On en parle parce que, bien qu’en bout de course, on continue à l’utiliser, mais aussi parce qu’il a engendré et inspiré à sa suite toute une famille de systèmes d’exploitation dont rien moins que BSD, Mac OS X et enfin, évidemment, GNU/Linux.

Dans quelles conditions et contexte Unix est-il né ? Pourquoi un tel succès, une telle longévité et une telle parenté ? Et qu’en est-il de sa situation aujourd’hui ? Autant de questions qui trouveront réponses dans l’article ci-dessous traduit par nos soins[1].

Unix a 40 ans : Le passé, présent et futur d’un OS révolutionnaire

Unix turns 40: The past, present and future of a revolutionary OS

Gary Anthes – 4 juin – ComputerWorld.com
(Traduction Framalang : Vincent, Daria et Tyah)

Après quatre décades, le futur du système d’exploitation s’assombrit, mais son héritage va perdurer.

Cela fera quarante ans cet été, un programmeur s’asseyait et jetait les bases en un mois ce qui allait devenir l’un des plus importants morceaux de logiciel jamais créé.

En août 1969, Ken Thompson, un programmeur des Laboratoires Bell (NdT : Bell Labs), une filiale d’AT&T, considérait le voyage d’un mois de sa femme et de son fils comme une opportunité pour mettre en pratique ses idées pour un nouveau système d’exploitation. Il écrivait la première version de Unix dans un langage assembleur pour un mini-ordinateur un peu mollasson, un Digital Equipment Copr. (DEC) PDP-7, en passant une semaine sur chaque partie : un système d’exploitation, un shell, un éditeur et un assembleur.

Ken Thompson et Dennis Ritchie - Hoshie - Domaine PublicThompson et un collègue, Dennis Ritchie (cf photo ci-contre), se trouvaient démotivés depuis que les Bell Labs s’étaient retirés un peu plus tôt dans l’année d’un projet trouble de développement d’un système temps partagé appelé Multics (Multiplexed Information and Computing Service). Ils n’avaient aucune envie de rester sur des systèmes d’exploitation de type batch qui prédominaient à cette époque, et ne voulaient pas non plus réinventer Multics, qu’ils considéraient comme grotesque et peu maniable.

Après avoir débattu autour de plusieurs idées pour un nouveau système, Thompson a écrit la première version de Unix, que le binôme a continué de développer durant les années suivantes avec l’aide de leurs collègues Doug McIlroy, Joe Ossanna et Rudd Canaday. Quelques-uns des principes de Multics ont été réutilisés dans leur nouveau système d’exploitation, mais la beauté d’Unix alors (et encore maintenant) reposait sur sa philosophie « moins-c’est-plus » (NdT : less-is-more philosophy).

« Un OS puissant pour un usage interactif n’a pas besoin d’être coûteux, que ce soit en matériel ou en efforts humains », devaient écrire Ritchie et Thompson cinq ans plus tard dans les communications de l’ACM (CACM), le journal de l’Association for Computer Machinery. « Nous espérons que les utilisateurs de Unix trouveront que les plus importantes caractéristiques de ce système sont sa simplicité, son élégance et sa facilité d’utilisation ».

Apparemment ils y sont arrivés. Unix va évoluer pour devenir une pierre angulaire de l’informatique, largement installé sur les serveurs et les postes de travail dans les universités, les gouvernements et les entreprises. Et son influence s’est étendue bien au-delà de ses déploiements, comme l’a noté l’ACM en 1983, lorsqu’ils ont attribué leur prix le plus élevé à Thompson et Ritchie, le A.M. Turing Award pour leur contribution à l’informatique : « Le modèle du système Unix a conduit une génération de concepteurs logiciels à repenser leur manière de programmer ».

Les premiers pas

Bien sûr, le succès d’Unix n’est pas arrivé d’un coup. En 1971, il a été porté sur le mini-ordinateur PDP-11, une plateforme plus puissante que le PDP-7 pour laquelle il avait été écrit à l’origine. Des programmes d’édition et de formatage de texte ont été ajoutés, et il a été déployé pour quelques dactylos du département des Brevets des Bell Labs, ses premiers utilisateurs en dehors de l’équipe de développement.

En 1972, Ritchie écrivait le langage de programmation de haut-niveau C (basé sur un langage précédent de Thompson, le B) ; suite à cela, Thompson réécrivit Unix en C, ce qui permit d’améliorer la portabilité de l’OS sur différents environnements. En cours de chemin, il acquit le nom de Unics (Uniplexed Information and Computing Services), un jeu de mots sur Multics ; l’orthographe se transforma rapidement en Unix.

Il était temps d’envahir le monde. L’article de Ritchie et Thompson de Juillet 1974 dans le CACM, « Le système temps-partagé UNIX », prit le monde de l’informatique dans un ouragan. Jusqu’alors, Unix avait été confiné à une poignée d’utilisateurs dans les Laboratoires Bell. Mais maintenant, avec l’Association for Computing Machinery derrière lui, un éditeur l’ayant qualifié comme étant élégant, Unix était à un moment crucial.

« L’article du CACM avait eu un impact très fort », raconte l’historien de l’informatique Peter Salus dans son livre The Daemon, the Gnu and the Penguin (NdT : Le démon, le Gnou et le manchot). « Peu de temps après, Ken était assailli de demandes concernant Unix ».

Un paradis pour les hackers

Thompson et Ritchie étaient des hackers accomplis, quand ce terme désignait quelqu’un qui combinait une créativité hors pair, une intelligence à toute épreuve et de l’huile de coude pour résoudre des problèmes logiciels que l’on a peine à imaginer.

Leur approche, et le code qu’ils avaient écrit, étaient attractifs pour les programmeurs des universités, et plus tard pour des entreprises qui démarraient sans les méga budgets de IBM, Hewlett-Packard ou Microsoft. Unix était tout ce dont les autres hackers, comme Bill Joy à l’Université de Californie, Rick Rashid à l’Université Carnegie Mellon et David Korn plus tard aux Laboratoires Bell avaient rêvé.

« Presque depuis le début, le système était capable de se maintenir seul, et il l’avait prouvé », écrivaient Thompson et Ritchie dans l’article du CACM. « Comme tous les programmes sources étaient toujours disponibles et facilement modifiables en ligne, nous étions volontaires pour réviser et modifier le système et ses logiciels lorsque de nouvelles idées étaient inventées, découvertes ou suggérées par d’autres ».

Korn, maintenant membre d’AT&T, travaillait comme programmeur aux Bell Labs dans les années 1970. « L’une des caractéristiques de Unix était que des outils pouvaient être écrits, et de meilleurs outils pouvaient les remplacer », se souvient-il. « Ce n’était pas un monolithe dans lequel il fallait tout approuver ; vous pouviez en fait développer de meilleures versions ». Il a développé l’influent Korn shell, un langage de programmation permettant d’interagir directement avec Unix, maintenant disponible en open source.

Salus, auteur et historien des technologies, se souvient de son travail avec le langage de programmation APL sur un mainframe IBM tournant sous System/360, en tant que professeur à l’Université de Toronto dans les années 1970. Mais le lendemain de Noël 1978, un ami à l’Université de Colombia lui fit une démonstration de Unix, tournant sur un mini-ordinateur. « Je me suis exclamé : Oh mon Dieu !, et j’étais totalement converti », raconte Salus.

Il dit que pour lui, l’un des avantages clés de Unix était la fonctionnalité pipe, introduite en 1973, qui rendait facile le passage de données d’un programme à l’autre. Le concept de pipeline, inventé par McIlroy des Bell Labs, fut par la suite copié dans de nombreux OS, parmi lesquels les variantes d’Unix, Linux, DOS et Windows.

Un autre avantage de Unix, le deuxième effet Wooow, comme le dit Salus, était qu’il n’avait pas besoin d’un mainframe d’un demi-million de dollars pour tourner. Il avait été écrit sur le petit mini-ordinateur DEC PDP-7, assez primitif, car c’était tout ce que Thompson et Ritchie avaient sous la main en 1969. « Le PDP-7 était presque incapable de quoi que ce soit », se souvient Salus. « J’étais scotché ».

Pas mal de monde a également été rendu accro. Les chercheurs des universités ont adopté Unix car il était assez simple et facilement modifiable, ne demandait pas beaucoup de ressources, et le code source était libre pour une bonne partie. Des startups comme Sun Microsystems et un ensemble d’entreprises maintenant défuntes qui se spécialisaient dans l’informatique scientifique, comme Multiflow Computer, en ont fait leur système d’exploitation de choix pour les mêmes raisons.

La progéniture d’Unix

Unix a grandi comme un système non-propriétaire car en 1956 AT&T avait été enjoint par une décret fédéral à ne pas s’écarter de sa mission de production de service téléphonique. Il pouvait développer du logiciel, et même le licencier pour un tarif raisonnable, mais l’entreprise ne pouvait pas entrer sur le marché de l’informatique.

Unix, qui avait été développé sans encouragement du management, avait d’abord été vu par AT&T comme quelque chose entre une curiosité et un casse-tête légal.

C’est à ce moment là, à la fin des années 1970, AT&t a réalisé qu’ils avaient quelque chose de commercialement intéressant en main. Ses avocats ont commencé à adopter une interprétation plus favorable de l’ordonnance de 1956, comme ils cherchaient des manières de protéger Unix comme un secret de fabrication. A partir de 1979, avec la sortie de la Version 7, les licences Unix interdisaient aux universités d’utiliser le code source Unix pour l’étudier pendant leurs cours.

Pas de problème, se dit alors le professeur d’informatique Andrew Tanenbaum, qui avait utilisé Unix V6 à l’Université Vrije à Amsterdam. En 1987, il écrivit un clone de Unix pour utiliser lors de ses cours, en créant le système d’exploitation open source Minix, qui tournait sur un microprocesseur Intel 80286.

« Minix comprenait toutes les idées d’Unix, et c’était un travail brillant », raconte Salus. « Seul un programmeur majeur, quelqu’un qui comprenait en profondeur les mécanismes internes d’un système d’exploitation, pouvait faire cela ». Minix allait devenir le point de départ pour la création de Linux par Linus Torvalds en 1991. Si ce n’était pas exactement un clone d’Unix, il s’agissait à n’en pas douter d’un Unix-like.

En reculant d’une décade ou à peu près, Bill Joy, qui était un étudiant diplômé et programmeur à l’Université de Californie de Berkeley dans les années 1970, mit la main sur une copie de l’Unix des Laboratoires Bell, et il pensa que c’était une bonne plateforme pour son propre travail sur un compilateur Pascal et un éditeur de texte.

Les modifications et extensions que lui et d’autres firent à Berkeley ont résulté dans la seconde branche majeure de Unix, appelée Berkeley Software Distribution (BSD) Unix. En mars 1978, Joy envoyait des copies de 1BSD, vendues 50$.

Ainsi en 1980 il y avait deux lignes majeures de Unix, l’une de Berkeley et l’autre de AT&T, et la scène était montée pour ce qui allait devenir la Guerre des Unix. La bonne nouvelle était que les développeurs de logiciels pouvaient avoir accès de partout au code source Unix, et l’adapter à leurs besoins et caprices. La mauvaise nouvelle c’est qu’ils firent exactement cela. Unix a proliféré, et les variantes ont divergé.

En 1982, Joy a contribué à fonder Sun Microsystems et offrait une station de travail, la Sun-1, qui utilisait une version de BSD appelée SunOS. (Solaris allait apparaitre environ 10 ans plus tard). L’année suivante, AT&T a sorti la première version de Unix System V, un système d’exploitation qui a eu une influence énorme et qui fut la base de IBM AIX et Hewlett-Packard HP-UX.

Les Guerres Unix

Unix History - Eraserhead1 et Infinity0 - CC by-saAu milieu des années 80, les utilisateurs, y compris le gouvernement fédéral, se sont plaints que si en théorie Unix était un système d’exploitation unique et portable, en fait on en était loin. Les éditeurs faisaient semblant d’adhérer à cette réclamation, mais travaillaient jour et nuit pour enfermer les clients avec des fonctionnalités et API uniques à leur Unix.

En 1987, Unix System Laboratories, qui faisait partie des Laboratoires Bell à cette époque, commença à travailler avec Sun sur un système qui pourrait unifier les deux branches majeures de Unix. Le produit de leur collaboration, appelé Unix System V Release 4.0, fut sorti deux ans plus tard, et combinait des fonctionnalités de System V Release 3, BSD, SunOS et du Xenix de Microsoft.

Les autres éditeurs Unix craignaient l’alliance AT&T/Sun. Les diverses parties ont formé des organismes standards concurrents, qui portaient des noms tels que X/Open, Open Software Foundation (ou OSF), Unix International et Corporation for Open Systems. Les arguments, contre-arguments et réussites de ces groupes pourraient remplir un livre, mais ils clamaient tous leur désir d’un Unix unifié, tout en se tirant dessus les uns les autres.

Dans un article écrit en 1988, mais non publié, pour la DARPA (Defense Advanced Research Projects Agency) (NdT : Agence pour les Projets de Recherche Avancée de la Défense), le pionnier des mini-ordinateurs Gordon Bell disait ceci de la toute nouvelle Open Software Foundation, qui incluait IBM, HP, DEC et d’autres, alliés contre le partenariat AT&T/Sun : « OSF est une manière pour ceux qui n’ont pas d’Unix d’entrer sur ce marché en devenir, tout en maintenant leur musées de code à hautes marges ».

Les Guerres Unix n’ont pas réussi à calmer les différences ou à créer un réel standard pour le système d’exploitation. Mais en 1993, la communauté Unix était réveillée par Microsoft, sous la forme de Windows NT, un système d’exploitation 32 bits utilisable en entreprise. Ce NT propriétaire visait directement Unix, et devait étendre l’hégémonie de Microsoft sur l’ordinateur de bureau aux centres serveurs et endroits similaires, tenus principalement par les serveurs Sun et autres.

Les utilisateurs Microsoft ont applaudi. Les fournisseurs Unix ont paniqué. Tous les principaux rivaux des Unix majeurs se sont réunis dans une initiative appelé Common Open Software Environnement (NdT : Environnement Logiciel Ouvert Commun), et l’année suivante ont plus ou moins déposé les armes en mixant le groupe Unix International, appuyé par AT&T/Sun avec l’Open Software Foundation. Cette coalition a évolué dans l’actuel The Open Group, organisme certificateur des systèmes Unix, et propriétaire de Single Unix Specification (SUS), maintenant la définition officielle de « Unix ».

D’un point de vue pratique, ces développements ont pu standardiser Unix au maximum possible, en fonction de la concurrence des éditeurs. Mais ils sont sans doute arrivés trop tard pour enrayer la montée d’une marée appelée Linux, le système d’exploitation open source dérivé de Minix du professeur Tanenbaum.

Mais qu’est ce que « Unix », finalement ?

Unix, vous diront la plupart des gens, est un système d’exploitation écrit il y a plusieurs dizaines d’années aux Laboratoires Bell de AT&T, et ses descendants. Les versions majeures d’Unix aujourd’hui proviennent de deux branches d’un même tronc : l’une émane directement de AT&T et l’autre vient de AT&T via l’Université de Californie de Berkeley. Les branches les plus robustes actuellement sont AIX d’IBM, HP-UX de HP et Solaris de Sun.

Toutefois, The Open Group, qui détient la marque déposée Unix, définit Unix comme n’importe quel système d’exploitation qui a été certifié par ses services pour se conformer à la Single Unix Specification (SUS) (NdT : Spécification Unix Unique). Ceci inclut des OS que l’on ne considère pas généralement comme étant des Unix, tel que Mac OS X Leopard (qui dérive d’un BSD Unix) et IBM z/OS (qui vient du système d’exploitation mainframe MVS), car ils se conforment au SUS et supportent les APIs SUS. L’idée basique est que c’est un Unix si cela agit comme Unix, quel que soit le code sous-jacent.

Une définition encore plus large d’Unix pourrait inclure les OS Unix Like (qui ressemblent à Unix), parfois appelé des clones d’Unix ou des sosies, qui ont copié une bonne partie des idées de Unix mais n’incorporent pas directement du code Unix. Le plus connu d’entre tous étant certainement Linux.

Finalement, même s’il est raisonnable d’appeler Unix un système d’exploitation, c’est finalement plus que cela. En plus du noyau de l’OS, les implémentations Unix embarquent typiquement des utilitaires tels que des éditeurs en ligne de commande, des interfaces de programmation applicatives (API), des environnements de développement, des librairies et de la documentation.

Le futur d’Unix

Le manque continuel de portabilité complète entre les différentes versions concurrentes d’Unix, de même que l’avantage financier de Linux et Windows sur les processeurs standards x86, vont inciter les organisations informatiques de quitter Unix, suggère un récent sondage du Gartner Group.

« Les résultats réaffirment l’enthousiasme continu pour Linux comme plate-forme serveur, avec Windows qui croît de la même manière, et Unix qui prend la route d’un long, mais graduel, déclin », décrit le sondage, publié en février 2009.

« Unix a eu un passé long et vivant, et même s’il n’est pas encore parti, il sera de plus en plus sous pression », dit l’analyste du Gartner George Weiss. « Linux est l’Unix de choix stratégique. Même si Linux n’a pas le long héritage de développement, de tuning et de tests de stress que Unix a pu avoir, il s’en approche et va bientôt égaler Unix en performance, stabilité et montée en charge », dit-il.

Mais un récent sondage de ComputerWorld suggère que le retrait d’Unix ne va pas arriver aussi rapidement. Dans cette enquête concernant 130 utilisateurs Unix sur 211 responsables informatiques, 90% ont déclaré que leur entreprise était « très ou extrêmement dépendante » de Unix. Un peu plus de la moitié a dit : « Unix est une plateforme essentielle pour nous et le restera indéfiniment », et seulement 12% ont dit « Nous pensons sortir de Unix dans le futur ». Les économies de coût, essentiellement au travers d’une consolidation de serveurs, étaient citées comme la raison n°1 pour migrer vers autre chose.

Weiss pense que la migration vers des processeurs x86 va s’accélérer à cause de l’avantage du coût du matériel. « Des architectures extensibles horizontalement ; le clustering ; le cloud computing ; la virtualisation sur x86, quand vous combinez toutes ces tendances, le système d’exploitation de choix tourne autour de Linux ou Windows », dit-il.

« Par exemple », déclare Weill, « dans l’annonce récente de Cisco de son architecture Unified Computing, vous avez dans un même équipement le réseau, le stockage, le calcul et la mémoire, et vous n’avez pas besoin d’Unix. Vous pouvez utiliser Linux ou Windows sur x86. Ainsi, Intel est en train de gagner la guerre pour le compte de Linux contre Unix ».

The Open Group, propriétaire des Single Unix Specification et organisme certificateur des systèmes Unix, concède peu à Linux, et déclare que Unix est le système de choix pour « le haut du panier en termes de fonctionnalités, montée en charge et performance pour des applications critiques ». Linux, dit-il, tend à être le standard pour les applications plus simples, moins critiques.

Korn, de AT&T, est parmi ceux qui pensent que Unix a encore un bel avenir. Korn dit que la force d’Unix pendant toutes ces années, depuis l’ajout des pipes en 1973, est qu’il peut facilement être éclaté en petits bouts et distribué. Ceci va pousser Unix en avant, dit-il. « La philosophie (du pipeline) fonctionne bien avec le cloud computing, dans lequel vous construisez des petits morceaux réutilisables plutôt qu’une grosse application monolithique ».

L’héritage d’Unix

Quel que soit le sort final d’Unix, le système d’exploitation né dans les Laboratoires Bell il y a 40 ans a établi un héritage qui risque de durer encore quelques dizaines d’années. Il peut revendiquer la paternité d’une longue liste de logiciels populaires, incluant l’offre Unix de IBM, HP, Sun, Apple Mac OS X et Linux. Il a également influencé des systèmes qui ont leurs racines dans Unix, comme Microsoft Windows NT et les versions IBM et Microsoft de DOS.

Unix a permis à de nombreuses entreprises qui démarraient de réussir, en leur offrant une plateforme peu onéreuse sur laquelle construire. C’était une des briques de base pour la construction d’Internet, et il fait partie du cœur des systèmes de télécommunications aujourd’hui. Il a engendré de nombreux concepts d’architecture, comme l’utilisation du pipeline, et le dérivé de Unix, Mach, a contribué énormément à l’informatique scientifique, distribuée et multiprocesseurs.

C’est peut-être l’ACM qui l’a mieux énoncé en 1983 dans sa citation du prix Turing en l’honneur de Thompson et Ritchie sur leur travail sur Unix : « Le génie du système Unix est dans sa structure, qui permet aux programmeurs de bâtir sur le travail des autres ».

Notes

[1] Crédit photos : 1. Rudolf Schuba (Creative Commons By) / 2. Hoshie (Domaine Public) / 3. Eraserhead1 et Infinity0 (Creative Commons By-Sa)




Rencontre avec le Parti Pirate suédois

Ann Catrin Brockman - CC by-saDans notre imaginaire collectif la Suède est un pays où il fait bon vivre, auquel on accole souvent certains adjectifs comme « social », « mesuré », « organisé », « tranquille, voire même « conservateur ».

C’est pourquoi l’irruption soudaine dans le paysage politique local du Parti Pirate (ou Piratpartiet) a surpris bon nombre d’observateurs.

Surprise qui a dépassé les frontières lors du récent et tonitruant succès du parti aux dernières élections européennes (7% des voix, 1 et peut-être 2 sièges).

Nous avons eu envie d’en savoir plus en traduisant un entretien réalisé par Bruce Byfield avec le leader du parti, Rickard Falkvinge (cf photo[1] ci-dessus).

Ce succès est-il reproductible dans d’autres pays à commencer par l’Europe et par la France ? C’est une question que l’on peut se poser à l’heure où les différents (et groupusculaires) partis pirates français ont, semble-t-il, décidé d’unir (enfin) leurs forces. À moins d’estimer que l’action, l’information et la pression d’une structure comme La Quadrature du Net sont amplement suffisants pour le moment (j’en profite pour signaler qu’eux aussi ont besoin de sou(s)tien actuellement).

Remarque : C’est le troisième article que le Framablog consacre directement au Parti Pirate suédois après l’appel à voter pour eux (vidéo inside) et la toute récente mise au point de Richard Stallman sur les conséquences potentielles pour le logiciel libre de leur programme politique (question précise que le journaliste n’évoque pas dans son interview).

Interview avec le leader du Parti Pirate : « Des libertés cruciales »

Interview with Pirate Party Leader: "These are Crucial Freedoms"

Bruce Byfield – 16 juin 2009 – Datamation
(Traduction Framalang : Tyah, Olivier et Severino)

Le 7 Juin 2009, les électeurs suédois ont élu un membre du PiratPartiet (Parti Pirate) au Parlement Européen. Ils bénéficieront même d’un second siège si le Traité de Lisbonne est ratifié, celui-ci octroyant à la Suède deux sièges supplémentaires.

Bien que relativement faibles, ce sont de bons résultats pour un parti fondé il y a à peine trois ans, et qui fait campagne avec très peu de moyens, s’appuyant essentiellement sur ses militants. Que s’est-il passé et pourquoi cet événement est-il important bien au-delà de la Suède ?

Pour Richard Falkvinge, fondateur et leader du Parti Pirate, l’explication est simple : les pirates ont fait entrer pour la première fois dans le débat public les préoccupations de la communauté libre concernant la question du copyright et du brevet, et cela en utilisant les réseaux sociaux, un média complètement ignoré par leurs opposants.

Falkvinge nous en a dit un peu plus sur le sujet à l’occasion d’une présentation au cours du récent congrès Open Web Vancouver, ainsi que dans une brève interview qu’il nous a accordée le lendemain.

Falkvinge, entrepreneur depuis son adolescence, s’est intéressé à l’informatique toute sa vie d’adulte, et naturellement aux logiciels libres. « J’ai participé à différents projets open source » dit-il en ajoutant promptement : « Vous ne risquez pas d’avoir entendu parler des projets auxquels j’ai participé. Je fais partie des gens qui ont la malchance de toujours s’engager dans des projets qui ne vont nulle part – excepté celui-ci, évidemment. »

Comme pour de nombreuses autres personnes, le tournant fut pour Falkvinge la volonté de l’Europe d’imposer des droits d’auteurs plus strictes encore en 2005. Selon Falkvinge, le sujet fut largement couvert et débattu en Suède par tout le monde – sauf par les politiciens.

« Je me suis donc demandé : que faut-il faire pour obtenir l’attention des politiciens ? J’ai réalisé que l’on ne pouvait sûrement pas capter leur attention sans amener le débat sur leur terrain. Le seul recours était de contourner totalement les politiciens et de s’adresser directement aux citoyens lors des élections, de nous lancer sur leur terrain pour qu’ils ne puissent plus nous ignorer. »

Si pour les nord-américains, le nom peut sembler provocateur, Falkvinge explique que c’était un choix évident étant donné le contexte politique. En 2001 fut fondé un lobby défendant le copyright nommé le Bureau Anti-Pirate, donc quand un think-tank adverse s’est créé en 2003, il prit tout naturellement le nom de Bureau Pirate.

Selon Falkvinge, « la politique pirate devint connue et reconnue. Chacun savait ce qu’était la politique pirate, l’important n’était donc pas de réfléchir à un nom, mais bien de fonder le parti. », ce qu’il fit le 1er janvier 2006.

Dès le départ, Falkvinge rejetta l’idée de s’appuyer sur les vieux média : TV, radio, presse.

« Ils n’auraient jamais accordé le moindre crédit à ce qu’ils considéraient comme une mouvance marginale. Ils n’auraient jamais parlé suffisamment de nous pour que nos idées se répandent. Il faut dire aussi qu’elles ne rentrent pas vraiment dans leur moule, alors comment expliquer quelque chose que vous avez du mal à saisir ? »

« Nous n’avions d’autre choix que de construire un réseau d’activistes. Nous savions que nous devions faire de la politique d’une manière jamais vue auparavant, de proposer aux gens quelque chose de nouveau, de nous appuyer sur ce qui fait le succès de l’open source. Nous avons essentiellement contourné tous les vieux médias. Nous n’avons pas attendu qu’ils décident de s’intéresser à nous; nous nous sommes simplement exprimés partout où nous le pouvions. »

Leur succès prit tous les autres partis politiques par surprise. Seulement quelques jours après avoir mis en ligne le premier site du parti, le 1er janvier 2006, Falkvinge apprit que celui-ci comptabilisait déjà plusieurs millions de visiteurs. La descente dans les locaux de Pirate Bay et les élections nationales suédoises qui se sont tenues plus tard dans l’année ont contribué à faire connaître le parti, mais c’est bien sur Internet, grâce aux blogs et à d’autres médias sociaux, qu’il a gagné sa notoriété.

Aujourd’hui c’est le troisième parti le plus important de Suède, et il peut se vanter d’être le parti politique qui rassemble, et de loin, le plus de militants parmi les jeunes.

« Ce n’est pas seulement le plus grand parti en ligne », dit Falkvinge. « C’est le seul parti dont les idées sont débattues en ligne. »

Les analystes politiques traditionnels avaient du mal à croire que le Parti Pirate puisse être régulièrement crédité de 7 à 9% d’intentions de vote dans les sondages.

« J’ai lu une analyste politique qui se disait complètement surprise » rapporte Falkvinge. « Elle disait : « Comment peuvent-ils être si haut dans les sondages ? Ils sont complètement invisibles ». Son analyse était évidemment entièrement basée sur sa connaissance classique de la politique. La blogosphère de son côté se demandait si elle n’avait pas passé ces dernières années dans une caverne. »

La plateforme du Parti Pirate

Aux yeux de Falkvinge, la lutte pour l’extension des droits d’auteurs et des brevets, c’est l’Histoire qui bégaye. Il aborde le sujet des droits d’auteurs en rappelant que l’Église catholique réagit à l’invention de l’imprimerie, qui rendait possible la diffusion de points de vue alternatifs, en bannissant la technologie de France en 1535.

Un exemple plus marquant encore est celui de l’Angleterre, qui créa un monopole commercial sur l’imprimerie. Bien qu’elle connue une période sans droit d’auteur, après l’abdication de Jacques II en 1688, il fut restauré en 1709 par le Statute of Anne. Les monopolistes, qui affirmaient que les écrivains tireraient bénéfice du droit d’auteur, ont largement pesé sur cette décision.

Dans les faits, explique Falkvinge, « le droit d’auteur a toujours bénéficié aux éditeurs. Jamais, ô grand jamais, aux créateurs. Les créateurs ont été utilisés comme prétexte pour les lois sur les droits d’auteur, et c’est toujours le cas 300 ans plus tard. Les politiciens emploient toujours la même rhétorique que celle utilisée en 1709, il y a 300 foutues années ! »

Aujourd’hui, Falkvinge décrit le droit d’auteur comme « une limitation du droit de propriété » qui a de graves conséquences sur les libertés civiles. Pour Falkvinge, les efforts faits par des groupes comme les distributeurs de musique et de films pour renforcer et étendre les droits d’auteurs menacent ce qu’il appelle le « secret de correspondance », la possibilité de jouir de communications privées grâce à un service public ou privé.

Partout dans le monde les pressions montent pour rendre les fournisseurs d’accès responsables de ce qui circule sur leurs réseaux, ce qui remet en cause leur statut de simple intermédiaire. « C’est comme si l’on poursuivait les services postaux parce que l’on sait qu’ils sont les plus gros distributeurs de narcotiques en Suède », raisonne Falkvinge par analogie.

Une autre conséquence concerne la liberté de la presse, sujet cher aux journalistes et aux dénonciateurs. « Si vous ne pouvez confier un scandale à la presse sans que des groupes privés ou gouvernementaux y jettent un œil avant qu’il ne parvienne à la presse, quels sujets allez-vous traiter ? Et bien, rien ne sera révélé, car personne ne sera assez fou pour prendre ce risque. À quoi vous servira alors la liberté de la presse ? À écrire des communiqués de presse ? »

Falkvinge défend un droit d’auteur beaucoup plus souple, réservé uniquement à la distribution commerciale et sévèrement restreint ; cinq ans serait une durée raisonnable, suggère-t-il. « Il faut que les droits d’auteurs sortent de la vie privée des personnes honnêtes. Les droits d’auteurs ressemblent de plus en plus à des policiers en uniformes qui font des descentes avec des chiens chez les gens honnêtes. C’est inacceptable. »

Il croit aussi que la copie privée est un progrès social, en faisant valoir que « Nous savons que la société avance quand le culture et les connaissances se diffusent aux citoyens. Nous voulons donc encourager la copie non-commerciale. »

De même, le Parti Pirate s’oppose aux brevets, particulièrement aux brevets logiciels, mais aussi dans d’autres domaines.

« Chaque brevet, dans sa conception même, inhibe l’innovation », maintient-il. « Les brevets ont retardé la révolution industrielle de trente ans, ils ont retardé l’avènement de l’industrie aéronautique nord-américaine de trente autres années, jusqu’à ce que la Première Guerre mondiale éclate et que le gouvernement des États-Unis confisque les brevets. Ils ont retardé la radio de cinq ans. » Aujourd’hui, suggère t-il, les progrès technologiques en matière de voitures électriques et d’infrastructures écologiques sont bloqués par les brevets.

« Tout cela n’est en rien différent de la réaction de l’Église Catholique », explique Falkvinge. « Quand il y a une technologie dérangeante, vecteur d’égalisation, la classe dirigeante n’attaque pas les personnes qui essaient de devenir égales. Elle s’en prend à la technologie qui rend cela possible. On le voit dans le monde entier, la classe dirigeante attaque Internet. »

« Les excuses varient. En Chine, c’est le contrôle. En Asie du Sud, c’est la morale publique, dans d’autres endroits, c’est l’ordre et la loi. En Égypte, je pense, la raison est de respecter les préceptes de la religion, l’Islam dans leur cas. Aux États-Unis, il y a trois excuses majeures : le droit d’auteur, le terrorisme et la pédophilie. Ces excuses sont en train d’être utilisées pour briser le plus grand égalisateur de population jamais inventé. »

« Voilà le véritable enjeu. Les libertés fondamentales doivent être grignotées ou abolies pour sauvegarder un monopole chancelant d’industries obsolètes. Il est compréhensible qu’une industrie déliquescente se batte pour sa survie, mais il appartient aux politiciens de dire que, non, nous n’allons pas démanteler les libertés fondamentales juste pour que vous n’ayez pas à changer. Adaptez-vous ou bien mourrez. »

C’est dans cette situation, déclare Falkvinge, que les perspectives du Parti Pirate sont si importantes.

Le Parti Pirate « adopte une position sur les droits civiques que les politiciens ne comprennent pas. Ils écoutent les lobbys et s’attaquent de manière extrêmement dangereuse aux libertés fondamentales. »

Les efforts du lobby pro-copyright pourraient se révéler en fin de compte futiles, pour Falkvinge ils se battent pour une cause perdue. Mais il met aussi en garde contre les dommages considérables que pourrait causer le lobby avant d’être finalement emporté par l’inéluctable.

Courtiser les Pirates

Cybriks - CC byÀ la prochaine séance du Parlement Européen, Christian Engstrom siègera dans l’hémicycle, un entrepreneur devenu activiste qui milite contre les brevets depuis ces cinq dernières années. Si le Parti Pirate obtient un second siège, Engstrom sera rejoint par Amelia Andersdotter (cf photo ci-contre), que Falksvinge décrit comme « un des plus brillants esprits que nous ayons dans le Parti Pirate ». Elle serait alors la plus jeune membre jamais élue du Parlement Européen.

Le Parti Pirate aborde des problèmes dont personne, jusqu’à maintenant, n’a vraiment pris conscience. Est-ce là l’explication pour le soudain intérêt dont bénéficie le parti ? Peut-être. Mais leur popularité chez les électeurs de moins de trente ans, un groupe que les autres partis ont toujours eu du mal à séduire, compte au moins autant.

De plus, avec un électorat divisé entre une multitude de partie, les 7% recueillis par le Parti Pirate sont loin d’être négligeables.

« Ces sept coalitions se mettent en quatre pour s’approprier notre crédibilité », résume Falkvinge. « Nous jouissons d’un vrai soutien populaire que ces partis se battent pour nous avoir. »

S’exprimant quelques jours après les élections, Falkvinge ne cachait pas sa satisfaction. Malgré tout, il se prépare déjà pour les prochaines élections nationales en Suède, où il espère que le Parti Pirate jouera un rôle dans un gouvernement minoritaire. Le prix d’une alliance avec les Pirates sera, bien sûr, l’adoption de leurs idées.

« Aux élections européennes nous avons gagné notre légitimité », constate Falkvinge. « Les prochaines élections nationales nous permettront de réécrire les lois. »

Si tel est le cas, l’Union Européenne et le reste du monde pourront peut-être en sentir les effets. Déjà, des Partis Pirates se mettent en place à l’image du parti suédois, et, comme le montre leur faculté à attirer les jeunes, pour des milliers d’entre eux le Parti Pirate est le seul parti politique qui aborde les questions qui les intéressent.

« Il y a deux choses qu’il ne faut pas perdre de vue » remarque Falkvinge. « Premièrement, nous faisons partie de la nouvelle génération de défenseurs des libertés fondamentales. C’est un mouvement pour les libertés fondamentales. Des libertés fondamentales et des droits fondamentaux essentiels sont compromis par des personnes voulant contrôler le Net, et nous voulons sauvegarder ces droits. Au fond, nous voulons que les droits et devoirs fondamentaux s’appliquent aussi bien sur Internet que dans la vie courante. »

« Le deuxième point que je voudrais souligner c’est que nous nous faisons connaître uniquement par le bouche à oreille. Nous avons gagné à peu près un quart de million de voix, 50 000 membres, 17 000 activistes, par le bouche à oreille, conversation après conversation, collègue, parent, étudiant, un par un, en trois ans. »

« C’est, je crois, la meilleure preuve que c’est possible. Vous n’êtes plus dépendants des médias traditionnels. Si vous avez un message fort et que les gens s’y reconnaissent, vous pouvez y arriver. »

Notes

[1] Crédit photos : 1. Ann Catrin Brockman (Creative Commons By-Sa) 2. Cybriks (Creative Commons By)




Projet Shtooka – Interview de Nicolas Vion

Cesarastudillo - CC byDans l’expression Rencontres Mondiales du Logiciel Libre, il y a le mot rencontre. Et c’est ainsi que nous avons fait connaissance avec Nicolas Vion, fondateur du fort intéressant Projet Shtooka qu’il nous a semblé judicieux de mettre en avant sur ce blog à la faveur de cette courte interview.

L’objectif du projet vise la création de matériel audio libre pour l’apprentissage des langues étrangères en mettant en place un ensemble de collections sonores de mots et expressions telle la base audio libre de mots français (cf démo en ligne) ainsi que les outils logiciels capables d’en tirer parti. Outre le français, on trouve aussi des corpus pour d’autres langues telles que le russe, l’ukrainien, le biélorusse, le wolof, le tchèque ou le chinois[1].

Un entretien réalisé par Emmanuel Poirier (alias LeBidibule) pour Framasoft.


Bonjour Nicolas, je vais te demander de te présenter.

Je m’appelle Nicolas Vion, je m’intéresse depuis quelques années aux langues slaves. Après une licence de russe, je suis actuellement en licence d’ukrainien et travaille comme développeur système. Je m’occupe du Projet Shtooka depuis son origine.

En quoi consiste ton projet ?

Le projet Shtooka consiste à enregistrer des collections audio libres de mots, d’expressions idiomatiques et d’éléments du langage avec des locuteurs natifs pour toutes les langues.

C’est aussi un ensemble de logiciels permettant d’enregistrer, d’organiser et d’exploiter ces collections. Cela permet, par exemple, d’ajouter l’audio dans des dictionnaires électroniques (les fichiers sont d’ores et déjà utilisés pour le Wiktionnaire), mais aussi de faciliter l’apprentissage du vocabulaire d’une langue étrangère en se faisant des fiches de vocabulaire audio à l’aide d’outils comme le Kit Shtooka (ou bientôt les SWAC Tools) et ainsi de réviser son vocabulaire à l’aide d’un baladeur MP3 ou Ogg Vorbis en baladodiffusion. Il est également possible de créer à partir de ces fiches de vocabulaire des activités pédagogiques au format JClic pour les plus petits…

Au delà de l’aspect pédagogique, ces collections représentent, à mon sens, un intérêt linguistiques et scientifique en regroupant en un ensemble cohérent un tel matériel audio qui, je pense, comptera à l’avenir.

Depuis quelque temps, le Projet Shtooka s’est monté en association, ce qui a permis au projet de s’agrandir un peu. Nous sommes aujourd’hui environ quatre personnes actives dans le projet, de plus cela va nous permettre de contacter différents organismes en tant qu’association.

Quelles est la différence entre le Kit Shtooka et les SWAC Tools ?

Le Kit Shtooka, qui est un ensemble de programmes pour Microsoft Windows (mais qui marche aussi sous GNU/Linux avec Wine), est en quelque sorte l’héritier du petit programme à l’origine du projet. Ce petit programme était une sorte de «bidouille» que j’avais écrit pour mes besoins personnels alors que je me trouvais en Russie, où les connexions Internet ne sont pas forcément bon marché. Aussi, j’ai trouvé un CD de Delphi et ai donc commencé à coder pour cet environnement.

Le Kit Shtooka est en fait issu d’une refonte de ce programme originel. Il est mûr et utilisable, l’ayant moi-même utilisé au cours de mes études de Russe, mais des limitations sont apparues liées au choix techniques initiaux… Il y a maintenant un an j’ai commencé un travail de ré-écriture du Kit Shtooka en C++ et utilisant des libraires standards telles que GTK+ et QT, ce qui permet une meilleure portabilité entre plate-formes et une plus grande modularité.

A l’heure actuelle, si le Kit Shtooka est pleinement utilisable, les SWAC Tools sont encore assez jeunes et d’utilisation plutôt difficile (NdR : il manque notamment le logiciel d’enregistrement, le logiciel exerciseur « Repeat ») mais devraient à terme remplacer les vieux outils. C’est en quelque sorte la nouvelle génération du Kit Shtooka.

Quand as-tu pensé à utiliser des licences libres pour vos productions et vos logiciels ?

A l’origine, je n’imaginais pas qu’il serait aussi facile d’enregistrer la prononciation d’autant de mots. Tout a commencé par intérêt personnel. Je faisais enregistrer la prononciation de mots russes par mes amis afin de me faciliter l’apprentissage du vocabulaire, sans penser à la licence de ces enregistrements.

Au bout d’un an, je me suis rendu compte que je disposais d’un corpus important (NdR : mais inutilisable pour le futur projet, faute d’accord avec les locuteurs de l’époque), et j’ai pensé faire une base de mots audio en français afin d’aider des professeurs de français FLE (Français Langue Étrangère), ou encore pour les étudiants en auto-apprentissage.

C’est au cours de ces enregistrements que j’ai amélioré la technique d’enregistrement (grâce à quelques modifications de l’interface, je pouvais désormais enregistrer plus de 1500 mots de suite sans me fatiguer). J’ai alors décidé de diffuser cette première collection qui regroupait plus de 7000 enregistrements sur une site Internet sous une licence libre (la Creative Commons By) et un ami m’a soufflé l’idée de faire une dépêche sur le site d’information LinuxFr.

Très vite, j’ai été contacté par Eric Streit qui était enthousiasmé par le projet et qui a rapidement enregistré une collection de mots russes avec sa femme originaire du Kazakhstan. Un ami chinois m’a également permis de réaliser le corpus chinois : le projet Shtooka était bel et bien lancé.

À mon sens, la licence libre s’imposait car c’était la seule façon de permettre la créativité. En effet, on ne peut imaginer soi-même toutes les applications possibles à partir d’une telle « matière première » sonore.

Enfin en voulant proposer mon outil d’enregistrement à des contributeurs du projet Wiktionnaire (entre autre Betsy Megas) j’ai eu à ré-écire cet outil, pour en faire un programme séparé, plus facile à utiliser. Cela m’a permis par la même occasion de formaliser la façon des stocker les informations sur les mots enregistrés et les locuteurs, et ai proposé l’adoption des « SWAC Metatags ». En effet, s’il est possible d’enregistrer dans les fichiers audio Ogg Vorbis des informations pour les collections musicales (nom de l’album, nom de la chanson, style de musique) les « SWAC Metatags » permettent de faire la même chose avec les collections linguistiques grâce à une quarantaine de champs d’information : nom du locuteur, sa langue maternelle, région d’origine…

Avez-vous eu beaucoup de retours jusqu’alors ?

Jusqu’à présent, les retours d’expérience ont été peu nombreux; mais je remercie les personnes, notamment les professeurs de Langues Vivantes qui ont permis de faire évoluer le logiciel, et faire remonter les problèmes liés à la formation de l’outil.

Il est vrai que l’outil a été plus pensé pour des apprenants autonomes que pour des professeurs. Les RMLL 2009 ont d’ailleurs été l’occasion de rencontrer des gens d’autres projets qui utilisent nos collections. Nous avons également pris contact avec des libristes marocains qui ont l’intention de développer le Projet Shtooka dans leur pays (nous avons d’ailleurs pu enregistrer avec eux une petite collection de mots arabes durant les RMLL).

Quelles sont les aides que l’on peut vous apporter si l’on souhaite participer au projet ?

Les aides sont les bienvenues !

Tout d’abord, si l’on a des compétences pour une langue en particulier, il est possible de créer des listes de mots et expressions qui serviront lors de sessions d’enregistrements avec un locuteur natif. Pour cela il suffit de rassembler les éléments à enregistrer dans un simple fichier texte. Pour ce travail il faut quand même avoir une bonne connaissance de la langue en question : par exemple, pour le corpus français, se pose la question : faut-il prononcer les substantifs avec ou sans article ? Si oui, lesquels : définis ou indéfinis ? Pour d’autres langues se pose le problème des déclinaisons, du déplacement des accents toniques, des mutations, ou encore des cas d’homographie… Ce travail préparatoire peut être fait par un professeur, mais aussi par un apprenant.


Ensuite vous pouvez participer au projet en tant que « locuteur natif » de votre langue maternelle en enregistrant des mots ou expressions. Ceci-dit, il est important d’avoir un matériel d’enregistrement de qualité convenable, quelques connaissances sur la prise de son avec un ordinateur, et de disposer d’un endroit calme. Le logiciel d’enregistrement est très pratique et permet d’enregistrer plus de 1000 mots par heure. Ici, la communauté Shtooka peut aider (dans la mesure du possible) en trouvant le matériel, en organisant l’enregistrement…

Les professeurs de langues peuvent également nous aider en proposant des listes de vocabulaire bilingues organisées par thèmes ou par leçons, car en fait chaque collection audio est indépendante. De même, tous les travaux dérivés (exercices interactifs, imagiers pour les écoles primaires…) sont intéressants et bienvenus, et peuvent donner des idées pour compléter les collections audio.

Si vous êtes développeur C++ (ou autre) vous pouvez aider au développement des nos logiciels. Les développeurs Web et les graphistes peuvent nous donner un coup de main sur le site Internet…

Globalement, nous cherchons des aides ponctuelles mais aussi dans la durée. Il nous faudrait, par exemple, des personnes pour s’occuper du développement de telle ou telle langue (au passage, nous aurions besoin de quelqu’un qui puisse s’occuper de la collection espagnole), alors n’hésitez pas !

Notes

[1] Crédit photo : Cesarastudillo (Creative Commons By)