CaRMetal : Entretien avec Eric Hakenholz

CaRMetal - Copie d'écranCaRMetal est un excellent logiciel éducatif de géométrie dynamique. CaRMetal est un logiciel libre (sinon d’ailleurs il n’aurait jamais vu le jour puisqu’il est directement issu du code source d’un autre logiciel libre). CaRMetal est développé et maintenu par un professeur de mathématiques français fort expérimenté qui a des choses à dire.

Autant de bonnes raisons de rencontrer Eric Hakenholz pour un entretien témoignage riche et intéressant.

Remarque : Le Framablog poursuit ici sa série de mises en valeur et en lumière de projets éducatifs libres et de ceux qui les portent.

Entretien avec Eric Hakenholz

Eric bonjour, une rapide présentation personnelle ?

Je suis professeur de mathématiques depuis 1989. J’ai passé mes deux premières années d’enseignement dans une école française installée dans un lycée public australien (Melbourne). Grâce à ce poste d’enseignant, j’ai eu la chance de pouvoir travailler dès 89 dans un environnement très informatisé et d’être témoin de nombreuses pratiques pédagogiques liées à l’utilisation du réseau (les nombreux Mac Plus de l’établissement étaient tous interconnectés). J’ai programmé là-bas mon premier logiciel Mac : un traceur de courbes et de surfaces, dont l’interface paraîtrait aujourd’hui bien désuète.

J’ai passé ensuite douze années dans l’académie de la Réunion, où j’ai « milité » pour l’utilisation du logiciel Cabri-Géomètre par le biais de formations et de publications (sites, journal bimestriel abraCAdaBRI, développement de l’utilitaire Cabri File Exchange). En 2004, en arrivant dans l’académie de Toulouse, j’ai cherché s’il existait un autre logiciel de géométrie dynamique, libre et gratuit cette fois-ci, qui puisse rivaliser avec la puissance et la pertinence de Cabri : j’ai découvert cette année-là le logiciel C.a.R. (Compass and Ruler).

Qu’est-ce que le logiciel CaRMetal ?

C’est un logiciel de géométrie dynamique, un environnement qui permet notamment d’explorer de manière interactive les propriétés géométriques des figures. Dans ce type de logiciel, les utilisateurs peuvent effectuer des constructions géométriques et déplacer les objets sur lesquels se basent la construction.

Pendant ces déplacements les propriétés sont conservées, et de nombreuses constatations peuvent surgir à ce moment-là : le simple mouvement des figures permet de mettre en évidence de nombreuses propriétés géométriques qui seraient passées inaperçues dans un environnement papier-crayon.

CaRMetal - Copie d'écran

Lorsque j’ai découvert le logiciel C.a.R. de René Grothmann en 2004, je me suis aperçu qu’il contenait de nombreuses fonctionnalités très originales, avec une gestion très pointue des macro-constructions (possibilité de se créer des outils à partir de ceux déjà existants). Cependant, malgré tout l’émerveillement que me procurait la découverte des possibilités de C.a.R., je gardais un oeil assez critique sur la façon d’accéder aux fonctionnalités, sur l’interface utilisateur.

CaRMetal au départ (février 2006) était juste un « TP » motivé par mon envie d’apprendre le langage java. Mes années de programmation en Pascal et en C m’ont amené petit à petit à vouloir changer pour un langage objet multi-plateforme, sur un code qui puisse être exécuté aussi bien sur GNU/Linux, Macintosh ou Windows. Les sources du logiciel C.a.R., écrits en Java par un programmeur clair, rigoureux et doué, ont rempli à merveille leur rôle de tuteur pendant mes deux premiers mois d’apprentissage. Le but que je m’étais fixé au départ était de reprendre les algorithmes mathématiques de C.a.R. et de les installer dans une interface neuve, intuitive, et toute en manipulation directe. Les choses sont allées plus vite que je ne le pensais, et les premiers résultats m’ont encouragé à changer d’optique : ce qui n’était qu’un TP est rapidement devenu un vrai projet, que j’ai décidé de publier sur Internet et de mettre à jour régulièrement.

On développe aujourd’hui des interfaces avec le soucis de donner une réponse immédiate à l’action de l’utilisateur : on s’aperçoit qu’il est presque toujours possible, avec des efforts de programmation supplémentaires, de supprimer toute situation bloquante (comme un dialogue avec boutons ok ou appliquer) ou toute situation qui ralentirait l’action (comme l’obligation systématique de dérouler un menu et de chercher l’item). Développée dans ce sens, avec le soucis d’une organisation claire et rationnelle des outils, une interface graphique permet de travailler d’une façon beaucoup plus fluide, avec un gain de temps très sensible, et une impression de liberté pour l’utilisateur qui s’en trouve nettement améliorée.

C’est avec l’objectif de produire un logiciel qui réponde un peu à ces critères que j’ai programmé CaRMetal : les seules boîtes à dialogues qui existent sont celles relatives à l’enregistrement et l’ouverture des fichiers. En phase de construction ou d’édition des objets, aucun menu n’est à dérouler, l’accès aux fonctionnalités est sans étape intermédiaire et les modifications apportées à l’aspect des objets sont visibles immédiatement dans la fenêtre de travail.

Jusqu’en décembre 2007, je suivais de très près l’évolution du logiciel C.a.R. en incluant dans CaRMetal, version après version, les modifications que René apportait à son « moteur mathématique ». Mais à partir de cette date j’ai souhaité mettre la main sous le capot algorithmique, ce qui nécessitait l’abandon du copier-coller de C.a.R. vers CaRMetal, et plusieurs dizaines de fonctionnalités qui me tenaient particulièrement à coeur ont ainsi pu voir le jour.

CaRMetal - Copie d'écran

En quoi se distingue-il des autres logiciels de la catégorie ? Je pense en particulier à Geogebra lui aussi libre et sous Java.

L’interface utilisateur de CaRMetal se distingue de celle des autres logiciels pour toutes les raisons évoquées précédemment. Certains utilisateurs me disent aussi que, pour leurs élèves, les retours vidéos systématiques ainsi que le caractère graphique des palettes et de l’inspecteur rend pratiquement nul le temps de prise en main du logiciel. D’autres, en général des adultes habitués à des logiciels différents, disent que l’absence de menus-boutons classés par types d’objets les perturbent : je laisse donc le soin aux utilisateurs de se faire leur propre opinion !

Bien sûr il y a de nombreuses fonctionnalités originales qui ne se retrouvent que dans CaRMetal, mais dire uniquement ceci serait oublier un peu trop vite que c’est aussi le cas pour d’autres logiciels de géométrie dynamique, comme Geogebra (je pense notamment à sa récente fonctionnalité « tableur » qui ne se retrouve nulle part ailleurs, du moins dans une forme très proche de celle des tableurs).

Comparer les fonctionnalités est un exercice assez subjectif : chacun peut faire son propre tableau avec en ligne le nom des logiciels, en colonne ses propres fonctionnalités, et ainsi faire apparaître une belle et unique ligne entièrement cochée… Je préfère de loin m’intéresser à l’ergonomie et l’expérience utilisateur, mais je vais tout de même essayer de faire une liste non exhaustive de quelques fonctionnalités "exotiques" de CaRMetal :

  • Les diaporamas : CaRMetal peut transformer automatiquement (en un seul clic comme disent les commerciaux) un dossier contenant des figures en un mini site web. En cliquant sur les liens de la page générée, on charge des applets qui correspondent à chacune des figures.
  • Les objets magnétiques : Cela permet notamment de créer un point sur plusieurs objets ou un point tout simplement attiré par un ensemble d’objets, conformément à une zone d’attraction définie en pixels par l’utilisateur.
  • Les contrôles systèmes : on peut inclure dans la figure des curseurs systèmes, des menus déroulants, des boîtes à cocher, des boîtes d’entrées numériques et des boutons poussoir.
  • Le JavaScript : un éditeur graphique permet de créer des scripts utilisant l’intégralité du langage javascript, enrichi de commandes liées à la pratique de la géométrie dynamique. Le logiciel permet de lancer un script et de l’annuler dans une figure.
  • Attribution automatique des noms de points : avec un tableau numérique interactif, il est assez gênant d’avoir à utiliser le clavier. Un dispositif d’attribution de noms permet de sélectionner à la volée et au stylet les noms qu’on veut donner aux objets.
  • Le mode « tableau numérique interactif » (TNI) : un stylet sur un tableau interactif ne se comporte pas tout à fait comme une souris. On perd la notion de mouse over et par conséquent bon nombre d’informations que donne la souris lors du survol d’objets d’intérêts (retours vidéos). Va-t-on par exemple, en cliquant, créer un point à une intersection, ou va-t-on louper sa cible et créer un point libre à côté ? En mode TNI, un cliquer-glisser équivaut à un survol de souris, et un lâché de stylet correspond à un clic de souris. Dans ce mode, sur un tableau interactif, on garde le même confort visuel et la même précision que lorsqu’on construit à la souris.
  • Les exercices : le formateur peut créer une construction-exercice avec comme objectif de faire construire un objet-cible (un orthocentre par exemple). L’élève doit effectuer la construction et s’il la réussit correctement, le message bravo ! apparaît. Dans ce type de figure c’est le logiciel lui-même qui s’assure que le travail a été effectué sans erreur.

CaRMetal dérive du logiciel C.a.R. (Compass and Ruler) développé par un professeur allemand. C’est parce que ce dernier était un logiciel libre que vous avez pu récupérer les sources et le modifier pour l’adapter à vos besoin. Que cela vous inspire-t-il ?

Certains informaticiens qui vivent en free-lance de leurs productions n’ont pas envie de produire des algorithmes ouverts, de peur que ce qu’ils programment ne soit immédiatement repris et vendu par d’autres. De peur finalement que le bénéfice de leurs travaux, pour lesquels ils ont dépensé beaucoup d’énergie et monopolisé beaucoup de connaissances, aillent dans une autre poche que la leur. Même si je ne fais pas partie de ce monde-là, je peux comprendre cette démarche de protection, par fermeture, dans des secteurs pointus dominés par les majors, les requins et la course au profit. Je préfère de très loin cette démarche cohérente à celle de nombreuses boîtes informatiques entièrement habillées chez Microsoft, et qui d’un autre côté ne jurent que par l’open source, en utilisant abondamment ce label dans le seul but de faire du dollars à grands coups de copier-coller. Concernant l’open source, les choses ne sont donc pas si simples et si manichéennes…

C.a.R. est un logiciel libre, et pas seulement open source : il est sous licence GNU-GPL et par conséquent CaRMetal l’est aussi. René Grothmann, le concepteur de C.a.R., a développé son logiciel dans une démarche d’ouverture et de partage : le véritable esprit du libre est-là, dans un comportement plus éthique et moral que purement technique. Reprendre les sources de René, les adapter suivant mes préférences, ajouter de nouvelles fonctionnalités m’a permis de créer un autre logiciel, qui a son tour peut être repris, et amélioré dans le même esprit.

L’idée du libre me fait penser au chanteur folk américain Woody Guthrie, qui, prenant le contre-pied des copyrights déjà en vogue à son époque, écrivait ceci en 1930 dans un recueil de chansons : This song is Copyrighted in U.S., under Seal of Copyright #154085, for a period of 28 years, and anybody caught singin’ it without our permission, will be mighty good friends of ourn, cause we don’t give a dern. Publish it. Write it. Sing it. Swing to it. Yodel it. We wrote it, that’s all we wanted to do.

Rares sont les enseignants développeurs de logiciels libres, êtes-vous reconnu et soutenu par l’Institution ? Est-ce important pour vous ?


N’ayant jamais aimé jouer les commerciaux, je n’ai jamais rien demandé à personne pendant ces quatre années de développement. C’est peut-être la raison pour laquelle je n’ai jamais eu aucun soutien, aucune reconnaissance de la part de ma hiérarchie institutionnelle ici, dans l’académie de Toulouse.

Lorsque je lis par exemple des présentations de CaRMetal comme celle mise en ligne par l’académie de Poitier, cela me fait bien évidemment plaisir, et je ne cacherai pas qu’une petite reconnaissance du travail effectué, par ma hiérarchie toulousaine, me paraîtrait bien sympathique. Développer un logiciel comme celui-ci prend beaucoup de temps, et le temps n’est pas extensible… Pour la petite histoire, en dehors de mes 19h00 de cours hebdomadaire, il m’a été reproché l’an dernier de ne pas avoir voulu m’investir et participer à la vie informatique de mon établissement, comme personne ressource. Si l’absence de reconnaissance de ma hiérarchie locale n’est pour moi qu’un petit regret, ce genre de reproche-là, par contre, fait plutôt du mal.

Hors institution par contre, l’encouragement est très présent, avec des articles récents comme celui publié sur le portail des IREMs (Institut de Recherche sur l’Enseignement des Mathématiques), ou par exemple les travaux réalisés par l’IREM de La Réunion. L’IREM de Toulouse m’a contacté très tôt, en 2007, pour savoir si je voulais intervenir dans ses stages « Enseigner les maths au collège » et c’est avec grand plaisir que j’ai accepté, et que je donne dans ce cadre-là quelques heures de formation par an. Tout ce qui est écrit aussi au sujet de CaRMetal dans le monde du logiciel libre me donne bien sûr l’envie de continuer !

Que pensez-vous du label RIP et de l’initiative SIALLE visant à promouvoir le logiciel libre dans l’éducation ?


Sans même parler des critères d’attribution de ce label RIP (Reconnu d’Intérêt Pédagogique), on peut se demander si les enseignants ont vraiment besoin qu’on leur indique quelles ressources sont intéressantes pour eux, avec comme corollaire possible que les autres ne le sont pas. Une ressource pédagogique n’étant pas tout à fait comparable à un poulet sous cellophane, j’ai toujours été assez réservé sur la nécessité de labelliser quoi que ce soit dans notre métier d’enseignant. Pour bénéficier de ce label, il faut le demander, et ce n’est peut-être pas dans la culture de tous les développeurs libres du monde éducatif. Cependant, je n’irai pas jusqu’à affirmer que c’est pour cela que presque aucun logiciel libre n’est classé RIP !

Je n’ai jamais demandé le label RIP pour CaRMetal, qui ne fait donc pas partie de la liste : on constate par contre que cela convient tout à fait aux sociétés privées de e-learning qui cherchent à se faire estampiller leurs animations flash, et qui, par les temps qui courent, y arrivent plutôt bien.

Je vois par contre d’un tout autre oeil l’initiative SIALLE, qui montre que l’idée du libre fait aussi son chemin dans l’Education Nationale, même si tout cela reste très timide. C’est pour cette raison-là que lorsqu’on m’a contacté il y a deux ans pour faire partie de cette base de logiciels, j’ai donné mon accord immédiatement. Je regrette un peu l’aspect rigide de la base de données, avec des classements par étoiles qui ne sont issus en général que d’un ou deux avis, mais il reste que cette initiative a le mérite d’exister et qu’il faut l’encourager, et faire en sorte qu’elle prenne plus d’importance.

En mathématiques, il y a l’incontournable et très libre association Sésamath. Participez-vous, de près ou de loin, à ses travaux ?

Non, et c’est un de mes grands regrets… J’ai participé il y a trois ans, avec l’équipe de développeurs de mathenpoche, à une réunion qui s’était fixée pour objectif de jeter les bases du Labomep à venir. J’aurai dû continuer à collaborer sur ce projet avec ces collègues sympas et talentueux, mais je suis resté "en solo" sur CaRMetal, en ne traitant que l’infinie liste des choses à faire pour ce logiciel… On n’a qu’une vie et c’est dommage ! Je suis par contre, dans ma pratique pédagogique, un utilisateur très assidu de toutes les productions de cette association : les manuels, les démos, Mathenpoche, Sesaprofs, eBep’s etc.

Sésamath est un formidable ballon d’oxygène au milieu d’un monde de brutes. Je ne prendrai qu’un seul exemple, que je souhaite détailler : celui des manuels numériques. A l’occasion des nouveaux programmes de sixième estampillés « manuels numériques », les enseignants ont reçu en fin d’année dernière de nombreux spécimens, avec du Bordas, du Nathan, du Hachette et du Hatier comme s’il en pleuvait. Rien de très nouveau dans cette avalanche de papier glacé, mise à part la possibilité de vidéo-projeter le manuel. Il n’y a souvent aucune interactivité véritable dans les documents proposés : juste du texte, des images, et l’idée véhiculée qu’avec tout ça, on allait enfin pouvoir se sentir dans le vent.

Les choses se compliquent lorsque l’enseignant veut installer pour lui et pour sa classe les manuels numériques en question :

  • On commence par la case tiroir-caisse avec en moyenne 5,50€ par élève, si on a bien sûr déjà payé les 20€ par élève du manuel papier. Ceux qui souhaitent étudier de près les grilles de tarification des éditeurs, peuvent cliquer ici pour visualiser l’exemple de l’offre de la maison Hachette.
  • On part sur un site portail (KNE) pour télécharger son manuel, avec les codes d’accès achetés par l’établissement.
  • On installe une application nommée delivery (logiciel utilisé pour les ventes de magazines en ligne) qui a pour fonction de télécharger, lire, et cadenasser la ressource par l’utilisation d’un format propriétaire (.dly).

Pour un enseignant donné, le manuel ne s’installe qu’une seule fois, avec à la limite une autre installation possible sur une clé USB. Si cela vous rappelle quelque chose, c’est normal : il s’agit bien de DRMs appliquées à l’Education Nationale. J’allais oublier de signaler que l’installation de ces manuels numériques, quand on y arrive (de nombreux collègues rencontrent de grosses difficultés techniques pendant cette phase), ne peut se faire que sur windows ou mac. Amis linuxiens, bonjour. Les collègues qui ont opté pour le manuel sesamath 6e (mais aussi les autres !) peuvent aller librement sur le site, téléchargent sans code d’accès ce qu’ils veulent, d’où ils veulent, sous format pdf ou OpenOffice.org, le modifient comme ils le souhaitent, utilisent les démos interactives des chapitres, le site Mathenpoche, ainsi que tous les formidables outils produits par cette association.

Sésamath, c’est le choix de la pertinence et de la sérénité, très loin des contraintes, des contorsions techniques et des interdits que veulent nous imposer les marchands du temple par le biais de leurs relais institutionnels.

La situation du logiciel libre à l’école : excellente, bonne, peut mieux faire ?

Peut beaucoup mieux faire bien entendu… J’attends impatiemment que l’institution se mette enfin à étudier sérieusement les alternatives libres, mais avec des exemples récents comme celui des manuels numériques, on peut se dire qu’il y a encore beaucoup de travail à faire de ce côté-là.

Il serait pourtant possible d’imaginer des établissements entièrement équipés de clients linux sur les réseaux pédagogiques : l’offre logicielle, ainsi que la simplicité d’installation et d’utilisation des nouvelles distributions le permettrait dès maintenant. Il manque juste, pour se faire, une évolution des mentalités des acteurs du monde éducatif, et je ne parle pas que de l’institution : beaucoup de collègues, qui ne se sentent pas en confiance avec l’outil informatique, sont encore très attachés au système windows qui leur a été livré en standard avec leur machine. Je peux comprendre cela et je ne critique pas : je pense juste que la situation du logiciel libre à l’école va sûrement évoluer, mais pas aussi rapidement qu’on pourrait le croire…

Que manque-t-il à CarMetal selon vous et quels sont les améliorations que vous aimeriez voir figurer dans les prochaines versions ?

CaRMetal est un logiciel de géométrie plane qui simule assez bien la 3D, mais il lui manque certaines fonctionnalités pour qu’on puisse directement construire et manipuler des objets dans l’espace : c’est sur cette question-là que je travaille en ce moment, et une version qui véritablement 3D devrait voir le jour d’ici décembre.

Une autre amélioration en vue : le multi-fenêtrage de l’application devrait être remplacé, dans un avenir proche, par une navigation par onglets qui permettra un accès plus simple aux figures.

CaRMetal - Copie d'écran




La liberté ambigüe du paramétrage par défaut

Manuel Cernuda - CC byMon lycée a, depuis un certain temps déjà, opté pour un déploiement massif de la suite bureautique libre OpenOffice.org. Sauf que notre informaticien l’installe sur les postes en modifiant systématiquement l’option du format d’enregistrement « par défaut », substituant au format natif et ouvert ODF la famille de formats fermés bien connus de la suite Microsoft Office (le .DOC pour Word, le .XLS pour Excel et le .PPT pour Powerpoint).

Et lorsque je lui signifie, outré, mon mécontentement, il me répond qu’il convient de ne surtout pas perturber les enseignants, qui ont tous MS Office chez eux, et qui sont habitués à travailler dessus depuis des années (« Tu comprends, sinon ils vont rentrer à la maison avec leurs fichiers ODF dans leur clé, cliquer dessus pour ouvrir le document et… ça va être le bordel parce qu’aucune application ne sera trouvée par le système. Ils vont râler, m’assaillir de questions et c’est bibi qui assurera la hotline ! »).

Et c’est ainsi que l’on passe à côté de toute la problématique des formats (excellente porte d’entrée pour engager une discussion plus générale sur « le libre »). En tirant un peu le trait, on pourrait presque dire que l’on ne réalise finalement ici qu’une « fausse » migration, ou tout du moins que l’on s’est arrêté au milieu du chemin.

Fin de l’anecdote qui n’avait pour but que d’introduire le sujet (et la traduction) du jour : le paramétrage par défaut.

Lorsqu’on découvre un logiciel (ou carrément un système d’exploitation) pour la première fois, un certain nombre de choix ont été réalisés pour nous, afin, en théorie, de nous faciliter la tâche pour que nous soyons de suite opérationnels. Mais ces choix ne sont pas forcément neutres. D’abord parce que nous sommes tous différents (« l’utilisateur lambda » n’existe pas). Mais aussi, voire surtout, parce que nous savons fort bien qu’une forte majorité d’utilisateurs, pour de multiples raisons (inertie, crainte…) ne modifieront jamais ces options de démarrage.

Vous êtes un utilisateur désormais aguerri de GNU/Linux. Vous avez choisi votre distribution (Ubuntu, Mandriva, Fedora…), vous avez choisi votre environnement graphique (GNOME, KDE…), vous avez configuré le tout aux petits oignons en rivalisant d’esthétisme et d’ergonomie pour vous offrir un magnifique bureau personnalisé (illustration[1]). Vous naviguez sur un Firefox bourré d’extensions toutes plus utiles les unes que les autres eu égard à vos propres besoins et intérêts… Alors, félicitations, vous baignez dans l’univers culturel numérique de la richesse, de la diversité et de l’autonomie. Vous y êtes même tellement habitué que vous avez certainement oublié le nombre de paramétrages par défaut qu’il vous aura fallu lever pour arriver à cette situation qui est la vôtre aujourd’hui.

Parce que votre univers est malheureusement passablement éloigné de celui de Madame Michu (qui, je suis d’accord, n’existe pas non plus). Elle a acheté un ordinateur avec « par défaut » Windows à l’intérieur, dans lequel se trouvait « par défaut » Internet Explorer (page d’accueil Microsoft, Google ou FAI, inchangée), Outlook Express, Windows Media Player etc. et elle s’y tient. Elle s’y cramponne même, en résistant dur comme fer si jamais on s’en vient lui montrer, avec pourtant moultes précautions, qu’un « autre monde informatique est possible » (dans ce contexte là j’en arrive même parfois à me demander, un brin provocateur, si ce n’est pas « l’utilisateur par défaut » qu’il convient de paramétrer plutôt que ses logiciels !). C’est frustrant et dommage, parce que si il y a paramétrage par défaut, cela signifie également qu’il y a liberté de changer ces paramètres. Comme dirait l’autre, la liberté ne s’use que si l’on ne s’en sert pas…

Mais je m’égare, puisqu’il s’agissait juste de présenter l’article ci-dessous qui, bien que ne se souciant nullement des conséquences du paramétrage par défaut sur le logiciel libre, nous offre ici un exposé original et intéressant.

Remarque (à la lisière du troll) : C’est peut-être aussi là que réside le succès d’Ubuntu, dont la relative absence de choix à l’installation (un seul bureau, un seul logiciel par application, etc.) a grandement rassuré les nouveaux venus issus de Windows. De là à affirmer qu’Ubuntu est devenue « la distribution par défaut de l’OS GNU/Linux », il n’y a qu’un pas que je me garderais bien de franchir 😉

Le triomphe du « par défaut »

Triumph of the Default

Kevin Kelly – 22 juin 2009 – The Technium
(Traduction Framalang : Olivier et Julien R.)

Peu reconnu, le « par défaut » est l’une des plus grandes inventions de l’ère moderne. « Par défaut » est un concept technique introduit par l’informatique dans les années 1960 pour désigner les réglages pré-sélectionnés (comme par exemple dans « Ce programme accepte par défaut les dates au format jj/mm/aa, et non jj/mm/aaaa »). De nos jours, la notion de réglage par défaut dépasse le simple cadre de l’informatique et s’est répandue dans la vie de tous les jours. Aussi insignifiant que cela puisse paraître, l’idée de réglage par défaut est fondamentale pour « The Technium » (NdT : le livre qu’est en train de rédiger l’auteur dont cet article fait partie).

Difficile de concevoir aujourd’hui une époque où le « par défaut » n’existait pas. Mais le « par défaut » n’a gagné en popularité qu’à mesure que l’informatique s’est démocratisée ; c’est l’héritage de systèmes technologiques complexes. Le « par défaut » n’existait pas sous l’ère industrielle. À l’aube de l’ère moderne, quand les ordinateurs plantaient souvent et qu’entrer les variables était un vrai calvaire, une valeur par défaut était la valeur que le système s’assignait automatiquement si le programme échouait ou s’il était démarré pour la première fois. C’était une idée brillante. Sauf si l’utilisateur ou un programmeur prenait la peine de le modifier, le réglage par défaut régnait, assurant ainsi que le système hôte fonctionne. Chaque produit électronique et chaque logiciel était livré dans sa configuration par défaut. Les réglages par défaut répondent aux normes attendues par les acheteurs (par exemple la tension des appareils électriques aux États-Unis), ou à ce qu’ils attendent d’un produit (les sous-titres désactivés pour les films), ou encore aux questions de bon sens (anti-virus activé). La plupart du temps les réglages par défaut satisfont les clients, et ils ont maintenant envahi tout ce qui est personnalisable : automobiles, assurances, réseaux, téléphones, assurance maladie, cartes de crédit, etc.

En effet, chaque objet contenant un tant soit peu d’intelligence informatique (c’est à dire tout équipement moderne) est paramétré par défaut. Ces présélections sont autant de partis pris implantés dans le gadget, le système ou l’institution. Mais les réglages par défaut ne sont pas que des hypothèses silencieuses matérialisées dans tout objet manufacturé. Par exemple, tous les outils manuels sont faits, par défaut, pour les droitiers. Faire l’hypothèse que l’utilisateur sera droitier étant simplement normal, pas besoin d’en faire étalage. De même, la forme des outils est généralement faite pour des mains d’hommes. Mais ça ne se limite pas qu’aux outils : les premières automobiles étaient construites sur l’hypothèse que le conducteur serait un homme. Pour toute chose manufacturée, le constructeur doit faire des hypothèses sur ses clients potentiels et leurs motivations ; ces hypothèses trouvent naturellement leur place aussi dans tout ce qui est technologique. Plus le système est vaste, plus le constructeur doit faire des hypothèses. En examinant attentivement une infrastructure technologique particulière vous pouvez deviner les hypothèses cachées dans sa conception. Ainsi, on retrouve dans des domaines aussi variés que le réseau électrique, le système ferroviaire, les autoroutes ou l’enseignement certaines caractéristiques du citoyen américain : optimisme, importance de l’individu et penchant pour le changement.

Mais, alors que ces choix arbitraires, communs à toutes les technologies, sont à bien des égards semblables au concept de « défaut », ce n’est plus vrai aujourd’hui et ce pour une raison essentielle : les réglages par défaut sont des hypothèses qui peuvent être modifiées. Vous ne pouvez pas adapter des outils faits pour les droitiers à l’usage des gauchers. À l’époque, l’hypothèse que le conducteur était un homme se retrouvait dans la position du siège dans les automobiles. En changer n’était pas simple. Mais ce que l’on ne pouvait faire hier est désormais permis par la technologie actuelle. En effet presque tous les systèmes technologiques d’aujourd’hui ont en commun la facilité à être rebranchés, modifiés, reprogrammés, adaptés et changés pour convenir à de nouveaux usages ou à de nouveaux utilisateurs. Beaucoup (pas toutes) des hypothèses faites ne sont pas immuables et définitives. La multiplication des paramètres par défauts et leur modularité offre aux utilisateurs un vrai choix, s’ils le désirent. Les technologies peuvent être adaptées à vos préférences et optimisées pour mieux vous correspondre.

L’inconvénient de toutes cette personnalisation, cependant, est qu’on se retrouve un peu noyé sous le choix. Trop d’alternatives et pas assez de temps (sans parler de l’envie) de toutes les tester. Ne vous-êtes vous pas déjà retrouvé paralysé par l’indécision devant les 99 variétés de moutardes sur les étalages du supermarché, ou devant les 2 536 options de votre assurance santé, ou encore devant les 36 000 coupes de cheveux différentes pour votre avatar dans un monde virtuel ? Il existe une solution toute simple à cette sur-abondance délirante de choix : les paramètres par défaut. Les « défauts » vous permettent de choisir quand choisir. Votre avatar par défaut pourrait pas exemple être un avatar quelconque, un gamin en jean par exemple. Vous pouvez vous soucier de la personnalisation plus tard. C’est un peu un choix guidé. Ces milliers de variables, de vrais choix, peuvent être guidés en optant pour un choix par défaut intelligent, un choix fait à notre place, mais qui ne nous prive pas de notre liberté de le changer dans le futur, à notre convenance. Mes libertés ne sont pas restreintes, mais sont étalées dans le temps. Quand je me sens plus à l’aise, je peux revenir sur mes préférences pour mieux les adapter, en ajouter ou en retirer, en changer ou les personnaliser. Dans les systèmes par défaut bien pensés, je conserve toujours mon entière liberté, mais les choses me sont présentées de telle sorte que je peux prendre mon temps pour faire mes choix, au fur et à mesure et quand je me sens mieux à même de les faire.

Comparez maintenant cette sur-abondance de choix à ce que vous propose un marteau, une automobile ou le réseau téléphonique des années 1950. L’utilisation de ces outils vous était imposée. Les meilleurs ingénieurs ont planché des années pour proposer une conception qui s’adapte le mieux à la majorité, de nos jours encore, certains sont des chef-d’œuvre d’ingéniosité. Si ces objets et infrastructures étaient peu modulables, ils étaient remarquablement conçus pour être utilisés par la majorité des personnes. Peut-être qu’aujourd’hui vous ne personnalisez pas plus votre téléphone qu’il y a cinquante ans, mais la possibilité existe. Et les options disponibles sont toujours plus nombreuses. Cette myriade de choix possibles reflète la nature adaptative des téléphones portables et des réseaux. Les choix s’offrent à vous quand vous faites appel à eux, ce qui n’était pas possible quand toutes les décisions étaient prises pour vous.

Les paramètres par défaut ont fait leur apparition dans le monde complexe de l’informatique et des réseaux de communication, mais il n’est pas ridicule pour autant d’envisager leur utilisation pour les marteaux, les voitures, les chaussures, les poignées de portes, etc. En rendant ces objets personnalisables, en y injectant une pincée de puces informatiques et de matériaux intelligents, nous leur ouvrons le monde des paramètres par défaut. Imaginez le manche d’un marteau qui se moulerait automatiquement pour s’adapter à votre prise en main de gaucher, ou à la main d’une femme. On peut très bien envisager d’entrer son genre, son âge, son expertise ou son environnement de travail directement dans les petits neurones du marteau. Si un tel marteau existait, il serait livré avec des paramètres par défauts pré-programmés.

Mais les paramètres par défauts sont tenaces. De nombreuses études psychologiques ont montré que le petit effort supplémentaire demandé pour modifier les paramètres par défaut est souvent de trop et les utilisateurs s’en tiennent aux pré-réglages, malgré la liberté qui leur est offerte. Ils ne prennent pas la peine de régler l’heure sur leur appareil photo, le « 12:00 » entré par défaut continue de clignoter, ou encore ils ne s’embettent pas à changer le mot de passe temporaire qui leur est attribué. La dure vérité, n’importe quel ingénieur vous le confirmera, est que souvent les paramètres par défaut restent inchangés. Prenez n’importe quel objet, 98 options sur 100 seront celles préconfigurées en usine. Je reconnais que, moi-même, j’ai très rarement touché aux options qui m’étaient offertes, je m’en suis tenu aux paramètres par défaut. J’utilise un Macintosh depuis le début, voilà plus de 25 ans, et je découvre encore des paramètres par défaut et des préférences dont je n’avais jamais entendu parler. Du point de vue de l’ingénieur, cette inertie est un signe de réussite, cela signifie que les paramètres par défaut sont bien choisis. Leurs produits sont utilisés sans beaucoup de personnalisation et leurs systèmes ronronnent doucement.

Décider d’une valeur par défaut est synonyme de puissance et d’influence. Les paramètres par défaut ne sont pas qu’un outil pour aider les utilisateurs à apprivoiser leurs options, c’est aussi un levier puissant dont disposent les fabricants, ceux qui décident de ces valeurs, pour diriger le système. Les orientations profondes que traduisent ces valeurs par défaut façonnent l’usage que l’on fait du système. Même le degré de liberté qui vous est accordé, avec les choix occasionnels que l’on vous demande de faire, est primordial. Tout bon vendeur sait ça. Ils agencent magasins et sites Web pour canaliser vos décisions et ainsi augmenter leurs ventes. Disons que vous laissez des étudiants affamés choisir leur dessert en premier plutôt qu’en dernier, cet ordre par défaut a une influence énorme sur leur nutrition.

Chaque rouage d’une technologie complexe, du langage de programmation, à l’aspect de l’interface utilisateur, en passant par la sélection de périphériques, renferme d’innombrables paramètres par défaut. L’accès est-il anonyme ? Les intentions des utilisateurs sont-elles bonnes ou mauvaises ? Les paramètres par défaut encouragent-ils l’échange ou le secret ? Les règles devraient-elles expirer à une période donnée ou le renouvellement est-il tacite ? Avec quelle facilité peut-on revenir sur une décision ? Telle décision devrait-elle être activée par défaut ou l’utilisateur doit-il la valider lui-même ? Rien que la combinaison de quatre ou cinq choix par défaut engendre des centaines de possibilités.

Prenez deux infrastructures technologiques, disons deux réseaux d’ordinateurs basés sur le même matériel et sur les mêmes logiciels. L’expérience sur les deux réseaux peut être complètement différente selon les options par défaut imposées. Leur influence est telle qu’on peut presque parler d’effet papillon. En modifiant légèrement un paramètre par défaut, on peut transformer des réseaux gigantesques. Par exemple, la plupart des plans épargne retraite, comme le plan « Corporate 401k », demandent des mensualités très basses, en partie parce qu’ils proposent un choix phénoménal d’options. L’économiste/comportementaliste Richard Thaler rapporte des expériences où les épargnants amélioraient nettement leur épargne lorsque les options étaient sélectionnées par défaut (« choix guidé »). Chacun avait la possiblité de résilier leur programme quand il le désirait et ils étaient libres de modifier leur contrat quand bon leur semblait. Mais le simple fait de passer de « souscription » à « inscription automatique » changeait complètement l’intérêt du système. On peut prendre également l’exemple du don d’organe. Si on déclarait que chacun est donneur à moins qu’il n’émette le souhait contraire, le nombre d’organes donnés augmenterait largement.

Chaque paramètre par défaut est un levier pour façonner le déploiement d’une innovation. L’élaboration d’une infrastructure à l’échelle d’un continent, par exemple, comme le réseau électrique 110V aux États-Unis, peut s’imposer à mesure qu’elle reçoit le soutien d’autres infrastructures (comme les générateurs diesels ou les lignes d’assemblage dans les usines). Ainsi il peut obtenir le suffrage nécessaire pour s’imposer face à une technologie pré-existante, mais à chaque nœud du réseau électrique se cache un paramètre par défaut. Tous ces petits choix par défaut définissent la nature du réseau, ouvert et évolutif mais plus fragile ou fermé et plus sûr. Chaque paramètre par défaut est un levier permettant de façonner le réseau, s’il peut s’accroître facilement ou pas, s’il accepte les sources de puissance non-conventionnelle ou pas, s’il est centralisé ou décentralisé… La technologie définit les systèmes technologiques, mais c’est à nous d’en établir la nature.

Aucun système n’est neutre. Chacun a ses options naturels. On dompte les choix en cascade engendrés par l’accélération de la technologie par petites touches, en adoptant nos propres options afin de les faire tendre vers nos objectifs communs, ce qui a pour conséquence d’augmenter la diversité, la complexité, la spécialisation, la sensibilité et la beauté.

Le « par défaut » nous rappelle également une autre vérité. Par définition, le « par défaut » entre en jeu lorsque nous — utilisateur, consommateur ou citoyen — ne faisons rien. Mais ne rien faire n’est pas neutre, car cela entraîne une option par défaut. Ce qui signifie que « ne pas faire de choix » est un choix lui-même. Il n’y a rien de neutre, même, ou surtout, dans l’absence d’action. Malgré ce que certains veulent bien nous faire croire, la technologie n’est jamais neutre. Même quand vous ne choisissez pas ce que vous en faites, un choix est fait. Un système s’orientera dans une direction plutôt qu’une autre selon que l’on agit ou non sur lui. Le mieux que l’on puisse faire est de lui donner la direction qui va dans notre sens.

Notes

[1] Crédit photo : Manuel Cernuda (Creative Commons By-Sa)




Fracture et solidarité numériques, par Jean-Pierre Archambault

Ferdinand Reus - CC by-saRien de tel pour aborder la rentrée scolaire qu’un excellent article de synthèse de notre ami Jean-Pierre Archambault qui réunit ici deux de ses sujets favoris : le logiciel libre et la place de l’informatique à l’école.

Il est intéressant de noter que l’auteur a associé dans le titre les termes « fracture » et « solidarité », sachant bien que le logiciel, les contenus et les formats libres et ouverts apportent non seulement une réponse au premier mais développent et favorisent le second[1].

Un article un peu long pour un format blog mais qui vaut le coup ! Pour vous donner un ordre d’idée il correspond à deux cents messages Twitter que l’on parcourerait en enfilade 😉

Fracture et solidarité numériques

URL d’origine du document

Jean-Pierre Archambault – septembre 2009 – Association EPI
Licence Creative Commons By-Nd


Le thème de la fracture numérique est solidement installé dans le paysage des débats sociétaux. La nécessité de la réduire prend des allures de consensus : acceptons-en l’augure. Une raison de fond à cela : la place sans cesse croissante de l’informatique dans tous les secteurs de la société, et les enjeux qui y correspondent. La fracture numérique ce sont les inégalités d’accès aux réseaux, aux contenus entre le Nord et le Sud, ainsi qu’au sein des pays développés. Ce sont aussi les inégalités en terme de maîtrise conceptuelle du numérique. Nous examinerons ces problématiques. Le libre, désormais composante à part entière de l’industrie informatique, a permis de constituer au plan mondial un bien commun informatique, accessible à tous. Nous verrons donc pourquoi il est intrinsèquement lié à la lutte contre la fracture numérique, et donc à la solidarité numérique, avec son approche, transposable pour une part à la production des autres biens informationnels, ses réponses en matière de droit d’auteur. Comme le sont également les formats et les standards ouverts. Et nous rappellerons que dans la société de la connaissance, la « matière grise » et l’éducation jouent, on le sait, un rôle décisif.

Le numérique partout

Le numérique est partout, dans la vie de tous les jours, au domicile de chacun, avec l’ordinateur personnel et l’accès à Internet ; dans l’entreprise où des systèmes de contrôle informatisés font fonctionner les processus industriels. Ses métiers, et ceux des télécommunications, occupent une place importante dans les services. On ne compte plus les objets matériels qui sont remplis de puces électroniques. Il y a relativement, et en valeur absolue, de plus en plus de biens informationnels. C’est l’informatique, pour ne prendre que ces exemples, qui a récemment fait faire de très spectaculaires progrès à l’imagerie médicale et qui permet ceux de la génétique. Elle modifie progressivement, et de manière irréversible, notre manière de poser et de résoudre les questions dans quasiment toutes les sciences expérimentales ou théoriques qui ne peuvent se concevoir aujourd’hui sans ordinateurs et réseaux. Elle change la manière dont nous voyons le monde et dont nous nous voyons nous-mêmes. L’informatique s’invite aussi au Parlement, ainsi on s’en souvient, en 2006, pour la transposition de la directive européenne sur les Droits d’auteur et les droits voisins dans la société de l’information (DADVSI), suscitant des débats complexes où exercice de la citoyenneté rimait avec technicité et culture scientifique. Et plus récemment avec la « loi Hadopi ».

La fracture numérique

On imagine sans peine que pareille omniprésence de l’informatique signifie des enjeux forts, économiques notamment. Que tous ne soient pas sur un pied d’égalité, loin s’en faut, face aux profondes mutations que le numérique engendre ne saurait a priori surprendre. Cela vaut, à plus ou moins grande échelle, pour tous les pays. Il y a beaucoup de fractures : sanitaires, alimentaires… Culturelles aussi. Ainsi concernant la maîtrise de sa langue maternelle. Ainsi la fracture mathématique, qui serait bien plus grave encore s’il n’y avait pas un enseignement de culture générale mathématique tout au long de la scolarité. Si l’interrogation sur « la poule et l’oeuf » est éternelle, on peut penser qu’« il est certain que la fracture numérique résulte des fractures sociales produites par les inégalités sur les plans économique, politique, social, culturel, entre les hommes et les femmes, les générations, les zones géographiques, etc. »[2].

Un problème d’accès

La fracture numérique tend à être perçue, d’abord et surtout, comme un problème d’accès : les recherches sur Internet avec son moteur préféré ne laissent aucun doute à ce sujet. Il y a ceux pour qui il est possible, facile de disposer d’ordinateurs connectés au réseau mondial, et les autres. C’est vrai pour le monde en général, et la France en particulier. En juin 2008, présentant « ordi 2.0 », plan anti-fracture numérique, Éric Besson rappelait qu’« être privé d’ordinateur aujourd’hui pour les publics fragiles, c’est être privé d’accès à l’information, à la culture, à l’éducation, aux services publics, donc être exposé à un risque accru de marginalisation ». Un premier volet de son plan, qui confirmait la possibilité prévue par la loi de finances 2008, permettait aux entreprises de donner leurs ordinateurs inutiles, mais en état de marche, à leurs salariés, sans charges sociales ni fiscales. Un deuxième volet visait à favoriser la création d’une filière nationale de reconditionnement, de redistribution et de retraitement des ordinateurs, ainsi que la mise en place d’un « label de confiance », garantissant un matériel en état de fonctionnement et vendu à très bas prix.

La fracture numérique a une dimension géographique. De ce point de vue, la question de l’accès égal aux réseaux est primordiale. Une politique d’aménagement du territoire ne peut que s’en préoccuper. Avec l’objectif de « démocratiser le numérique en accélérant le déploiement des infrastructures », la décision 49 du Rapport de la Commission pour la libération de la croissance française, sous la présidence de Jacques Attali[3], consistait en la « garantie d’une couverture numérique optimale en 2011 ». La décision 51, « faciliter l’accès de tous au réseau numérique » correspondait à l’objectif de réduire les fractures numériques, dont il était dit qu’« elles recouvrent la fracture sociale ». Elle proposait d’« accélérer le taux d’équipement en ordinateurs dans les foyers et TPE/PME avec un objectif d’équipement de 85 % en 2012, au moyen notamment de donations des PC usagés, de soutiens spécifiques aux étudiants, et microcrédit social ».

Pour le World Wide Web consortium qui, le 28 mai 2008, lançait un groupe d’intérêt web mobile pour le développement social (MW4D), « les technologies mobiles peuvent ouvrir aux plus pauvres des accès à des services d’informations essentiels comme les soins de santé, l’éducation, les services administratifs »[4].

L’accès à Internet, un bien commun

Le problème de l’accès est bien réel. De l’accès à Internet, tel qu’il a été créé et a fonctionné jusqu’à maintenant, et qu’il faut préserver. En effet, Internet est, en lui-même, un bien commun accessible à tous, une ressource sur laquelle n’importe quel usager a des droits, sans avoir à obtenir de permission de qui que ce soit. Son architecture est neutre et ouverte. Le « réseau des réseaux » constitue un point d’appui solide dans la lutte contre la fracture numérique[5].

Internet repose sur des standards ouverts de formats de données (HTML pour écrire des pages web) et de protocoles de communication (TCP/IP, HTTP). Il fonctionne à base de logiciels libres : Apache, SendMail, Linux… Il est donc impossible de verrouiller le réseau par la pratique du secret. Les logiciels libres contribuent à construire une plate-forme neutre. Ils la protègent par des licences comme la GPL et la diffusion du code source, garantissant aux développeurs qu’elle le restera dans l’avenir.

Les logiciels et les contenus numériques

Si l’accent est mis, à juste titre, sur la nécessité de disposer d’un ordinateur pour accéder au monde du numérique[6], les discours sont en général plus « discrets » sur le système d’exploitation. Or, sans système d’exploitation, que les acheteurs ont encore trop souvent l’impression de ne pas payer même lorsqu’il est « propriétaire », pas de machine qui fonctionne.

La fracture numérique, c’est aussi les inégalités d’accès aux logiciels et aux contenus, les régimes de propriété intellectuelle qui entravent leur circulation, leur production. Il y a désormais deux informatiques qui coexistent : libre et propriétaire. Des contenus numériques sous copyright mais aussi sous licences Creative Commons. Ces approches diffèrent sensiblement, sont quasiment antinomiques. Le débat sur leurs « mérites » respectifs, et les choix à opérer, se situe de plain-pied dans la problématique de la fracture numérique. Il peut arriver qu’il en soit absent, les deux « protagonistes » n’étant pas explicitement nommés. Cela étant, la Conférence « Repenser la fracture numérique » de l’Association for Learning Technology, dans une vision multidimensionnelle de la fracture numérique, posait la question « Open or proprietary ? »[7]. Une question qui mérite effectivement d’être posée.

Ce fut le cas à l’Université d’été de Tunisie qui s’est déroulée à Hammamet, du 25 au 28 août 2008[8]. Organisée par le Fonds Mondial de Solidarité Numérique (FSN)[9] et par l’Association pour le Développement de l’Éducation en Afrique (ADEA), elle était consacrée au thème de « La solidarité numérique au service de l’enseignement ». À son programme figuraient notamment les usages du TBI (Tableau blanc interactif), la création de ressources pédagogiques par les enseignants « auto-producteurs » et le rôle des communautés d’enseignants, les problématiques de droits d’auteur. Un atelier, qui portait sur les ressources pédagogiques des disciplines scientifiques et techniques des lycées, a fait différentes propositions dont l’une essentielle aux yeux de ses participants, qui affirme que les logiciels et les ressources pédagogiques utilisés et produits doivent être libres. Les standards et les formats de données doivent être ouverts[10]. Trois raisons ont motivé cette proposition : les coûts, le caractère opérationnel de la production collaborative de contenus pédagogiques, et le fait que les modalités de réalisation et les réponses du libre en terme de propriété intellectuelle sont en phase avec la philosophie générale d’un projet de solidarité numérique, à savoir partage, coopération, échange.

Le projet RELI@, « Ressources en ligne pour institutrices africaines », est destiné à améliorer la qualité de l’enseignement dans les pays du Sud par l’utilisation des outils et contenus numériques. Il repose sur des logiciels et ressources libres. Il a tenu son premier atelier à Dakar, du 22 au 24 octobre 2008[11]. Un « Appel de Dakar » a été lancé pour la production panafricaine de ressources pédagogiques numériques libres.

L’Unesco prime le libre

En 2007, l’association Sésamath[12] a reçu le 3e prix UNESCO (sur 68 projets) sur l’usage des TICE[13]. Pour le jury, Sésamath est « un programme complet d’enseignement des mathématiques conçu par des spécialistes, des concepteurs et près de 300 professeurs de mathématiques ». Il a été récompensé « pour la qualité de ses supports pédagogiques et pour sa capacité démontrée à toucher un large public d’apprenants et d’enseignants ».

« Remerciant particulièrement la commission française pour l’UNESCO qui a soutenu officiellement sa candidature », l’association Sésamath a vu dans l’obtention de ce prix « l’ouverture d’une nouvelle ère pour son action, vers l’internationalisation et plus particulièrement encore vers l’aide au développement ». Elle a ajouté : « Que pourrait-il y avoir de plus gratifiant pour des professeurs de Mathématiques que de voir leurs productions coopératives libres (logiciels, manuels…) utilisées par le plus grand nombre et en particulier par les populations les plus défavorisées ? C’est vrai dans toute la Francophonie… mais de nombreuses pistes de traductions commencent aussi à voir le jour. »[14]

Les deux lauréats 2007 étaient le Consortium Claroline[15] et Curriki[16]. Claroline, représenté par l’Université Catholique de Louvain, en Belgique, fournit à quelque 900 établissements répartis dans 84 pays une plate-forme « open source », sous licence GPL, en 35 langues. Claroline offre une série d’outils pédagogiques interactifs et centrés sur l’apprenant. C’est un modèle de réseau et de communauté qui met en relation des apprenants, des enseignants et des développeurs du monde entier. Créée en 2004 par Sun Microsystems, Curriki est une communauté mondiale qui se consacre à l’éducation et à la formation. Elle a désormais le statut d’organisme à but non lucratif. Elle fournit un portail Internet, un ensemble d’outils et de services aux utilisateurs grâce auxquels chacun peut librement concevoir, regrouper, évaluer et enrichir les meilleurs programmes d’enseignement, ce qui permet de répondre aux besoins de toutes les classes d’âge et de toutes les disciplines. Curriki a ainsi créé une communauté très vivante composée d’enseignants, d’apprenants, de ministères de l’Éducation, d’établissements scolaires et d’organisations publiques et privées.

L’UNESCO a ainsi mis à l’honneur des démarches éducatives fondées sur le libre, logiciels et ressources.

Parmi les avantages du libre

Parmi les avantages du libre, bien connus, il y a des coûts nettement moins importants. Si libre ne signifie pas gratuit, on peut toujours se procurer une version gratuite d’un logiciel libre, notamment en le téléchargeant. Une fantastique perspective quand, organisée au niveau d’un pays, la diffusion d’un logiciel libre permet de le fournir gratuitement à tous, avec seulement des coûts de « logistique » pour la collectivité mais une économie de licences d’utilisation à n’en plus finir.

Partage-production collaborative-coopération sont des maîtres mots de la solidarité numérique qui supposent des modalités de propriété intellectuelle qui, non seulement, favorisent la circulation des ressources numériques et les contributions des uns et des autres mais, tout simplement l’autorisent. La réponse est du côté de la GPL et des Creative Commons.

L’on sait la profonde affinité entre libre et standards et formats ouverts. Or, par exemple, les documents produits par un traitement de texte lambda doivent pouvoir être lus par un traitement de texte bêta, et réciproquement. La coopération et l’échange sont à ce prix. Il s’agit là d’une question fondamentale de l’informatique et de la fracture numérique. Tout citoyen du monde doit pouvoir avoir accès à ses données, indépendamment du matériel et du logiciel qu’il utilise. De plus en plus de biens informationnels ont une version numérisée. L’enjeu est d’accéder au patrimoine culturel de l’humanité, de participer à sa production, d’être un acteur à part entière du partage et de la coopération.

Avec le libre, chaque communauté peut prendre en main la localisation/culturisation qui la concerne, connaissant ses propres besoins et ses propres codes culturels mieux que quiconque. Il y a donc, outre une plus grande liberté et un moindre impact des retours économiques, une plus grande efficacité dans le processus, en jouant sur la flexibilité naturelle des créations immatérielles pour les adapter à ses besoins et à son génie propre. C’est aussi plus généralement ce que permettent les « contenus libres », c’est-à-dire les ressources intellectuelles – artistiques, éducatives, techniques ou scientifiques – laissées par leurs créateurs en usage libre pour tous. Logiciels et contenus libres promeuvent, dans un cadre naturel de coopération entre égaux, l’indépendance et la diversité culturelle, l’intégration sans l’aliénation.

Les logiciels (et les ressources) libres, composante à part entière de l’industrie informatique, ne peuvent qu’avoir une place de choix dans la lutte contre la fracture numérique. Sans pour autant verser dans l’angélisme. Entre les grands groupes d’acteurs du libre (communautés de développeurs, entreprises, clients comme les collectivités), dont les motivations et ressorts sont divers, il existe des conflits et des contradictions. Des dérives sont possibles, comme des formes de travail gratuit. Mais au-delà des volontés des individus, il y a la logique profonde d’une façon efficace de produire des contenus de qualité[17].

L’accès à la culture informatique

Dans un texte de l’UNESCO, TIC dans l’éducation[18], il est dit que « l’utilisation des TIC dans et pour l’éducation est vue maintenant dans le monde entier comme une nécessité et une opportunité. ». Les grandes questions sur lesquelles l’UNESCO se concentre en tant « qu’expert et conseiller impartial » sont : « Comment peut-on employer les TIC pour accélérer le progrès vers l’éducation pour tous et durant toute la vie ? (…) En second lieu, les TIC, comme tous les outils, doivent être considérées en tant que telles, et être employées et adaptées pour servir des buts éducatifs. » Elle revendique que « l’initiation à l’informatique soit reconnue comme une compétence élémentaire dans les systèmes d’enseignement »[19].

Le numérique, ce sont des outils conceptuels, des abstractions, une discipline scientifique et technique en tant que telle. Au service des autres disciplines, comme le sont les mathématiques. L’ordinateur est une prothèse du cerveau, dont on se sert d’autant plus intelligemment qu’on en connaît l’« intelligence »[20]. La fracture numérique ne serait-elle pas aussi (d’abord ?) une fracture culturelle, qui ne concerne pas que le Sud ? D’ailleurs, ne parle-t-on pas fréquemment de l’« accès » à la culture ?

« L’utilisation d’un outil, si fréquente et diversifiée soit-elle, ne porte pas en elle-même les éléments qui permettent d’éclairer sa propre pratique. »[21] « Comment en effet procéder à une recherche d’information efficace lorsque l’on n’a aucune connaissance du mode de fonctionnement de l’instrument utilisé ? »[22] Or, une enquête menée auprès de 640 000 utilisateurs de l’internet en France en 2001 avait montré que 87 % d’entre eux ne savaient pas se servir d’un moteur de recherche[23]. « Depuis que "l’homo faber" fabrique des outils et s’en sert, une bonne intelligence de l’outil est considérée comme nécessaire pour une bonne utilisation, efficace, précise et raisonnée : plus on en sait quant aux possibilités de réglage et aux conditions d’utilisation mieux cela vaut, partout. Il n’y aurait que l’informatique qui échapperait à cette règle et où l’ignorance serait un avantage ! »[24].

Partout dans le monde, lutter véritablement contre la fracture numérique suppose de donner à tous les élèves les fondamentaux scientifiques du domaine[25]. L’objectif est la maîtrise de ces instruments intellectuels d’un type nouveau. Elle n’est pas vraiment aisée et nécessite des années d’apprentissage (pour un individu il faut environ 20 ans pour maîtriser l’ensemble des instruments et méthodes liés à l’exercice d’une pensée rationnelle). On voit mal comment la diffusion d’objets matériels permettrait en elle-même de raccourcir les délais d’apprentissage, comment on entrerait dans le monde du numérique, abstrait et conceptuel, sans en faire un objet d’étude.

À l’appui de cette nécessité d’enseignement en tant que tel, le fait que la fracture numérique peut se loger là où on ne l’attend pas. Ainsi pointe-t-on une fracture numérique qui émerge, non plus entre les particuliers, mais entre les entreprises, notamment les plus petites et les plus grandes[26]. D’un côté « les mieux loties, accompagnées d’une armée de consultants ou naturellement aguerries à ces sujets ». De l’autre « des centaines de milliers d’entreprises qui souhaitent ardemment tirer profit, dès maintenant, des outils à disposition mais qui butent sur la complexité technologique, les tarifications inadaptées, les offres sur ou sous dimensionnées sans parler des compétences inaccessibles et en voie de raréfaction ». En fait, on voit aujourd’hui émerger « une nouvelle e-aristocratie qui va à l’encontre de la promesse de démocratisation des bénéfices économiques des NTIC (productivité, économie, accessibilité) ».

Dans leur rapport sur l’économie de l’immatériel[27], Maurice Lévy et Jean-Pierre Jouyet soulignent que, dans l’économie de l’immatériel, « l’incapacité à maîtriser les TIC constituera (…) une nouvelle forme d’illettrisme, aussi dommageable que le fait de ne pas savoir lire et écrire ». Ils mettent en évidence les obstacles qui freinent l’adaptation de notre pays à l’économie de l’immatériel, notamment « notre manière de penser », invitant à changer un certain nombre de « nos réflexes collectifs fondés sur une économie essentiellement industrielle ».

La lutte contre la fracture numérique a bien d’abord une dimension éminemment culturelle. Il s’agit d’un enjeu éducatif majeur, de culture générale scientifique et technique pour tous. D’un défi aussi dont les réponses pour le relever se trouvent d’évidence dans les systèmes éducatifs, dont c’est une des raisons d’être.

Jean-Pierre Archambault
Chargé de mission au CNDP-CRDP de Paris

Notes

[1] Crédit photo : Ferdinand Reus (Creative Commons By-Sa)

[2] Les politiques de tous les bords, beaucoup d’institutions (Banque Mondiale et le G8, l’Union Européenne, l’UNESCO…) s’emparent de la problématique de la fracture numérique, avec l’objectif affirmé de la résorber. D’autres s’en inquiètent : « Dejà, le fait qu’une telle notion fasse l’objet d’un consensus aussi large, au sein de groupes sociaux qui s’opposent les uns aux autres, donne à penser qu’elle est scientifiquement fragile. ». Voir La fracture numérique existe-t-elle ?, Éric Guichard, INRIA – ENS.

[3] http://www.liberationdelacroissance.fr/files…

[4] http://www.sophianet.com/wtm_article47688.fr.htm

[5] On pourra se référer aux études de Yochai Benkler reprises par Lawrence Lessig dans son remarquable ouvrage L’avenir des idées, Presses universitaires de Lyon, 2005. Voir « Innover ou protéger ? un cyber-dilemme », Jean-Pierre Archambault, Médialog n°58.

[6] Mais, à trop privilégier dans le discours le nécessaire équipement de tous, il y a le risque de donner à croire que les intérêts des constructeurs ne sont pas loin, en arrière plan de la « noble » lutte contre la fracture numérique.

[7] http://thot.cursus.edu/rubrique.asp?no=27124

[8] http://www.tunisiait.com/article.php?article=2912

[9] ttp://www.dsf-fsn.org/cms/component/option…

[10] http://repta.net/repta/telechargements/Universite_Tunisie…

[11] Premier atelier RELI@ à Dakar : Appel de DAKAR pour la production panafricaine de ressources pédagogiques numériques libres.

[12] http://sesamath.net

[13] http://portal.unesco.org/fr…

[14] http://www.sesamath.net/blog…

[15] http://www.claroline.net/index.php?lang=fr

[16] http://www.curriki.org/xwiki/bin/view/Main/WebHome

[17] L’économie du logiciel libre, François Élie, Eyrolles, 2008.

[18] http://portal.unesco.org/ci/fr/ev.php-URL_ID=2929…

[19] http://portal.unesco.org/ci/fr/ev.php-URL_ID=4347…

[20] « Informatique et TIC : une vraie discipline ? », Jean-Pierre Archambault, Médialog n° 62,

[21] Ordinateur et système éducatif : quelques questions, in Utilisations de l’ordinateur dans l’enseignement secondaire, Jean-Michel Bérard, Inspecteur général de l’Éducation nationale, Hachette Éducation, 1993.

[22] « La nature du B2i lui permet-elle d’atteindre ses objectifs ? » Jean-François Cerisier, Les dossiers de l’ingénierie éducative n° 55, septembre 2006.

[23] http://barthes.ens.fr/atelier/theseEG/

[24] « Enseigner l’informatique », Maurice Nivat, membre correspondant de l’Académie des Sciences,

[25] Voir : Le bloc-notes de l’EPI, La formation à l’informatique et aux TIC au lycée / Proposition de programme / Seconde Première Terminale et « Quelle informatique enseigner au lycée ? », Gilles Dowek, professeur d’informatique à l’École Polytechnique, intervention à l’Académie des Sciences du 15 mars 2005.

[26] Une fracture numérique existe aussi entre les entreprises, Vincent Fournoux, Le Journal du Net du 31 juillet 2008.

[27] L’économie de l’immatériel – La croissance de demain, rapport de la commission sur l’économie de l’immatériel remis à Thierry Breton, Maurice Lévy, Jean-Pierre Jouyet, décembre 2006.




Rencontre avec le Parti Pirate suédois

Ann Catrin Brockman - CC by-saDans notre imaginaire collectif la Suède est un pays où il fait bon vivre, auquel on accole souvent certains adjectifs comme « social », « mesuré », « organisé », « tranquille, voire même « conservateur ».

C’est pourquoi l’irruption soudaine dans le paysage politique local du Parti Pirate (ou Piratpartiet) a surpris bon nombre d’observateurs.

Surprise qui a dépassé les frontières lors du récent et tonitruant succès du parti aux dernières élections européennes (7% des voix, 1 et peut-être 2 sièges).

Nous avons eu envie d’en savoir plus en traduisant un entretien réalisé par Bruce Byfield avec le leader du parti, Rickard Falkvinge (cf photo[1] ci-dessus).

Ce succès est-il reproductible dans d’autres pays à commencer par l’Europe et par la France ? C’est une question que l’on peut se poser à l’heure où les différents (et groupusculaires) partis pirates français ont, semble-t-il, décidé d’unir (enfin) leurs forces. À moins d’estimer que l’action, l’information et la pression d’une structure comme La Quadrature du Net sont amplement suffisants pour le moment (j’en profite pour signaler qu’eux aussi ont besoin de sou(s)tien actuellement).

Remarque : C’est le troisième article que le Framablog consacre directement au Parti Pirate suédois après l’appel à voter pour eux (vidéo inside) et la toute récente mise au point de Richard Stallman sur les conséquences potentielles pour le logiciel libre de leur programme politique (question précise que le journaliste n’évoque pas dans son interview).

Interview avec le leader du Parti Pirate : « Des libertés cruciales »

Interview with Pirate Party Leader: "These are Crucial Freedoms"

Bruce Byfield – 16 juin 2009 – Datamation
(Traduction Framalang : Tyah, Olivier et Severino)

Le 7 Juin 2009, les électeurs suédois ont élu un membre du PiratPartiet (Parti Pirate) au Parlement Européen. Ils bénéficieront même d’un second siège si le Traité de Lisbonne est ratifié, celui-ci octroyant à la Suède deux sièges supplémentaires.

Bien que relativement faibles, ce sont de bons résultats pour un parti fondé il y a à peine trois ans, et qui fait campagne avec très peu de moyens, s’appuyant essentiellement sur ses militants. Que s’est-il passé et pourquoi cet événement est-il important bien au-delà de la Suède ?

Pour Richard Falkvinge, fondateur et leader du Parti Pirate, l’explication est simple : les pirates ont fait entrer pour la première fois dans le débat public les préoccupations de la communauté libre concernant la question du copyright et du brevet, et cela en utilisant les réseaux sociaux, un média complètement ignoré par leurs opposants.

Falkvinge nous en a dit un peu plus sur le sujet à l’occasion d’une présentation au cours du récent congrès Open Web Vancouver, ainsi que dans une brève interview qu’il nous a accordée le lendemain.

Falkvinge, entrepreneur depuis son adolescence, s’est intéressé à l’informatique toute sa vie d’adulte, et naturellement aux logiciels libres. « J’ai participé à différents projets open source » dit-il en ajoutant promptement : « Vous ne risquez pas d’avoir entendu parler des projets auxquels j’ai participé. Je fais partie des gens qui ont la malchance de toujours s’engager dans des projets qui ne vont nulle part – excepté celui-ci, évidemment. »

Comme pour de nombreuses autres personnes, le tournant fut pour Falkvinge la volonté de l’Europe d’imposer des droits d’auteurs plus strictes encore en 2005. Selon Falkvinge, le sujet fut largement couvert et débattu en Suède par tout le monde – sauf par les politiciens.

« Je me suis donc demandé : que faut-il faire pour obtenir l’attention des politiciens ? J’ai réalisé que l’on ne pouvait sûrement pas capter leur attention sans amener le débat sur leur terrain. Le seul recours était de contourner totalement les politiciens et de s’adresser directement aux citoyens lors des élections, de nous lancer sur leur terrain pour qu’ils ne puissent plus nous ignorer. »

Si pour les nord-américains, le nom peut sembler provocateur, Falkvinge explique que c’était un choix évident étant donné le contexte politique. En 2001 fut fondé un lobby défendant le copyright nommé le Bureau Anti-Pirate, donc quand un think-tank adverse s’est créé en 2003, il prit tout naturellement le nom de Bureau Pirate.

Selon Falkvinge, « la politique pirate devint connue et reconnue. Chacun savait ce qu’était la politique pirate, l’important n’était donc pas de réfléchir à un nom, mais bien de fonder le parti. », ce qu’il fit le 1er janvier 2006.

Dès le départ, Falkvinge rejetta l’idée de s’appuyer sur les vieux média : TV, radio, presse.

« Ils n’auraient jamais accordé le moindre crédit à ce qu’ils considéraient comme une mouvance marginale. Ils n’auraient jamais parlé suffisamment de nous pour que nos idées se répandent. Il faut dire aussi qu’elles ne rentrent pas vraiment dans leur moule, alors comment expliquer quelque chose que vous avez du mal à saisir ? »

« Nous n’avions d’autre choix que de construire un réseau d’activistes. Nous savions que nous devions faire de la politique d’une manière jamais vue auparavant, de proposer aux gens quelque chose de nouveau, de nous appuyer sur ce qui fait le succès de l’open source. Nous avons essentiellement contourné tous les vieux médias. Nous n’avons pas attendu qu’ils décident de s’intéresser à nous; nous nous sommes simplement exprimés partout où nous le pouvions. »

Leur succès prit tous les autres partis politiques par surprise. Seulement quelques jours après avoir mis en ligne le premier site du parti, le 1er janvier 2006, Falkvinge apprit que celui-ci comptabilisait déjà plusieurs millions de visiteurs. La descente dans les locaux de Pirate Bay et les élections nationales suédoises qui se sont tenues plus tard dans l’année ont contribué à faire connaître le parti, mais c’est bien sur Internet, grâce aux blogs et à d’autres médias sociaux, qu’il a gagné sa notoriété.

Aujourd’hui c’est le troisième parti le plus important de Suède, et il peut se vanter d’être le parti politique qui rassemble, et de loin, le plus de militants parmi les jeunes.

« Ce n’est pas seulement le plus grand parti en ligne », dit Falkvinge. « C’est le seul parti dont les idées sont débattues en ligne. »

Les analystes politiques traditionnels avaient du mal à croire que le Parti Pirate puisse être régulièrement crédité de 7 à 9% d’intentions de vote dans les sondages.

« J’ai lu une analyste politique qui se disait complètement surprise » rapporte Falkvinge. « Elle disait : « Comment peuvent-ils être si haut dans les sondages ? Ils sont complètement invisibles ». Son analyse était évidemment entièrement basée sur sa connaissance classique de la politique. La blogosphère de son côté se demandait si elle n’avait pas passé ces dernières années dans une caverne. »

La plateforme du Parti Pirate

Aux yeux de Falkvinge, la lutte pour l’extension des droits d’auteurs et des brevets, c’est l’Histoire qui bégaye. Il aborde le sujet des droits d’auteurs en rappelant que l’Église catholique réagit à l’invention de l’imprimerie, qui rendait possible la diffusion de points de vue alternatifs, en bannissant la technologie de France en 1535.

Un exemple plus marquant encore est celui de l’Angleterre, qui créa un monopole commercial sur l’imprimerie. Bien qu’elle connue une période sans droit d’auteur, après l’abdication de Jacques II en 1688, il fut restauré en 1709 par le Statute of Anne. Les monopolistes, qui affirmaient que les écrivains tireraient bénéfice du droit d’auteur, ont largement pesé sur cette décision.

Dans les faits, explique Falkvinge, « le droit d’auteur a toujours bénéficié aux éditeurs. Jamais, ô grand jamais, aux créateurs. Les créateurs ont été utilisés comme prétexte pour les lois sur les droits d’auteur, et c’est toujours le cas 300 ans plus tard. Les politiciens emploient toujours la même rhétorique que celle utilisée en 1709, il y a 300 foutues années ! »

Aujourd’hui, Falkvinge décrit le droit d’auteur comme « une limitation du droit de propriété » qui a de graves conséquences sur les libertés civiles. Pour Falkvinge, les efforts faits par des groupes comme les distributeurs de musique et de films pour renforcer et étendre les droits d’auteurs menacent ce qu’il appelle le « secret de correspondance », la possibilité de jouir de communications privées grâce à un service public ou privé.

Partout dans le monde les pressions montent pour rendre les fournisseurs d’accès responsables de ce qui circule sur leurs réseaux, ce qui remet en cause leur statut de simple intermédiaire. « C’est comme si l’on poursuivait les services postaux parce que l’on sait qu’ils sont les plus gros distributeurs de narcotiques en Suède », raisonne Falkvinge par analogie.

Une autre conséquence concerne la liberté de la presse, sujet cher aux journalistes et aux dénonciateurs. « Si vous ne pouvez confier un scandale à la presse sans que des groupes privés ou gouvernementaux y jettent un œil avant qu’il ne parvienne à la presse, quels sujets allez-vous traiter ? Et bien, rien ne sera révélé, car personne ne sera assez fou pour prendre ce risque. À quoi vous servira alors la liberté de la presse ? À écrire des communiqués de presse ? »

Falkvinge défend un droit d’auteur beaucoup plus souple, réservé uniquement à la distribution commerciale et sévèrement restreint ; cinq ans serait une durée raisonnable, suggère-t-il. « Il faut que les droits d’auteurs sortent de la vie privée des personnes honnêtes. Les droits d’auteurs ressemblent de plus en plus à des policiers en uniformes qui font des descentes avec des chiens chez les gens honnêtes. C’est inacceptable. »

Il croit aussi que la copie privée est un progrès social, en faisant valoir que « Nous savons que la société avance quand le culture et les connaissances se diffusent aux citoyens. Nous voulons donc encourager la copie non-commerciale. »

De même, le Parti Pirate s’oppose aux brevets, particulièrement aux brevets logiciels, mais aussi dans d’autres domaines.

« Chaque brevet, dans sa conception même, inhibe l’innovation », maintient-il. « Les brevets ont retardé la révolution industrielle de trente ans, ils ont retardé l’avènement de l’industrie aéronautique nord-américaine de trente autres années, jusqu’à ce que la Première Guerre mondiale éclate et que le gouvernement des États-Unis confisque les brevets. Ils ont retardé la radio de cinq ans. » Aujourd’hui, suggère t-il, les progrès technologiques en matière de voitures électriques et d’infrastructures écologiques sont bloqués par les brevets.

« Tout cela n’est en rien différent de la réaction de l’Église Catholique », explique Falkvinge. « Quand il y a une technologie dérangeante, vecteur d’égalisation, la classe dirigeante n’attaque pas les personnes qui essaient de devenir égales. Elle s’en prend à la technologie qui rend cela possible. On le voit dans le monde entier, la classe dirigeante attaque Internet. »

« Les excuses varient. En Chine, c’est le contrôle. En Asie du Sud, c’est la morale publique, dans d’autres endroits, c’est l’ordre et la loi. En Égypte, je pense, la raison est de respecter les préceptes de la religion, l’Islam dans leur cas. Aux États-Unis, il y a trois excuses majeures : le droit d’auteur, le terrorisme et la pédophilie. Ces excuses sont en train d’être utilisées pour briser le plus grand égalisateur de population jamais inventé. »

« Voilà le véritable enjeu. Les libertés fondamentales doivent être grignotées ou abolies pour sauvegarder un monopole chancelant d’industries obsolètes. Il est compréhensible qu’une industrie déliquescente se batte pour sa survie, mais il appartient aux politiciens de dire que, non, nous n’allons pas démanteler les libertés fondamentales juste pour que vous n’ayez pas à changer. Adaptez-vous ou bien mourrez. »

C’est dans cette situation, déclare Falkvinge, que les perspectives du Parti Pirate sont si importantes.

Le Parti Pirate « adopte une position sur les droits civiques que les politiciens ne comprennent pas. Ils écoutent les lobbys et s’attaquent de manière extrêmement dangereuse aux libertés fondamentales. »

Les efforts du lobby pro-copyright pourraient se révéler en fin de compte futiles, pour Falkvinge ils se battent pour une cause perdue. Mais il met aussi en garde contre les dommages considérables que pourrait causer le lobby avant d’être finalement emporté par l’inéluctable.

Courtiser les Pirates

Cybriks - CC byÀ la prochaine séance du Parlement Européen, Christian Engstrom siègera dans l’hémicycle, un entrepreneur devenu activiste qui milite contre les brevets depuis ces cinq dernières années. Si le Parti Pirate obtient un second siège, Engstrom sera rejoint par Amelia Andersdotter (cf photo ci-contre), que Falksvinge décrit comme « un des plus brillants esprits que nous ayons dans le Parti Pirate ». Elle serait alors la plus jeune membre jamais élue du Parlement Européen.

Le Parti Pirate aborde des problèmes dont personne, jusqu’à maintenant, n’a vraiment pris conscience. Est-ce là l’explication pour le soudain intérêt dont bénéficie le parti ? Peut-être. Mais leur popularité chez les électeurs de moins de trente ans, un groupe que les autres partis ont toujours eu du mal à séduire, compte au moins autant.

De plus, avec un électorat divisé entre une multitude de partie, les 7% recueillis par le Parti Pirate sont loin d’être négligeables.

« Ces sept coalitions se mettent en quatre pour s’approprier notre crédibilité », résume Falkvinge. « Nous jouissons d’un vrai soutien populaire que ces partis se battent pour nous avoir. »

S’exprimant quelques jours après les élections, Falkvinge ne cachait pas sa satisfaction. Malgré tout, il se prépare déjà pour les prochaines élections nationales en Suède, où il espère que le Parti Pirate jouera un rôle dans un gouvernement minoritaire. Le prix d’une alliance avec les Pirates sera, bien sûr, l’adoption de leurs idées.

« Aux élections européennes nous avons gagné notre légitimité », constate Falkvinge. « Les prochaines élections nationales nous permettront de réécrire les lois. »

Si tel est le cas, l’Union Européenne et le reste du monde pourront peut-être en sentir les effets. Déjà, des Partis Pirates se mettent en place à l’image du parti suédois, et, comme le montre leur faculté à attirer les jeunes, pour des milliers d’entre eux le Parti Pirate est le seul parti politique qui aborde les questions qui les intéressent.

« Il y a deux choses qu’il ne faut pas perdre de vue » remarque Falkvinge. « Premièrement, nous faisons partie de la nouvelle génération de défenseurs des libertés fondamentales. C’est un mouvement pour les libertés fondamentales. Des libertés fondamentales et des droits fondamentaux essentiels sont compromis par des personnes voulant contrôler le Net, et nous voulons sauvegarder ces droits. Au fond, nous voulons que les droits et devoirs fondamentaux s’appliquent aussi bien sur Internet que dans la vie courante. »

« Le deuxième point que je voudrais souligner c’est que nous nous faisons connaître uniquement par le bouche à oreille. Nous avons gagné à peu près un quart de million de voix, 50 000 membres, 17 000 activistes, par le bouche à oreille, conversation après conversation, collègue, parent, étudiant, un par un, en trois ans. »

« C’est, je crois, la meilleure preuve que c’est possible. Vous n’êtes plus dépendants des médias traditionnels. Si vous avez un message fort et que les gens s’y reconnaissent, vous pouvez y arriver. »

Notes

[1] Crédit photos : 1. Ann Catrin Brockman (Creative Commons By-Sa) 2. Cybriks (Creative Commons By)




Shine 4U de Carmen & Camille : le plus libre des tubes de l’été 2009 ?

Carmen & CamilleUn bail que je n’ai mis les pieds dans une discothèque estivale. Mais si cela m’arrivait demain , je ne serais guère surpris d’y être accueilli par la chanson Shine 4U du groupe Carmen & Camille (MySpace, YouTube).

Cette chanson a en effet tout du classique tube de l’été : jolies filles (cf photo ci-contre !), rythme entraînant (avec passages plus lents pour reprendre son souffle), synthé à fond, voix sucrées et saturées… Vous l’écoutez deux fois, vous l’avez dans la tête. Pas plus original que les autres, pas le meilleur, pas le pire non plus.

Pourquoi vous en parle-je ? Parce que cette chanson inédite est l’objet d’un concours qui lui pour le coup est assez original.

Les participants sont en effet invités, par la maison de disques Indaba, à remixer le morceau à condition que le résultat soit placé, comme la chanson d’origine, sous la très libre licence Creative Commons By (qui vous permet non seulement de modifier et diffuser mais aussi de vendre). Pour ce faire et leur faciliter la tâche, on a mis a disposition les différentes pistes de la chanson (voix principales, secondaires, guitare, basse, batterie, synthé, piano…).

On trouve deja de nombreux remix sur le site dédié à l’opération (et des remix de qualité), corroborant ce que l’on sait depuis longtemps : pourvu que vous lui en laissiez la liberté, Internet adore se montrer créatif en partant non pas de zéro mais de l’existant.

Quant aux artistes, voici ce qu’en pensent Carmen puis Camille, énième témoignage d’une situation gagnant-gagnant :

Carmen : « We are so lucky these days that through modern technology we are able to easily work with other artists from around the world. The door is open for artists from different cultures and countries to work together on projects without ever meeting. This technology opens all sorts of doors, and for us personally, we are so excited to have the chance to work with these talented people. »

Camille : « I think what makes us most excited about the outcome of this campaign is getting to hear our song redone in many different ways. We can’t wait to hear what people can add to the track. And the new versions of the song may bring us new fans that it would have taken us a long time to reach, which is great. »

Conclusion : Trémoussons-nous bêtement mais aussi librement en boîte cet été !




Le socialisme nouveau est arrivé

Copyleft FlagLe socialisme est mort, vive le socialisme ? À l’instar de Is Google making us stupid? c’est une nouvelle traduction de poids que nous vous proposons aujourd’hui.

Un socialisme nouveau, revu et corrigé, est en train de prendre forme sur Internet. Telle est l’hypothèse de Kevin Kelly, célèbre éditorialiste du célèbre magazine Wired. Et l’on ne s’étonnera guère d’y voir le logiciel libre associé aux nombreux arguments qui étayent son propos.

Vous reconnaissez-vous dans ce « socialisme 2.0 » tel qu’il est présenté ici ? Peut-être oui, peut-être non. Mais il n’est jamais inutile de prendre un peu de recul et tenter de s’interroger sur ce monde qui s’accélère et va parfois plus vite que notre propre capacité à lui donner du sens.

Le nouveau Socialisme : La société collectiviste globale se met en ligne

The New Socialism: Global Collectivist Society Is Coming Online

Kevin Kelly – 22 mai 2009 – Wired
(Traduction Framalang : Poupoul2, Daria et Don Rico)

Bill Gates s’est un jour moqué des partisans de l’Open Source avec le pire épithète qu’un capitaliste puisse employer. Ces gens-là, a-t-il dit, sont « une nouvelle race de communistes », une force maléfique décidée à détruire l’incitation monopolistique qui soutient le Rêve Américain. Gates avait tort : les fanatiques de l’Open Source sont plus proches des libertariens que des communistes. Il y a pourtant une part de vérité dans son propos. La course effrénée à laquelle on se livre partout sur la planète pour connecter tout le monde avec tout le monde dessine doucement les contours d’une version revue et corrigée du socialisme.

Les aspects communautaires de la culture numérique ont des racines profondes et étendues. Wikipédia n’est qu’un remarquable exemple de collectivisme émergeant parmi d’autres, et pas seulement Wikipédia mais aussi toute le système des wikis. Ward Cunningham, qui inventa la première page web collaborative en 1994, a recensé récemment plus de cent cinquante moteurs de wiki différents, chacun d’entre eux équipant une myriade de sites. Wetpaint, lancé il y a tout juste trois ans, héberge aujourd’hui plus d’un million de pages qui sont autant de fruits d’un effort commun. L’adoption massive des licences de partage Creative Commons et l’ascension de l’omniprésent partage de fichiers sont deux pas de plus dans cette direction. Les sites collaboratifs tels que Digg, Stumbleupon, the Hype Machine ou Twine poussent comme des champignons et ajoutent encore du poids à ce fantastique bouleversement. Chaque jour nous arrive une nouvelle start-up annonçant une nouvelle méthode pour exploiter l’action communautaire. Ces changements sont le signe que l’on se dirige lentement mais sûrement vers une sorte de socialisme uniquement tourné vers le monde en réseau.

Mais on ne parle pas là du socialisme de votre grand-père. En fait, il existe une longue liste d’anciens mouvements qui n’ont rien à voir avec ce nouveau socialisme. Il ne s’agit pas de lutte des classes. Il ne s’agit pas d’anti-américanisme. Le socialisme numérique pourrait même être l’innovation américaine la plus récente. Alors que le socialisme du passé était une arme d’État, le socialisme numérique propose un socialisme sans État. Cette nouvelle variété de socialisme agit dans le monde de la culture et de l’économie, plutôt que dans celui de la politique… pour le moment.

Le communisme avec lequel Gates espérait salir les créateurs de Linux est né dans une période où les frontières étaient rigides, la communication centralisée, et l’industrie lourde et omniprésente. Ces contraintes ont donné naissance à une appropriation collective de la richesse qui remplaçait l’éclatant chaos du libre marché par des plans quinquennaux imposés par un politburo tout puissant.

Ce système d’exploitation politique a échoué, c’est le moins que l’on puisse dire. Cependant, contrairement aux vieilles souches du socialisme au drapeau rouge, le nouveau socialisme s’étend sur un Internet sans frontières, au travers d’une économie mondiale solidement intégrée. Il est conçu pour accroître l’autonomie individuelle et contrecarrer la centralisation. C’est la décentralisation à l’extrême.

Au lieu de cueillir dans des fermes collectives, nous récoltons dans des mondes collectifs. Plutôt que des usines d’État, nous avons des usines d’ordinateurs connectées à des coopératives virtuelles. On ne partage plus des forêts, des pelles ou des pioches, mais des applications, des scripts et des APIs. Au lieu de politburos sans visage, nous avons des méritocracies anonymes, où seul le résultat compte. Plus de production nationale, remplacée par la production des pairs. Finis les rationnements et subventions distribués par le gouvernement, place à l’abondance des biens gratuits.

Je reconnais que le terme socialisme fera forcément tiquer de nombreux lecteurs. Il porte en lui un énorme poids culturel, au même titre que d’autres termes associés tels que collectif, communautaire ou communal. J’utilise le mot socialisme parce que techniquement, c’est celui qui représente le mieux un ensemble de technologies dont l’efficience dépend des interactions sociales. L’action collective provient grosso modo de la richesse créée par les sites Web et les applications connectées à Internet lorsqu’ils exploitent du contenu fourni par les utilisateurs. Bien sûr, il existe un danger rhétorique à réunir autant de types d’organisation sous une bannière aussi provocatrice. Mais puisqu’il n’existe aucun terme qui soit vierge de toute connotation négative, autant donner une nouvelle chance à celui-là. Lorsque la multitude qui détient les moyens de production travaille pour atteindre un objectif commun et partage ses produits, quand elle contribue à l’effort sans toucher de salaire et en récolte les fruits sans bourse délier, il n’est pas déraisonnable de qualifier ce processus de socialisme.

À la fin des années 90, John Barlow, activiste, provocateur et hippie vieillissant, a désigné ce courant par le terme ironique de « point-communisme » (NdT : en référence au point, dot, des nom de domaines des sites Web comme framablog point org). Il le définissait comme une « main d’œuvre composée intégralement d’agents libres », « un don décentralisé ou une économie de troc où il n’existe pas de propriété et où l’architecture technologique définit l’espace politique ». En ce qui concerne la monnaie virtuelle, il avait raison. Mais il existe un aspect pour lequel le terme socialisme est inapproprié lorsqu’il s’agit de désigner ce qui est en train de se produire : il ne s’agit pas d’une idéologie. Il n’y a pas d’exigence de conviction explicite. C’est plutôt un éventail d’attitudes, de techniques et d’outils qui encouragent la collaboration, le partage, la mise en commun, la coordination, le pragmatisme, et une multitude de coopérations sociales nouvellement rendues possibles. C’est une frontière conceptuelle et un espace extrêmement fertile pour l’innovation.

Socialisme 2.0 - HistoriqueDans son livre publié en 2008, Here Comes Everybody (NdT : Voici venir chacun), le théoricien des médias Clay Chirky propose une hiérarchie utile pour classer ces nouveaux dispositifs. Des groupes de personnes commencent simplement par partager, puis ils progressent et passent à la coopération, à la collaboration et, pour finir, au collectivisme. À chaque étape, on constate un accroissement de la coordination. Une topographie du monde en ligne fait apparaître d’innombrables preuves de ce phénomène.

I. Le partage

Les masses connectées à l’Internet sont animées par une incroyable volonté de partage. Le nombre de photos personnelles postées sur Facebook ou MySpace est astronomique, et il y a fort à parier que l’écrasante majorité des photos prises avec un appareil photo numérique sont partagées d’une façon ou d’une autre. Sans parler des mises à jour du statut de son identité numérique, des indications géographiques, des bribes de réflexion que chacun publie çà et là. Ajoutez-y les six milliards de vidéos vues tous les mois sur Youtube pour les seuls États-Unis et les millions de récits issus de l’imagination de fans d’œuvres existantes. La liste des sites de partage est presque infinie : Yelp pour les critiques, Loopt pour la géolocalisation, Delicious pour les marque-pages.

Le partage est la forme de socialisme la plus tempérée, mais elle sert de fondation aux niveaux les plus élevés de l’engagement communautaire.

II. La coopération

Lorsque des particuliers travaillent ensemble à atteindre un objectif d’envergure, les résultats apparaissent au niveau du groupe. Les amateurs n’ont pas seulement partagé plus de trois milliards de photos sur Flickr, ils les ont aussi associées à des catégories ou des mots-clés ou les ont étiquetées (NdT : les tags). D’autres membres de la communauté regroupent les images dans des albums. L’usage des populaires licences Creative Commons aboutit à ce que, d’une façon communautaire, voire communiste, votre photo devienne ma photo. Tout le monde peut utiliser une photo, exactement comme un communiste pourrait utiliser la brouette de la communauté. Je n’ai pas besoin de prendre une nouvelle photo de la tour Eiffel, puisque la communauté peut m’en fournir une bien meilleure que la mienne.

Des milliers de sites d’agrégation emploient la même dynamique sociale pour un bénéfice triple. Premièrement, la technologie assiste directement les utilisateurs, en leur permettant d’étiqueter, marquer, noter et archiver du contenu pour leur propre usage. Deuxièmement, d’autres utilisateurs profitent des tags et des marque-pages des autres… Et tout ceci, au final, crée souvent une valeur ajoutée que seul le groupe dans son ensemble peut apporter. Par exemple, des photos d’un même endroit prises sous différents angles peuvent être assemblées pour former une reproduction du lieu en 3D stupéfiante. (Allez voir du côté de Photosynth de Microsoft). Curieusement, cette proposition va plus loin que la promesse socialiste du « chacun contribue selon ses moyens, chacun reçoit selon ses besoins », puisqu’elle améliore votre contribution et fournit plus que ce dont vous avez besoin.

Les agrégateurs communautaires arrivent à d’incroyables résultats. Des sites tels que Digg ou Reddit, qui permettent aux utilisateurs de voter pour les liens qu’ils souhaitent mettre en évidence, peuvent orienter le débat public autant que les journaux ou les chaînes de télévision (pour info Reddit appartient à la maison mère de Wired, Condé Nast). Ceux qui contribuent sérieusement à ces sites y consacrent plus d’énergie qu’ils ne pourront jamais en recevoir en retour, mais ils continuent en partie à cause du pouvoir culturel que représentent ces outils. L’influence d’un participant s’étend bien au-delà d’un simple vote, et l’influence collective de la communauté surpasse de loin le nombre de ses participants. C’est l’essence même des institutions sociales, l’ensemble dépasse la somme de ses composants. Le socialisme traditionnel visait à propulser cette dynamique par le biais de l’État. Désormais dissociée du gouvernement et accrochée à la matrice numérique mondiale, cette force insaisissable s’exerce à une échelle plus importante que jamais.

III. La collaboration

La collaboration organisée peut produire des résultats dépassant ceux d’une coopération improvisée. Les centaines de projets de logiciel Open Source, tel que le serveur Web Apache, en sont le parfait exemple. Dans ces aventures, des outils finement ciselés par la communauté génèrent des produits de haute qualité à partir du travail coordonné de milliers ou dizaines de milliers de membres. Contrairement à la coopération traditionnelle, la collaboration sur d’énormes projets complexes n’apporte aux participants que des bénéfices indirects, puisque chaque membre du groupe n’intervient que sur une petite partie du produit final. Un développeur motivé peut passer des mois à écrire le code d’une infime partie d’un logiciel dont l’état global est encore à des années-lumière de son objectif. En fait, du point de vue du marché libre, le rapport travail/récompense est tellement dérisoire (les membres du projet fournissent d’immenses quantités de travail à haute valeur ajoutée sans être payés) que ces efforts collaboratifs n’ont aucun sens au sein du capitalisme.

Pour ajouter à la dissonance économique, nous avons pris l’habitude de profiter du fruit de ces collaborations sans mettre la main à la poche. Plutôt que de l’argent, ceux qui participent à la production collaborative gagnent en crédit, statut, réputation, plaisir, satisfaction et expérience. En plus d’être gratuit, le produit peut être copié librement et servir de socle à d’autres produits. Les schémas alternatifs de gestion de la propriété intellectuelle, parmi lesquelles Creative Commons ou les licences GNU, ont été créés pour garantir ces libertés.

En soi, la collaboration n’a bien sûr rien de spécialement socialiste. Mais les outils collaboratifs en ligne facilitent un style communautaire de production qui exclut les investisseurs capitalistes et maintient la propriété dans les mains de ceux qui travaillent, voire dans celles des masses consommatrices.

IV Le collectivisme

Socialisme 2.0 - Ancien / NouveauAlors qu’une encyclopédie peut être rédigée de façon coopérative, nul n’est tenu pour responsable si la communauté ne parvient pas au consensus, et l’absence d’accord ne met pas en danger l’entreprise dans son ensemble. L’objectif d’un collectif est cependant de concevoir un système où des pairs autogérés prennent la responsabilité de processus critiques, et où des décisions difficiles, comme par exemple définir des priorités, sont prises par l’ensemble des acteurs. L’Histoire abonde de ces centaines de groupes collectivistes de petite taille qui ont essayé ce mode de fonctionnement. Les résultats se sont révélés peu encourageants (quand bien même on ne tienne pas compte de Jim Jones et de la « famille » de Charles Manson).

Or, une étude approfondie du noyau dirigeant de Wikipédia, Linux ou OpenOffice, par exemple, montre que ces projets sont plus éloignés de l’idéal collectiviste qu’on pourrait le croire vu de l’extérieur. Des millions de rédacteurs contribuent à Wikipédia, mais c’est un nombre plus restreint d’éditeurs (environ mille cinq cents) qui est responsable de la majorité de l’édition. Il en va de même pour les collectifs qui écrivent du code. Une myriade de contributions est gérée par un groupe plus réduit de coordinateurs. Comme Mitch Kapor, membre fondateur de la Mozilla Open Source Code Factory, le formule : « au cœur de toutes les anarchies qui marchent, il y a un réseau à l’ancienne ».

Ce n’est pas forcément une mauvaise chose. Certaines formes de collectivisme tirent avantage de la hiérarchie, alors que d’autres en souffrent. Des plateformes tels qu’Internet et Facebook, ou même la démocratie, qui servent de substrat à la production de biens ou à la fourniture de services, profitent de l’absence quasi totale de hiérarchie, laquelle réduit les obstacles à l’intégration et permet la répartition équitable des droits et responsabilités. Lorsque des acteurs puissants émergent, la structure dans son ensemble souffre. D’un autre côté, les organisations bâties pour créer des produits ont souvent besoin de dirigeants forts, et de hiérarchies organisées capable de se projeter dans l’avenir : l’un des niveaux se concentre sur les besoins immédiats, l’autre sur les cinq années à venir.

Par le passé, il était quasi impossible de construire une organisation qui exploitait la hiérarchie tout en maximisant le collectivisme. Désormais, les réseaux numériques fournissent l’infrastructure nécessaire. Le Net donne la possibilité aux organisations concentrées sur le produit de fonctionner collectivement, tout en empêchant la hiérarchie d’en prendre totalement le pouvoir. L’organisation qui conçoit MySQL, une base de données Open Source, n’est pas animée par un refus romantique de la hiérarchie, mais elle est bien plus collectiviste qu’Oracle. De la même manière, Wikipédia n’est pas un bastion d’égalité, mais elle est largement plus collectiviste que l’encyclopédie Britannica. Le cœur élitiste que nous trouvons au centre des collectifs en ligne est en fait un signe que le socialisme sans État peut fonctionner à grande échelle.

La plupart des occidentaux, moi y compris, ont été endoctrinés par l’idée que l’extension du pouvoir des individus réduit forcément le pouvoir de l’État, et vice versa. Pourtant, dans la pratique, la plupart des politiques socialisent certaines ressources et en individualisent d’autres. Les économies de marché ont pour la plupart socialisé l’éducation, et même les sociétés les plus socialisées autorisent une certaine forme de propriété privée.

Plutôt que de voir le socialisme technologique comme une sorte de compromis à somme nulle entre l’individualisme du marché libre et une autorité centralisée, on peut le considérer comme un système d’exploitation culturel qui élève en même temps l’individu et le groupe. Le but, largement désarticulé mais intuitivement compréhensible, de la technologie communautaire consiste à maximiser l’autonomie individuelle et le pouvoir de ceux qui travaillent ensemble. Ainsi, on peut voir le socialisme numérique comme une troisième voie rendant les vieux débats obsolètes.

Ce concept de troisième voie est également rapporté par Yochai Benkler, auteur de The Wealth of Networks (NdT : La richesse des réseaux), qui a probablement réfléchi plus que quiconque aux politiques des réseaux. Il affirme voir « l’émergence de la production sociale et de la production collective comme une alternative aux systèmes propriétaires et fermés, basés sur l’État ou le marché », notant que ces activités « peuvent accroître la créativité, la productivité et la liberté ». Le nouveau système d’exploitation, ce n’est ni le communisme classique et sa planification centralisée sans propriété privée, ni le chaos absolu du marché libre. C’est au contraire un espace de création émergeant, dans lequel la coordination publique décentralisée peut résoudre des problèmes et créer des richesses, là où ni le communisme ni le capitalisme purs et durs n’en sont capables.

Les systèmes hybrides qui mélangent les mécanismes marchands et non marchands ne sont pas nouveaux. Depuis des décennies, les chercheurs étudient les méthodes de production décentralisées et socialisées des coopératives du nord de l’Italie et du Pays Basque, dans lesquelles les employés sont les propriétaires, prennent les décisions, limitent la distribution des profits et sont indépendants du contrôle de l’État. Mais seule l’arrivée de la collaboration à bas prix, instantanée et omniprésente que permet Internet a rendu possible la migration du cœur de ces idées vers de nombreux nouveaux domaines telle que l’écriture de logiciels de pointe ou de livres de référence.

Le rêve, ce serait que cette troisième voie aille au-delà des expériences locales. Jusqu’où ? Ohloh, une entreprise qui analyse l’industrie de l’Open Source, a établi une liste d’environ deux cent cinquante mille personnes travaillant sur deux cent soixante-quinze mille projets. C’est à peu près la taille de General Motors et cela représente énormément de gens travaillant gratuitement, même si ce n’est pas à temps complet. Imaginez si tous les employés de General Motors n’étaient pas payés, tout en continuant à produire des automobiles !

Jusqu’à présent, les efforts les plus importants ont été ceux des projets Open Source, dont des projets comme Apache gèrent plusieurs centaines de contributeurs, environ la taille d’un village. Selon une étude récente, la version 9 de Fedora, sortie l’année dernière, représenterait soixante mille années-homme de travail. Nous avons ainsi la preuve que l’auto-assemblage et la dynamique du partage peuvent gouverner un projet à l’échelle d’une ville ou d’un village décentralisé.

Évidemment, le recensement total des participants au travail collectif en ligne va bien au-delà. YouTube revendique quelques trois cent cinquante millions de visiteurs mensuels. Presque dix millions d’utilisateurs enregistrés ont contribué à Wikipédia, cent soixante mille d’entre eux sont actifs. Plus de trente-cinq millions de personnes ont publié et étiqueté plus de trois milliards de photos et vidéos sur Flickr. Yahoo héberge près de huit millions de groupes sur tous les sujets possibles et imaginables. Google en compte près de quatre millions.

Ces chiffres ne représentent toujours pas l’équivalent d’une entière nation. Peut-être ces projets ne deviendront-ils jamais grand public (mais si Youtube n’est pas un phénomène grand public, qu’est-ce qui l’est ?). Pourtant, la population qui baigne dans les médias socialisés est indéniablement significative. Le nombre de personnes qui créent gratuitement, partagent gratuitement et utilisent gratuitement, qui sont membres de fermes logicielles collectives, qui travaillent sur des projets nécessitant des décisions collectives, ou qui expérimentent les bénéfices du socialisme décentralisé, ce nombre a atteint des millions et progresse en permanence. Des révolutions sont nées avec bien moins que cela.

On pourrait s’attendre à de la démagogie de la part de ceux qui construisent une alternative au capitalisme et au corporatisme. Mais les développeurs qui conçoivent des outils de partage ne se voient pas eux-mêmes comme des révolutionnaires. On n’est pas en train d’organiser de nouveaux partis politiques dans les salles de réunions, du moins pas aux États-Unis (en Suède, le Parti Pirate s’est formé sur une plateforme de partage, et il a remporté un piètre 0,63% des votes aux élections nationales de 2006).

En fait, les leaders du nouveau socialisme sont extrêmement pragmatiques. Une étude a été menée auprès de deux mille sept cent quatre-vingt-quatre développeurs Open Source afin d’analyser leurs motivations. La plus commune d’entre elles est « apprendre et développer de nouvelles compétences ». C’est une approche pratique. La vision académique de cette motivation pourrait être : « si je bosse sur du code libre, c’est surtout pour améliorer le logiciel ». En gros, la politique pour la politique n’est pas assez tangible.

Même ceux qui restent et ne participent pas au mouvement pourraient ne pas être politiquement insensibles à la marée montante du partage, de la coopération, de la collaboration et du collectivisme. Pour la première fois depuis des années, des pontes de la télévision et des grands magazines nationaux osent prononcer le mot tabou « socialisme », désormais reconnu comme une force qui compte dans la politique des États-Unis. À l’évidence, la tendance à la nationalisation de grosses portions de l’industrie, à l’établissement d’un système de santé public et à la création d’emplois avec l’argent du contribuable n’est pas dû en totalité au techno-socialisme. Ainsi les dernières élections ont démontré le pouvoir d’une base décentralisée et active sur le Web, dont le cœur bat au rythme de la collaboration numérique. Plus nous tirons les bénéfices d’une telle collaboration, plus nous nous ouvrons la porte à un avenir d’institutions socialistes au gouvernement. Le système coercitif et totalitaire de la Corée du Nord n’est plus, le futur est un modèle hybride qui s’inspire de Wikipédia et du socialisme modéré de la Suède.

Jusqu’où ce mouvement nous rapprochera-t-il d’une société non capitaliste, Open Source, à la productivité collaborative ? Chaque fois cette question apparue, la réponse a été : plus près que nous le pensons. Prenons Craigslist, par exemple. Ce ne sont que des petites annonces classées, n’est-ce pas ? Pourtant, ce site a démultiplié l’efficacité d’une sorte de troc communautaire pour toucher un public régional, puis l’a amélioré en intégrant des images et des mises à jour en temps réel, jusqu’à devenir soudain un trésor national. Fonctionnant sans financement ni contrôle public, connectant les citoyens entre eux sans intermédiaire, cette place de marché essentiellement gratuite produit du bien et du lien social avec une efficacité qui laisserait pantois n’importe quel gouvernement ou organisation traditionnelle. Bien sûr, elle ébranle le modèle économique des journaux, mais en même temps il devient indiscutable que le modèle de partage est une alternative viable aux entreprises à la recherche permanente de profits et aux institutions civiques financées par les impôts.

Qui aurait cru que des paysans précaires pourraient obtenir et rembourser des prêts de cent dollars accordés par de parfaits étrangers vivant à l’autre bout du monde ? C’est ce que réussit Kiva en fournissant des prêts de pair-à-pair. Tous les experts de santé publique ont déclaré sous le sceau de la confidentialité que le partage, ça convenait pour les photos, mais que personne ne partagerait son dossier médical. Pourtant, PatientsLikeMe, où les patients mettent en commun les résultats de leurs traitements pour échanger et mieux prendre soin d’eux-mêmes, a montré que l’action collective peut contredire les médecins et leurs craintes concernant la confidentialité.

L’habitude de plus en plus répandue qui consiste à partager ce que vous pensez (Twitter), ce que vous lisez (StumbleUpon), ce que vous gagnez (Wesabe), bref tout et n’importe quoi (le Web) est en train de prendre une place essentielle dans notre culture. En faire de même en créant des encyclopédies, des agences de presse, des archives vidéo, des forges logicielles, de façon collaborative, dans des groupes rassemblant des contributeurs du monde entier sans distinction de classe sociale, voilà ce qui fait du socialisme politique la prochaine étape logique.

Un phénomène similaire s’est produit avec les marchés libres du siècle dernier. Chaque jour, quelqu’un demandait : « Y a-t-il quelque chose que les marchés ne peuvent pas faire ? ». Et on établissait ainsi une liste de problèmes qui semblaient nécessiter une planification rationnelle ou un mode de gouvernance paternaliste en leur appliquant une logique de place de marché. Dans la plupart des cas, c’était la solution du marché qui fonctionnait le mieux, et de loin. Les gains de prospérité des décennies récentes ont été obtenus en appliquant les recettes du marché aux problèmes sociaux.

Nous essayons aujourd’hui d’en faire de même avec la technologie sociale collaborative, en appliquant le socialisme numérique à une liste de souhaits toujours plus grande (jusqu’aux problèmes que le marché libre n’a su résoudre) pour voir si cela fonctionne. Pour l’instant, les résultats ont été impressionnants. Partout, la puissance du partage, de la coopération, de la collaboration, de l’ouverture, de la transparence et de la gratuité s’est montrée plus pragmatique que nous autres capitalistes le pensions possible. À chaque nouvelle tentative, nous découvrons que le pouvoir du nouveau socialisme est plus grand que nous ne l’imaginions.

Nous sous-estimons la capacité de nos outils à remodeler nos esprits. Croyions-nous réellement que nous pourrions construire de manière collaborative et habiter des mondes virtuels à longueur de temps sans que notre perception de la réalité en soit affectée ? La force du socialisme en ligne s’accroît. Son dynamisme s’étend au-delà des électrons, peut-être même jusqu’aux élections.




L’académie en ligne ou la fausse modernité de l’Éducation nationale

Dustpuppy - CC byUne formidable occasion manquée pour notre cher ministère de l’Éducation nationale de se rapprocher de la culture des biens communs ? C’est l’hypothèse développée dans ce billet. Et c’est d’autant plus dommage et frustrant que tout semblait réuni pour que la rencontre ait bel et bien lieu.

Cet épisode révélateur vient clore une nouvelle année plus que fade pour le logiciel libre et son état d’esprit à l’école, puisque, à notre connaissance, pas une mesure sérieuse d’envergure a été officiellement prise en sa faveur, au cours de l’exercice 2008/2009 (on aura ainsi attendu en vain l’équivalent d’un rapport Becta de chez nous).

Logiciels, formats, et surtout, comme nous le verrons plus bas, ressources devront encore patienter pour s’engager pleinement sur le chemin de la liberté. Malgré les efforts de nombreuses personnes, la rue de Grenelle a tranché : c’est une fois de plus le redoublement !

Un projet ambitieux : l’académie en ligne

Comme souvent, il y a au départ une louable intention répondant à un réel besoin avec ce projet d’académie en ligne, inauguré officiellement le 19 juin dernier par l’ex-ministre Xavier Darcos.

L’académie en ligne est un site de ressources gratuites proposés par le CNED pour aider les jeunes dans leur scolarité et permettre aux parents de mieux les accompagner sur la voie de la réussite.

L’académie en ligne doit mettre à la disposition de tous l’intégralité des contenus d’enseignement des programmes de la scolarité obligatoire. Les cours d’école primaire seront en ligne à partir du 15 septembre et ceux de collège et lycée à partir de fin octobre.

Dès à présent, il propose des cours d’été, aux élèves du C.P. à la terminale, pour réviser les notions essentielles de l’année écoulée et préparer la rentrée.

De nombreuses séquences s’appuient sur des documents audio, iconographiques ou des activités interactives. On peut y accéder par matière, par classe ou par mot-clé grâce à un moteur de recherche.

Excellente et exaltante idée que de vouloir ainsi « mettre à la disposition de tous l’intégralité des contenus d’enseignement ».

Voilà qui sera d’une grande utilité non seulement aux élèves mais aussi à tous ceux qui sont un peu curieux de que l’on apprend à l’école (et parmi les effets secondaires positifs, on en profitera au passage pour réduire l’influence croissante et lucrative du parascolaire privé sur le temps non scolaire).

Visite surprise du site : le fond

Intrigué, je me suis donc rendu sur le site en question. Mon propos n’est pas ici d’en évaluer dans le détail la qualité et la pertinence pédagogique. Mais permettez-moi néanmoins au passage de donner un rapide et humble avis sur ce que je connais un peu, à savoir les mathématiques du secondaire.

Pour le collège on a visiblement découpé en rondelles PDF une sorte de cahiers d’activités (toujours sur le même moule : « je me souviens, je retiens, je m’exerce, je relève un défi »). La correction des exercices est à télécharger séparément.

Pour le lycée, c’est plus solide mais c’est un peu comme si on avait saucissonné, toujours uniquement en PDF, un semblant de manuel scolaire cette fois. On a le cours et des exercices d’application corrigés. Pas très moderne, didactiquement parlant. Si l’élève[1] a eu la bonne idée de conserver son propre manuel de l’année écoulée, autant travailler sur ce dernier, ces documents en ligne n’apportant a priori pas grand chose de plus (il économisera de l’encre et du papier qui plus est).

J’ai jeté également un œil (non avisé) sur les mathématiques du primaire. Ce n’est plus du PDF mais des animations au format Flash qui sont proposées. Ça bouge, ça parle et il y a de jolies couleurs, mais c’est toujours la même et lancinante structure : une première partie où l’on écoute passivement une petite explication et une seconde partie avec des exercices pseudo-interactifs où a la première erreur on nous dit systématiquement : « tu t’es trompé, recommence ! » et à la deuxième : « tu t’es trompé regarde bien la solution ! ».

Au final, tout ceci a le mérite d’exister mais c’est tout de même « un poil » décevant (mettez-vous à la place d’un élève qui débarque sur le site en souhaitant réviser en toute autonomie). C’est comme si le CNED avait mis en ligne des documents préexistants qu’il distribue j’imagine pendant l’année à ses élèves. Il n’y a visiblement pas eu de réflexion sur le spécificité des cours d’été, cette période particulière où l’on se trouve entre deux niveaux.

Visite surprise du site : la forme

J’ai balayé quelques pages du reste du contenu. Il m’a semblé que l’on retrouvait peu ou prou le même modèle pour les autres disciplines.

La seule nouveauté repérée concernait la présence de ressources audios pour les langues (anglais et espagnol), qui étaient elles-aussi mises à disposition au format Flash. Du format audio (le mp3 en l’occurrence) encapsulé dans du format Flash, impossible donc de télécharger ces séquences sonores (« Hello my name is John, repeat after me ») pour les écouter sur la plage dans son iPod.

Nous n’avons donc que deux formats, le PDF et le Flash. Le premier est un format ouvert quand l’autre ne l’est pas, mais ce que l’on peut surtout faire remarquer c’est que ce sont des formats qui ne permettent généralement pas les modifications. En effet, si vous voulez mettre à jour un fichier PDF, vous devez disposer du format natif qui a généré votre PDF (par exemple le traitement de texte Word de MS Office ou, mieux, Writer d’OpenOffice.org). Par analogie avec les logiciels, on pourrait dire que le fichier traitement de texte est le fichier source tandis que le fichier PDF est le fichier compilé (idem avec le Flash dont tout changement demande la présence des sources au format .fla). Sur l’académie en ligne ces fichiers d’origine sont absents. Les ressources mises à disposition sont pour ainsi dire « figées dans la vitrine ».

Dernière remarque. Les pages du site sont au format ASPX caractéristiques de la technologie Web de Microsoft. Ce ne sont pourtant pas les solutions libres qui manquent aujourd’hui pour construire des sites de qualité. Je ne pense pas que ce soit lié mais on peut aussi faire observer en passant que l’ergonomie générale du site laisse lui aussi pour le moment à désirer.

Visite surprise du site : la législation en vigueur

Il n’est techniquement pas possible de modifier les fichiers proposés ou d’embarquer les sons sur son baladeur. Mais, ceci expliquant sûrement cela, il est surtout juridiquement impossible de le faire.

Les mentions légales (et plus particulièrement son paragraphe 3 « Propriété intellectuelle ») sont en effet très contraignantes, et malheureusement révélatrices du climat ambiant.

D’ailleurs je viens déjà de me mettre en infraction à cause du lien ci-dessus ne pointant pas sur la page d’accueil du site !

Premier extrait (c’est moi qui souligne) :

Le site autorise, sans autorisation préalable, la mise en place de liens hypertextes pointant vers la page d’accueil du site Internet.

Tout lien vers une page autre que la page d’accueil du site Internet est strictement interdit sans l’accord préalable du Cned. Même en cas d’accord du Cned, Il est strictement interdit d’imbriquer les pages du site à l’intérieur des pages d’un autre site. Les pages du site doivent être visibles par l’ouverture d’une fenêtre indépendante.

Les sites qui font le choix de pointer vers ce site engagent leur responsabilité dès lors qu’ils porteraient atteinte à l’image du site public ou de la marque Cned.

Thierry Stoehr et Benoit Sibaud apprécieront cette interdiction de liaison (pourtant ontologiquement indissociable du Web).

Mais, plus fort encore, deuxième extrait concernant les cours proprement dits :

L’ensemble des cours figurant sur ce site sont la propriété du Cned.

Les images et textes intégrés à ces cours sont la propriété de leurs auteurs et/ou ayants-droits respectifs.

Tous ces éléments font l’objet d’une protection par les dispositions du code français de la propriété intellectuelle ainsi que par les conventions internationales en vigueur.

La consultation et le téléchargement des cours n’opèrent aucun transfert de droit de propriété intellectuelle sur ceux-ci. Ils ne sont permis que dans le strict respect des conditions suivantes :

Vous ne pouvez utiliser ces contenus qu’a des fins strictement personnelles. Toute reproduction, utilisation collective à quelque titre que ce soit, tout usage commercial, ou toute mise à disposition de tiers d’un cours ou d’une œuvre intégrée à ceux-ci sont strictement interdits.

Il est interdit de supprimer ou de tenter de supprimer les procédés techniques de protection des cours et des contenus intégrés (filigranes, blocages de sélections notamment).

Il est interdit d’extraire ou de tenter d’extraire une œuvre reproduite dans un cours et de l’utiliser à d’autres fins que celle d’illustration du cours auxquels elle est intégrée.

Le non respect de ces conditions vous expose à des poursuites judiciaires pour contrefaçon conformément aux articles L 335-2 et suivi du code de la propriété intellectuelle. Ces actes sont punis de 3 ans de prison et 300 000 euros d’amende.

Vous avez bien lu. Pour rappel nous sommes sur un service public d’éducation.

Si je partage je m’expose donc alors à des sanctions pour le moins disproportionnées. Cela ne vous rappelle rien ? Hadopi bien sûr, à la différence prêt que l’école est le lieu même de la transmission et que les auteurs des ressources sont des fonctionnaires de l’état français qui ne sont généralement pas payés (plusieurs fois) sur leurs droits d’auteur mais (une fois) sur leur salaire provenant de nos impôts.

Je suis enseignant et je souhaite distribuer ces ressources à mes élèves ? Interdiction. Je souhaite les adapter à mes besoins et (re)déposer ce travail dans le pot commun ? Interdiction. Je suis animateur dans un Espace public numérique ou dans un réseau d’éducation populaire et souhaite en faire profiter collectivement mon public ? Interdiction. Je suis un élève et souhaite distribuer les ressources à mes camarades qui n’ont pas accès à Internet ? Interdiction. La liste est longue et non exhaustive…

Ces mentions légales étaient-elles forcément les plus adaptées à la situation et à l’objectif fièrement affiché ? Rien n’est moins sûr. N’y aurait-il pas une certaine légitimité à les remettre en question, ou tout du moins à se poser quelques questions ?

Quelques ombres planent : 1. L’alternative Sésamath et les associations d’enseignants

Il est dès lors difficile d’évoquer ce projet sans penser en arrière-plan à l’association de professeurs Sésamath (que les lecteurs du Framablog connaissent bien désormais). Quand bien même elle ne concerne que le champ des mathématiques, la comparaison est en effet riche d’enseignements.

Sur la forme, les ressources mises à disposition par Sésamath sont elles aussi principalement proposées au format PDF et Flash, à ceci près que les sources sont également présentes. Et c’est loin d’être un détail parce que c’est la conséquence directe de la plus grande différence de départ entre cette académie en ligne et les travaux de l’association : la licence des ressources.

Fermée pour l’académie mais ouverte pour Sésamath, qu’il s’agisse de la GNU FDL (pour les manuels et les cahiers) ou de la GPL pour les logiciels (dont le fameux Mathenpoche). Avec un tel choix de licences libres, toutes les interdictions mentionnées précédemment sont levées !

Mais peut-être plus important encore,le fond, c’est-à-dire la qualité des documents. Ce n’est pas parce qu’une structure accole du jour au lendemain une licence libre à ses travaux que ces derniers vont, tel un coup de baguette magique, gagner en qualité. Il y a bien entendu des facteurs autrement plus importants qui entrent en ligne de compte. Il n’empêche que cela participe à la création d’un terreau fertile à l’épanouissement des ressources. La licence libre donne confiance, induit la circulation, la collaboration et donc a priori l’amélioration (je peux copier, modifier et reverser en toute liberté dans le pot commun sans que quiconque puisse un jour refermer le couvercle). Le projet peut échouer bien entendu, mais on lui aura ainsi facilité en amont ses chances de réussite. Réussite qui a bien eu lieu ici avec Sésamath, où qualité, mais aussi quantité, réalisées à plusieurs mains sont au rendez-vous.

Je souhaite cet été que mon gamin, futur lycéen, révise le théorème de Thalès vu en troisième ? Sur l’académie en ligne vous avez droit à votre unique fiche d’activité PDF à imprimer (Internet ne sert donc à rien d’autre ici qu’à stocker la ressource). Sur Sésamath par contre c’est un autre son de cloche. Vous avez plus d’une centaine de questions interactives via Mathenpoche, accompagnées si vous le désirez par les exercices du cahier correspondant (exemple), ainsi que le chapitre complet du manuel libre du niveau considéré. Mais il y a mieux, avec leur nouveau projet Kidimath, tout (et plus encore : rappels de quatrième, annales du Brevet, QCM…) est regroupé dans une seule et même interface spécialement conçue pour le travail de l’élève hors du temps scolaire ! Allez-y, cliquez sur 3ème puis Thalès, et vous serez bluffé par la qualité et la quantité du contenu proposé (et optimisé pour Internet). Et il en va de ce chapitre particulier comme de tous les autres chapitres de tous les niveaux du collège !

D’où évidemment la question suivante : mais pourquoi diable le ministère n’a-t-il pas fait appel à Sésamath pour collaborer sur la partie mathématique de l’académie en ligne ? Quel intérêt de laisser le CNED proposer seul dans son coin ces maigres ressources alors que l’on possède en son sein des enseignants aussi productifs ayant une solide expérience du « travailler ensemble » ?

Je n’ai pas la réponse à ce qui, vu de l’extérieur, est un pur mystère, voire un beau gaspillage d’énergie (cf le syndrome Not Invented Here). Tout au plus peut-on supputer que c’est lié à une question de gouvernance : une décision qui se prend seule en haut en désignant un unique interlocuteur bien identifié en bas pour exécuter la tâche (en l’occurrence le CNED). Peut-être aussi que l’absence de volonté de mettre en avant le logiciel libre à l’école ne favorise pas chez nos élites l’appropriation de sa culture, ses valeurs… dont la collaboration est l’un des piliers. L’Éducation nationale est une cathédrale et non un réseau social (et encore moins une communauté).

Toujours est-il qu’il y a tout de même un élément de réponse simple à la question. Tant que les mentions légales du projet d’académie en ligne resteront en l’état, il ne sera pas possible à un Sésamath de s’impliquer, pour la bonne raison que les licences sont totalement incompatibles.

Et n’allez pas croire que Sésamath est seul à bord du navire. Il en est certes à la proue mais derrière lui d’autres associations d’enseignants sont elles-aussi très actives et productives. Je pense notamment à Weblettres ou les Clionautes, qui respectivement en français et en histoire et géographie, font référence parmi les collègues. D’ailleurs ces trois association sont en partenariat autour du projet CapBrevet et on fait l’objet d’une sérieuse étude dans le n° 65 des Dossiers de l’ingénierie éducative consacré justement au travail collaboratif. Lecture chaudement recommandée, quand bien même on occulte un peu la question pourtant primordiale des licences, qui différencie, mais pour combien de temps encore, Sésamath de ses deux partenaires.

En tout cas, cela fait déjà pas mal de monde qui aurait pu participer au projet en le bonifiant de son savoir-faire. Ne nous privons pas de nos talents, conjuguons-les pour le plus grand bénéfices de nos élèves !

Quelques ombres planent : 2. Les éditeurs scolaires

Une autre éventuelle piste de réponse à la question précédente peut être recherchée du côté des éditeurs scolaires. J’avoue humblement être très peu au fait des relations entre ces éditeurs et le ministère, mais il y a fort à parier qu’on a voulu un tant soit peu les ménager ici.

Imaginez en effet la mise à disposition sous licence libre de ressources pédagogiques en collaboration réelle avec les enseignants et leurs associations, ouvertement accessibles sur des forges spécialement dédiées, pour toutes les disciplines et pour tous les niveaux ! Nul doute que cela finirait par impacter fortement le marché de l’édition scolaire (en fait cela irait beaucoup plus loin en impactant directement et durablement la manière même dont les enseignants, et même les élèves, travaillent).

Une telle éventualité signifierait à terme ni plus ni moins que la mort lente mais annoncée du système actuel. L’industrie du disque et leurs CD pressés ont, semble-t-il, aujourd’hui quelques « menus problèmes » avec l’avènement du numérique. Les éditeurs scolaires et leurs manuels scolaires imprimés auront à n’en pas douter des difficultés similaires demain. On connait l’histoire : soit on se rétracte en défendant le plus longtemps possible des positions et habitudes hérités du siècle dernier, soit on s’adapte en créant de nouveaux modèles et en associant étroitement ici les fans de musique et là les enseignants.

Mais ne prenons aucun risque et épargnons-nous cette crise potentielle. D’abord parce que ces ressources sont donc sous licence non libre (on pourrait dire « propriétaires » dans le langage des logiciels) mais aussi parce que, autant appeler un chat un chat, elles sont en l’état de piètre qualité. C’est à prendre tel quel ou à laisser, nous dit la licence. Et la piètre qualité achève notre choix. Le privé conserve son avantage, l’été sera chaud mais non incandescent.

On notera cependant qu’il n’y a pas que les éditeurs privés qui soient concernés. Une structure comme le CNDP dont le budget dépend pour beaucoup des ventes de son catalogue pédagogique (où à ma connaissance rien ou presque n’a encore été mis sous licence libre) peut également se voir contrariée voire contestée dans sa manière de fonctionner. Idem pour les traditionnels partenaires culturels de l’Éducation nationale. Pour le moment feignons de croire que le copyleft n’existe pas et qu’il n’y a de ressources que les ressources fermées soumises aux droits d’auteur d’avant l’Internet. Et rassurons les partenaires en payant plusieurs fois et pour des durées limitées l’accès à ces ressources.

Quelques ombres planent : 3. Le boum des ressources éducatives libres

Licences fermées, professeurs peu impliqués et éditeurs confortés dans leur immobilisme… tout ceci ne devrait pas tenir longtemps parce que par delà nos frontières c’est la pleine effervescence autour de ce que l’on appelle les ressources éducatives libres. Et c’est bien plus qu’une ombre qui plane, c’est une véritable mutation qui s’annonce.

De quoi s’agit-il exactement ? En creux (académie en ligne) ou en plein (Sésamath), nous en parlons en fait implicitement depuis le début de cet article. Difficile pour l’heure d’en donner une définition précise, tant le concept est nouveau et en mouvement, mais on peut voir ces ressources éducatives libres comme une tentative de transposition des principes fondamentaux du logiciel libre. Usage, copie, modification et distribution (sans entrave et sans discrimination), ces principes garantissent un certain nombre de libertés aux utilisateurs tout en favorisant l’échange, le partage et l’amélioration collective du logiciel. Cela présuppose que le logiciel soit placé sous une licence libre qui légitime et explicite ces droits. Et c’est pourquoi nous insistons tant sur le choix ou non d’une telle licence.

À partir de là, voici la définition qu’en donne actuellement Wikipédia : « l’expression Ressources Éducatives Libres (REL) désigne un mouvement mondial initié par des fondations, universités, enseignants et pédagogues visant à créer et distribuer via internet des ressources éducatives (cours, manuels, logiciels éducatifs, etc.) libres et gratuites ».

Pour aller plus loin je vous invite à lire la Déclaration de Dakar sur les Ressources Educatives Libres adoptée le 5 mars 2009 au cours du Campus numérique francophone de Dakar, évènement organisé à l’initiative du Bureau Régional pour l’Education en Afrique de UNESCO, de l’Organisation Internationale de la Francophonie (OIF), et de l’Agence universitaire de la Francophonie (AUF). On pourra également parcourir la traduction française de ce document de l’UNESCO : Open Educational Resources: the Way Forward.

Mais dans ce domaine ce sont clairement les anglophones qui ont une bonne longueur d’avance, l’expression ressources éducatives libres n’étant d’ailleurs à la base qu’une traduction de Open Educational Ressources (ou OER). Chez eux la réflexion est menée depuis longtemps et les initiatives se multiplient : les pionniers de l’OpenCourseWare au MIT, OER Commons, OpenCourseWare Consortium, Teachers without Borders, The Cape Town Open Education Declaration, Open Education and Mozilla, WikiEducator (auteur de l’OER Handbook for Educators que l’on ne désespère pas de traduire un jour), les projets de manuels scolaires libres dans le secondaire comme en Californie, et Wikiversity (dont le fort intéressant cours Composing free and open online educational resources) pour ne citer que ceux-là.

Mesurons-nous en effet pleinement les conséquences de l’accessibilité complète sur Internet de telle ressources, comme par exemple ce cours de Programming Methodology dans la cadre d’un cursus informatique donné à la prestigieuse université de Standford ? Et, attention, on parle bien ici d’accessibilité complète. Pour chaque séquence vous avez la vidéo (sous différents formats : YouTube, iTunes, format natif mp4 distribué en torrent via le réseau… P2P !) et sa transcription (au format PDF mais aussi html), des exercices et des annales (et leurs corrections), ainsi que des logiciels à télécharger, des notes et des références bibliographiques. C’est très impressionnant et le tout est proposé sous la licence libre Creative Commons By (cf Les licences Creative Commons expliquées aux élèves), signifiant par là-même que du moment que vous conservez et respectez la paternité du travail, vous pouvez, de n’importe quel point du globe, utiliser, télécharger, copier, modifier, distribuer et même en faire commerce !

À comparer avec ce que propose l’académie en ligne, qui à peine née semble déjà quelque part obsolète ! Avec ce projet, le ministère avait une occasion rêvée de s’inscrire enfin dans cette dynamique. Force est de constater qu’il ne l’a pas saisie. La France institutionnelle prend un retard qu’il lui sera difficile par la suite de combler.

Un discours qui se voulait moderne

À la lumière de ce que nous venons d’exposer, je vous laisse apprécier le discours de presse du ministre prononcé lors du lancement du projet (et dont la lecture a motivé ce billet).

Morceaux choisis.

Pourquoi cette décision ? Parce que dans une société qui s’enorgueillit à juste raison d’avoir bâti une école gratuite, laïque et obligatoire, je ne me résous pas à ce que l’accès au savoir et la réussite scolaire puissent devenir peu à peu une affaire de moyens, de relations ou de circonstances.

Pour ma part, je ne me résous pas à ce que cet accès au savoir se fasse dans ces conditions. Et j’ai parfois l’impression que la situation du Libre à l’école est un peu « affaire de moyens, de relations ou de circonstances ».

Je connais des enfants qui occupent leurs vacances comme ils le peuvent, tandis que d’autres, du même âge, passent de livrets de révision en stages de soutien payants, accentuant ainsi l’écart avec les autres élèves.

Ces situations, ces besoins, nous les connaissons tous et pourtant nous laissons à d’autres le soin d’y répondre. À l’heure où les technologies de l’information et de la communication mettent le savoir à la portée de tous, tout le temps et partout, l’école a pourtant une opportunité extraordinaire de rappeler sa capacité à transmettre des connaissances à partir de ressources précises, fiables, hiérarchisées selon une logique cohérente.

L’opportunité est en effet extraordinaire de « mettre le savoir à la portée de tous, tout le temps et partout ». Mais pourquoi ne pas être allé au bout de la démarche ? Est-ce que le CNED est la seule entité capable de produire « des connaissances à partir de ressources précises, fiables, hiérarchisées selon une logique cohérente » ?

Pour autant cette académie en ligne est bien plus qu’un service supplémentaire offert aux élèves et à leurs familles. Car si nous parlons de 31e académie, c’est bien qu’il s’agit d’une véritable mutation dans notre ministère.

L’Éducation nationale est divisée en académies. Affirmer que l’on jette ainsi la première pierre à une 31e académie donne la mesure de l’ambition. Mais la véritable mutation aura-t-elle lieu ?

Cette académie en ligne est une aide non seulement pour les élèves, mais aussi pour les parents qui veulent accompagner leurs enfants, pour les professeurs désireux de trouver des ressources pédagogiques, et même pour les adultes qui souhaitent reprendre des études. Plus largement, je souhaite que cet outil contribue au rayonnement de la langue française et à la diffusion de nos contenus éducatifs dans les pays francophones, notamment dans certains pays d’Afrique, où les enseignants qui le désirent pourront trouver gratuitement des ressources de qualité pour leurs élèves.

Quand le paradoxe frise la contradiction. Au risque de nous répéter, comment voulez-vous que les professeurs s’y retrouvent si on leur interdit la moindre modification ? Quant aux pays d’Afrique, ils apprécieront de ne pouvoir distribuer les ressources en direction des populations non connectées à Internet. Impliquons-les! Qu’ils soient avec nous acteurs du contenu plutôt que simples spectateurs bridés, le « rayonnement de la langue française » ne s’en portera que mieux.

Le mot « gratuit » est prononcé cinq fois dans le discours. Il est tant de d’affirmer clairement (et péremptoirement) notre position : l’académie en ligne ne doit pas être gratuite, elle doit être libre. Il se trouve qu’en étant libre elle sera effectivement disponible gratuitement, mais ça n’en sera qu’une conséquence. Et n’oublions pas d’ailleurs, comme cela a déjà été dit, que derrière ces ressources il y a ici des enseignants du CNED payés sur leur temps de travail pour les produire (aux frais du contribuable, ce qui n’est pas gratuit).

Les libertés d’utiliser, de copier, de modifier et de distribuer des ressources éducatives, sur des formats ouverts et lisibles par des logiciels libres, ne sont-elles pas ici plus fondamentales que la gratuité, a fortiori dans le domaine éducatif ?

Et le ministre de surenchérir, dans sa lettre aux parents cette fois (qui fait également l’objet d’une vidéo) :

Naturellement, ces ressources seront accessibles gratuitement, conformément aux principes fondamentaux de l’école républicaine.

Substituons « librement » à « gratuitement », et c’est d’un coup l’horizon des possibles qui s’élargit, tout en étant certainement plus proche de ces fameux principes républicains. Le jour où un ministre de l’Éducation Nationale dira que « naturellement, ces ressources seront accessibles librement » alors les lignes auront bougé.

Avec ses 55 000 écoles primaires, ses 5 000 collèges et ses 2 600 lycées, l’Éducation nationale constitue le premier réseau physique d’accès au savoir en France. Je veux faire en sorte qu’elle devienne aussi le premier réseau numérique de diffusion des connaissances.

A l’heure où de grands moteurs de recherche scannent et mettent à la disposition du public des fonds entiers de bibliothèques, il me semble que la diffusion d’une offre complète et gratuite de contenus d’enseignement est de nature à faire du service public d’éducation un acteur puissant du monde de l’Internet.

On a raison de s’inquiéter de l’emprise de Google. Mais est-ce ainsi que l’on construit « le premier réseau numérique de diffusion des connaissances » capable lui faire concurrence ?

La suite du discours est du même acabit, si ce n’est qu’elle est révélatrice d’une certaine confusion vis-à-vis de la modernité.

Renforcer la présence du ministère de l’Éducation nationale sur Internet, c’est aussi repenser totalement nos modes de communication sur ce média. (…) Nous avons donc voulu à la fois rénover nos sites institutionnels et diversifier nos formats de communication, en donnant une part plus importante aux nouveaux médias présents sur Internet : Dailymotion, Twitter, Facebook sont de nouveaux outils qui permettent de toucher des publics qui ne fréquentaient pas spontanément nos sites institutionnels, notamment des publics plus jeunes et moins spécialisés dans les questions éducatives. (…) Nous avons aussi ouvert le compte Twitter Education France, qui informe les abonnés des sujets d’actualité immédiate du ministère. Je veux que l’Éducation nationale soit partie prenante de ce qu’on appelle le « web 2.0 », le web participatif.

Les expressions marketing sont lâchées… On met les guillemets au web 2.0 mais pas au web participatif. Comme si nous étions tous d’accord sur le sens accordé.

Je ne vois pas en quoi placer quelques vidéos sur Dailymotion (avec commentaires désactivés !) et communiquer via ces nouveaux canaux que sont Facebook et Twitter procèdent de la participation (ce sont tous en outre des services privés reposant sur des logiciels propriétaires susceptibles de poser quelques problèmes vis-à-vis de la protection des données personnelles). De ce point de vue là, l’actuelle Consultation publique sur l’Internet du futur, avec son bon vieux formulaire à remplir, est bien plus participative à mes yeux (si, contrairement au forum de la mission E-educ, on prend réellement en compte les contributions).

Ce qui est sûr c’est qu’en plus de ses ressources « verrouillées », l’académie en ligne version juin 2009 n’est en rien participative. Aucun espace pour y laisser la moindre trace, pas même une page de contact !

Ce ministère a trop souvent été raillé pour son conservatisme, je veux à présent faire en sorte qu’il soit loué pour sa modernité.

Nous attendrons encore un peu.

N’ayez pas peur

La conclusion du discours ouvre cependant une fenêtre d’espoir.

Mesdames et messieurs les journalistes (…) vous pouvez constater que c’est une stratégie globale que nous mettons en place pour faire participer le ministère de l’Éducation nationale aux évolutions de son temps.

A travers ces nouveaux outils, dont l’académie en ligne est un exemple, je veux permettre au plus grand nombre d’accéder librement et dans les délais les plus courts à la totalité de l’offre et de l’actualité éducative. Ce n’est que le début d’un chantier immense, que je veux poursuivre avec de nouveaux services que nous proposerons aux enseignants et qui seront à l’étude à partir de la rentrée prochaine.

Pour la première fois en effet on a troqué la gratuité pour la liberté. Ayant conscience de l’ampleur de la tâche, on nous dit aussi que l’on souhaite proposer de « nouveaux services » aux enseignants.

Il est encore temps de rectifier le tir (la présence d’un nouveau ministre étant d’ailleurs un facteur favorable). Le diagnostic est bon, le remède beaucoup moins. Oublions les Facebook, Twitter, Dailymotion et autres gadgets de communication légèrement hors-sujet par rapport aux réels enjeux. Et osons faire passer l’académie en ligne du mode « lecture seul » au mode « lecture / écriture ensemble ». Car le plus grand service que l’on puisse rendre présentement aux enseignants est d’inscrire ce projet dans le cadre des ressources éducatives libres.

Il s’agirait alors bien sûr d’une véritable petite « révolution culturelle » au sein du ministère, nécessitant de repenser, parfois en profondeur, les relations entre l’institution et les différents acteurs du monde éducatif. Mais pourquoi attendre (puisque c’est inéluctable) ? Sauf à vouloir aller contre les objectifs même de ce projet, cette décision, certes courageuse mais pleine de bon sens, serait alors réellement à même de faire « participer le ministère de l’Éducation nationale aux évolutions de son temps ».

Dans le cas contraire, regarder passer le train des ressources éducatives libres constituerait selon nous une triple erreur : historique, politique et par dessus tout pédagogique.

Notes

[1] Crédit photo : Dustpuppy (Creative Commons By)




Des citoyens plus libres dans l’État de New York

Aku Busy - CC byLe Sénat de l’État de New York vient d’afficher sa volonté d’ouverture en créant un espace dédié (dont nous avons traduit la page d’accueil ci-dessous) où il annonce son intention de proposer à ses administrés des « Free and Open-Source Software & Services ».

Ce billet est à rapprocher de S’il te plaît… dessine-moi une ville libre qui concernait la ville de Vancouver, ainsi que du plan d’action britannique en faveur de l’Open Source. Sans oublier bien sûr l’article New York : déduction d’impôts pour les développeurs Open Source ?[1] qui témoigne du réel intérêt porté par cet état américain vis-à-vis du logiciel libre.

Formats ouverts, accès aux données et logiciels maisons mis à disposition sous licence libre, cela semble n’être que du bon sens lorsqu’il s’agit de politique et de deniers publics. Cela ne va pourtant pas encore de soi, parce que nous héritons le plus souvent d’une situation antérieure baignant consciemment ou non dans une « culture propriétaire ».

Ce n’est pas la France qui nous contredira, dont la nouvelle version de travail du Référentiel Général d’Interopérabilité (RGI) constitue plus qu’une déception en la matière.

Le Sénat de l’État de New York en route vers l’Open Source

Free and Open-Source Software & Services

New York State Senate – juin 2009 – Licence Creative Commons By-Nc-Nd
(Traduction non officielle Framalang : Poupoul2 et Tyah)

Bienvenue au Sénat ouvert de New York

Afin de poursuivre son engagement de transparence et d’ouverture, le Sénat de l’État de New York s’engage dans un programme de pointe afin non seulement de libérer les données, mais également d’aider les citoyens et de donner un exemple de restitution à la communauté. Sous ce programme et pour la toute première fois, le Sénat de New York donnera aux développeurs et aux autres utilisateurs un accès direct à ses données grâce à des API et publiera ses propres logiciels. En plaçant dans le domaine public les données et développements technologiques créés par le Sénat, le Sénat de New York espère animer, renforcer et engager les citoyens dans la création politique et le dialogue.

Ce que vous trouverez ici :

  • Des interfaces de programmation (API) pour construire vos propres applications et services
  • Des widgets interactifs pour faciliter le partage sur vos sites, profils ou blogs
  • Des logiciels originaux tels que des modules Drupal et des librairies Java
  • Des ensembles de données dans des formats variés, accompagnés de langages simples et d’explications graphiques sur des documents importants et des définitions
  • Les règles légales et les licences adoptées par le Sénat garantissant que ces informations et ces outils peuvent être librement utilisés

Merci d’utiliser les données et outils offerts ici, de les mixer, de les améliorer, et de les re-distribuer pour aider le Sénat à former et impliquer les citoyens de New York.

API

Le Sénat de New York a créé une API développeur afin d’aider les organisations et les particuliers à compiler les données du Sénat tel qu’ils le souhaitent. L’objectif principal était de proposer les enregistrements du LRS (NdT : Legislative Retrieval System, base de données de suivi des décisions législatives, de la proposition jusqu’au vote) dans un format ouvert. Ces donnés peuvent alors être interrogées au travers d’une simple API afin de produire des résultats dans de nombreux formats ou standards, XML (RSS, Atom, schémas personnalisés), JSON, CSV, HTML (widgets).

Widgets embarqués

Les widgets sont un moyen agréable et simple de diffuser des informations importantes auprès du public. Merci de consulter notre bibliothèque de widgets et servez-vous dans les outils qui amélioreront l’expérience de vos utilisateurs et des nôtres, sur l’ensemble du Web. Si vous avez votre propre widgets utilisant notre API ou nos données, contactez-nous et nous pourrions le présenter ici.

Logiciels originaux

En tant qu’utilisateur de logiciel Open Source, le Sénat de New York souhaite restituer à la communauté qui lui a tant donné, y compris ce site Web. Afin de satisfaire ses besoins, le Sénat crée en permanence du nouveau code et corrige des dysfonctionnements existants. Non seulement le Sénat reconnaît qu’il a une responsabilité de restitution à la communauté Open Source, mais les développements publics, réalisés avec de l’argent public devraient être publics.

Vous pouvez trouver tout le code source du Sénat de New York publié sur Github à http://github.com/nysenatecio.

Ensembles de données

La page Open Data (NdT : Données ouvertes) du Sénat de New York est le dépôt officiel de toutes les données gouvernementales. Vous pourrez ici naviguer au travers des données produites et étudiées par le Sénat dans leur forme originale ainsi que d’autres types de fichiers variés créés pour votre confort, y compris : des feuilles de calcul Excel, des fichiers CSV, texte ou PDF (liste non exhaustive). Afin de compléter les données source qu’il rend publiques, le Sénat a également créé l’Initiative Langage Simple (NdT : Plain Language Initiative) conçue afin de permettre d’expliquer les jeux de données complexes et les mentions légales en langage simple.

Logiciels Open Source et licences de logiciels

Afin de rendre public au maximum les informations et les logiciels du Sénat, Il a été adopté un système unique de double licence : la GNU General Public License ainsi que la BSD License. Ce système a pour objectif de garantir que les licences publiques sont utilisées dans chaque cas particulier tels que :

  1. Chaque logiciel publié et contenant des composants initialement sous licence GPL doit être publié conformément aux termes de la licence GPL V3.
  2. Chaque logiciel créé indépendamment par le Sénat sans licence initiale sur aucun de ses composants sera publié sous double licence et prendre l’une de ces formes : (a) licence BSD, ou (b) licence GPL. L’utilisateur final d’un tel logiciel choisira la licence qui aura le plus de sens pour son projet.
  3. Concernant les logiciels contenant des mentions légales autres que la GPL, le CIO (NdT : Chief Information Officer, responsable des technologies de l’information et de la communication) décidera du mode de publication de tels logiciels.

Notes

[1] Crédit photo : Aku Busy (Creative Commons By)