Fracture et solidarité numériques, par Jean-Pierre Archambault

Ferdinand Reus - CC by-saRien de tel pour aborder la rentrée scolaire qu’un excellent article de synthèse de notre ami Jean-Pierre Archambault qui réunit ici deux de ses sujets favoris : le logiciel libre et la place de l’informatique à l’école.

Il est intéressant de noter que l’auteur a associé dans le titre les termes « fracture » et « solidarité », sachant bien que le logiciel, les contenus et les formats libres et ouverts apportent non seulement une réponse au premier mais développent et favorisent le second[1].

Un article un peu long pour un format blog mais qui vaut le coup ! Pour vous donner un ordre d’idée il correspond à deux cents messages Twitter que l’on parcourerait en enfilade 😉

Fracture et solidarité numériques

URL d’origine du document

Jean-Pierre Archambault – septembre 2009 – Association EPI
Licence Creative Commons By-Nd


Le thème de la fracture numérique est solidement installé dans le paysage des débats sociétaux. La nécessité de la réduire prend des allures de consensus : acceptons-en l’augure. Une raison de fond à cela : la place sans cesse croissante de l’informatique dans tous les secteurs de la société, et les enjeux qui y correspondent. La fracture numérique ce sont les inégalités d’accès aux réseaux, aux contenus entre le Nord et le Sud, ainsi qu’au sein des pays développés. Ce sont aussi les inégalités en terme de maîtrise conceptuelle du numérique. Nous examinerons ces problématiques. Le libre, désormais composante à part entière de l’industrie informatique, a permis de constituer au plan mondial un bien commun informatique, accessible à tous. Nous verrons donc pourquoi il est intrinsèquement lié à la lutte contre la fracture numérique, et donc à la solidarité numérique, avec son approche, transposable pour une part à la production des autres biens informationnels, ses réponses en matière de droit d’auteur. Comme le sont également les formats et les standards ouverts. Et nous rappellerons que dans la société de la connaissance, la « matière grise » et l’éducation jouent, on le sait, un rôle décisif.

Le numérique partout

Le numérique est partout, dans la vie de tous les jours, au domicile de chacun, avec l’ordinateur personnel et l’accès à Internet ; dans l’entreprise où des systèmes de contrôle informatisés font fonctionner les processus industriels. Ses métiers, et ceux des télécommunications, occupent une place importante dans les services. On ne compte plus les objets matériels qui sont remplis de puces électroniques. Il y a relativement, et en valeur absolue, de plus en plus de biens informationnels. C’est l’informatique, pour ne prendre que ces exemples, qui a récemment fait faire de très spectaculaires progrès à l’imagerie médicale et qui permet ceux de la génétique. Elle modifie progressivement, et de manière irréversible, notre manière de poser et de résoudre les questions dans quasiment toutes les sciences expérimentales ou théoriques qui ne peuvent se concevoir aujourd’hui sans ordinateurs et réseaux. Elle change la manière dont nous voyons le monde et dont nous nous voyons nous-mêmes. L’informatique s’invite aussi au Parlement, ainsi on s’en souvient, en 2006, pour la transposition de la directive européenne sur les Droits d’auteur et les droits voisins dans la société de l’information (DADVSI), suscitant des débats complexes où exercice de la citoyenneté rimait avec technicité et culture scientifique. Et plus récemment avec la « loi Hadopi ».

La fracture numérique

On imagine sans peine que pareille omniprésence de l’informatique signifie des enjeux forts, économiques notamment. Que tous ne soient pas sur un pied d’égalité, loin s’en faut, face aux profondes mutations que le numérique engendre ne saurait a priori surprendre. Cela vaut, à plus ou moins grande échelle, pour tous les pays. Il y a beaucoup de fractures : sanitaires, alimentaires… Culturelles aussi. Ainsi concernant la maîtrise de sa langue maternelle. Ainsi la fracture mathématique, qui serait bien plus grave encore s’il n’y avait pas un enseignement de culture générale mathématique tout au long de la scolarité. Si l’interrogation sur « la poule et l’oeuf » est éternelle, on peut penser qu’« il est certain que la fracture numérique résulte des fractures sociales produites par les inégalités sur les plans économique, politique, social, culturel, entre les hommes et les femmes, les générations, les zones géographiques, etc. »[2].

Un problème d’accès

La fracture numérique tend à être perçue, d’abord et surtout, comme un problème d’accès : les recherches sur Internet avec son moteur préféré ne laissent aucun doute à ce sujet. Il y a ceux pour qui il est possible, facile de disposer d’ordinateurs connectés au réseau mondial, et les autres. C’est vrai pour le monde en général, et la France en particulier. En juin 2008, présentant « ordi 2.0 », plan anti-fracture numérique, Éric Besson rappelait qu’« être privé d’ordinateur aujourd’hui pour les publics fragiles, c’est être privé d’accès à l’information, à la culture, à l’éducation, aux services publics, donc être exposé à un risque accru de marginalisation ». Un premier volet de son plan, qui confirmait la possibilité prévue par la loi de finances 2008, permettait aux entreprises de donner leurs ordinateurs inutiles, mais en état de marche, à leurs salariés, sans charges sociales ni fiscales. Un deuxième volet visait à favoriser la création d’une filière nationale de reconditionnement, de redistribution et de retraitement des ordinateurs, ainsi que la mise en place d’un « label de confiance », garantissant un matériel en état de fonctionnement et vendu à très bas prix.

La fracture numérique a une dimension géographique. De ce point de vue, la question de l’accès égal aux réseaux est primordiale. Une politique d’aménagement du territoire ne peut que s’en préoccuper. Avec l’objectif de « démocratiser le numérique en accélérant le déploiement des infrastructures », la décision 49 du Rapport de la Commission pour la libération de la croissance française, sous la présidence de Jacques Attali[3], consistait en la « garantie d’une couverture numérique optimale en 2011 ». La décision 51, « faciliter l’accès de tous au réseau numérique » correspondait à l’objectif de réduire les fractures numériques, dont il était dit qu’« elles recouvrent la fracture sociale ». Elle proposait d’« accélérer le taux d’équipement en ordinateurs dans les foyers et TPE/PME avec un objectif d’équipement de 85 % en 2012, au moyen notamment de donations des PC usagés, de soutiens spécifiques aux étudiants, et microcrédit social ».

Pour le World Wide Web consortium qui, le 28 mai 2008, lançait un groupe d’intérêt web mobile pour le développement social (MW4D), « les technologies mobiles peuvent ouvrir aux plus pauvres des accès à des services d’informations essentiels comme les soins de santé, l’éducation, les services administratifs »[4].

L’accès à Internet, un bien commun

Le problème de l’accès est bien réel. De l’accès à Internet, tel qu’il a été créé et a fonctionné jusqu’à maintenant, et qu’il faut préserver. En effet, Internet est, en lui-même, un bien commun accessible à tous, une ressource sur laquelle n’importe quel usager a des droits, sans avoir à obtenir de permission de qui que ce soit. Son architecture est neutre et ouverte. Le « réseau des réseaux » constitue un point d’appui solide dans la lutte contre la fracture numérique[5].

Internet repose sur des standards ouverts de formats de données (HTML pour écrire des pages web) et de protocoles de communication (TCP/IP, HTTP). Il fonctionne à base de logiciels libres : Apache, SendMail, Linux… Il est donc impossible de verrouiller le réseau par la pratique du secret. Les logiciels libres contribuent à construire une plate-forme neutre. Ils la protègent par des licences comme la GPL et la diffusion du code source, garantissant aux développeurs qu’elle le restera dans l’avenir.

Les logiciels et les contenus numériques

Si l’accent est mis, à juste titre, sur la nécessité de disposer d’un ordinateur pour accéder au monde du numérique[6], les discours sont en général plus « discrets » sur le système d’exploitation. Or, sans système d’exploitation, que les acheteurs ont encore trop souvent l’impression de ne pas payer même lorsqu’il est « propriétaire », pas de machine qui fonctionne.

La fracture numérique, c’est aussi les inégalités d’accès aux logiciels et aux contenus, les régimes de propriété intellectuelle qui entravent leur circulation, leur production. Il y a désormais deux informatiques qui coexistent : libre et propriétaire. Des contenus numériques sous copyright mais aussi sous licences Creative Commons. Ces approches diffèrent sensiblement, sont quasiment antinomiques. Le débat sur leurs « mérites » respectifs, et les choix à opérer, se situe de plain-pied dans la problématique de la fracture numérique. Il peut arriver qu’il en soit absent, les deux « protagonistes » n’étant pas explicitement nommés. Cela étant, la Conférence « Repenser la fracture numérique » de l’Association for Learning Technology, dans une vision multidimensionnelle de la fracture numérique, posait la question « Open or proprietary ? »[7]. Une question qui mérite effectivement d’être posée.

Ce fut le cas à l’Université d’été de Tunisie qui s’est déroulée à Hammamet, du 25 au 28 août 2008[8]. Organisée par le Fonds Mondial de Solidarité Numérique (FSN)[9] et par l’Association pour le Développement de l’Éducation en Afrique (ADEA), elle était consacrée au thème de « La solidarité numérique au service de l’enseignement ». À son programme figuraient notamment les usages du TBI (Tableau blanc interactif), la création de ressources pédagogiques par les enseignants « auto-producteurs » et le rôle des communautés d’enseignants, les problématiques de droits d’auteur. Un atelier, qui portait sur les ressources pédagogiques des disciplines scientifiques et techniques des lycées, a fait différentes propositions dont l’une essentielle aux yeux de ses participants, qui affirme que les logiciels et les ressources pédagogiques utilisés et produits doivent être libres. Les standards et les formats de données doivent être ouverts[10]. Trois raisons ont motivé cette proposition : les coûts, le caractère opérationnel de la production collaborative de contenus pédagogiques, et le fait que les modalités de réalisation et les réponses du libre en terme de propriété intellectuelle sont en phase avec la philosophie générale d’un projet de solidarité numérique, à savoir partage, coopération, échange.

Le projet RELI@, « Ressources en ligne pour institutrices africaines », est destiné à améliorer la qualité de l’enseignement dans les pays du Sud par l’utilisation des outils et contenus numériques. Il repose sur des logiciels et ressources libres. Il a tenu son premier atelier à Dakar, du 22 au 24 octobre 2008[11]. Un « Appel de Dakar » a été lancé pour la production panafricaine de ressources pédagogiques numériques libres.

L’Unesco prime le libre

En 2007, l’association Sésamath[12] a reçu le 3e prix UNESCO (sur 68 projets) sur l’usage des TICE[13]. Pour le jury, Sésamath est « un programme complet d’enseignement des mathématiques conçu par des spécialistes, des concepteurs et près de 300 professeurs de mathématiques ». Il a été récompensé « pour la qualité de ses supports pédagogiques et pour sa capacité démontrée à toucher un large public d’apprenants et d’enseignants ».

« Remerciant particulièrement la commission française pour l’UNESCO qui a soutenu officiellement sa candidature », l’association Sésamath a vu dans l’obtention de ce prix « l’ouverture d’une nouvelle ère pour son action, vers l’internationalisation et plus particulièrement encore vers l’aide au développement ». Elle a ajouté : « Que pourrait-il y avoir de plus gratifiant pour des professeurs de Mathématiques que de voir leurs productions coopératives libres (logiciels, manuels…) utilisées par le plus grand nombre et en particulier par les populations les plus défavorisées ? C’est vrai dans toute la Francophonie… mais de nombreuses pistes de traductions commencent aussi à voir le jour. »[14]

Les deux lauréats 2007 étaient le Consortium Claroline[15] et Curriki[16]. Claroline, représenté par l’Université Catholique de Louvain, en Belgique, fournit à quelque 900 établissements répartis dans 84 pays une plate-forme « open source », sous licence GPL, en 35 langues. Claroline offre une série d’outils pédagogiques interactifs et centrés sur l’apprenant. C’est un modèle de réseau et de communauté qui met en relation des apprenants, des enseignants et des développeurs du monde entier. Créée en 2004 par Sun Microsystems, Curriki est une communauté mondiale qui se consacre à l’éducation et à la formation. Elle a désormais le statut d’organisme à but non lucratif. Elle fournit un portail Internet, un ensemble d’outils et de services aux utilisateurs grâce auxquels chacun peut librement concevoir, regrouper, évaluer et enrichir les meilleurs programmes d’enseignement, ce qui permet de répondre aux besoins de toutes les classes d’âge et de toutes les disciplines. Curriki a ainsi créé une communauté très vivante composée d’enseignants, d’apprenants, de ministères de l’Éducation, d’établissements scolaires et d’organisations publiques et privées.

L’UNESCO a ainsi mis à l’honneur des démarches éducatives fondées sur le libre, logiciels et ressources.

Parmi les avantages du libre

Parmi les avantages du libre, bien connus, il y a des coûts nettement moins importants. Si libre ne signifie pas gratuit, on peut toujours se procurer une version gratuite d’un logiciel libre, notamment en le téléchargeant. Une fantastique perspective quand, organisée au niveau d’un pays, la diffusion d’un logiciel libre permet de le fournir gratuitement à tous, avec seulement des coûts de « logistique » pour la collectivité mais une économie de licences d’utilisation à n’en plus finir.

Partage-production collaborative-coopération sont des maîtres mots de la solidarité numérique qui supposent des modalités de propriété intellectuelle qui, non seulement, favorisent la circulation des ressources numériques et les contributions des uns et des autres mais, tout simplement l’autorisent. La réponse est du côté de la GPL et des Creative Commons.

L’on sait la profonde affinité entre libre et standards et formats ouverts. Or, par exemple, les documents produits par un traitement de texte lambda doivent pouvoir être lus par un traitement de texte bêta, et réciproquement. La coopération et l’échange sont à ce prix. Il s’agit là d’une question fondamentale de l’informatique et de la fracture numérique. Tout citoyen du monde doit pouvoir avoir accès à ses données, indépendamment du matériel et du logiciel qu’il utilise. De plus en plus de biens informationnels ont une version numérisée. L’enjeu est d’accéder au patrimoine culturel de l’humanité, de participer à sa production, d’être un acteur à part entière du partage et de la coopération.

Avec le libre, chaque communauté peut prendre en main la localisation/culturisation qui la concerne, connaissant ses propres besoins et ses propres codes culturels mieux que quiconque. Il y a donc, outre une plus grande liberté et un moindre impact des retours économiques, une plus grande efficacité dans le processus, en jouant sur la flexibilité naturelle des créations immatérielles pour les adapter à ses besoins et à son génie propre. C’est aussi plus généralement ce que permettent les « contenus libres », c’est-à-dire les ressources intellectuelles – artistiques, éducatives, techniques ou scientifiques – laissées par leurs créateurs en usage libre pour tous. Logiciels et contenus libres promeuvent, dans un cadre naturel de coopération entre égaux, l’indépendance et la diversité culturelle, l’intégration sans l’aliénation.

Les logiciels (et les ressources) libres, composante à part entière de l’industrie informatique, ne peuvent qu’avoir une place de choix dans la lutte contre la fracture numérique. Sans pour autant verser dans l’angélisme. Entre les grands groupes d’acteurs du libre (communautés de développeurs, entreprises, clients comme les collectivités), dont les motivations et ressorts sont divers, il existe des conflits et des contradictions. Des dérives sont possibles, comme des formes de travail gratuit. Mais au-delà des volontés des individus, il y a la logique profonde d’une façon efficace de produire des contenus de qualité[17].

L’accès à la culture informatique

Dans un texte de l’UNESCO, TIC dans l’éducation[18], il est dit que « l’utilisation des TIC dans et pour l’éducation est vue maintenant dans le monde entier comme une nécessité et une opportunité. ». Les grandes questions sur lesquelles l’UNESCO se concentre en tant « qu’expert et conseiller impartial » sont : « Comment peut-on employer les TIC pour accélérer le progrès vers l’éducation pour tous et durant toute la vie ? (…) En second lieu, les TIC, comme tous les outils, doivent être considérées en tant que telles, et être employées et adaptées pour servir des buts éducatifs. » Elle revendique que « l’initiation à l’informatique soit reconnue comme une compétence élémentaire dans les systèmes d’enseignement »[19].

Le numérique, ce sont des outils conceptuels, des abstractions, une discipline scientifique et technique en tant que telle. Au service des autres disciplines, comme le sont les mathématiques. L’ordinateur est une prothèse du cerveau, dont on se sert d’autant plus intelligemment qu’on en connaît l’« intelligence »[20]. La fracture numérique ne serait-elle pas aussi (d’abord ?) une fracture culturelle, qui ne concerne pas que le Sud ? D’ailleurs, ne parle-t-on pas fréquemment de l’« accès » à la culture ?

« L’utilisation d’un outil, si fréquente et diversifiée soit-elle, ne porte pas en elle-même les éléments qui permettent d’éclairer sa propre pratique. »[21] « Comment en effet procéder à une recherche d’information efficace lorsque l’on n’a aucune connaissance du mode de fonctionnement de l’instrument utilisé ? »[22] Or, une enquête menée auprès de 640 000 utilisateurs de l’internet en France en 2001 avait montré que 87 % d’entre eux ne savaient pas se servir d’un moteur de recherche[23]. « Depuis que "l’homo faber" fabrique des outils et s’en sert, une bonne intelligence de l’outil est considérée comme nécessaire pour une bonne utilisation, efficace, précise et raisonnée : plus on en sait quant aux possibilités de réglage et aux conditions d’utilisation mieux cela vaut, partout. Il n’y aurait que l’informatique qui échapperait à cette règle et où l’ignorance serait un avantage ! »[24].

Partout dans le monde, lutter véritablement contre la fracture numérique suppose de donner à tous les élèves les fondamentaux scientifiques du domaine[25]. L’objectif est la maîtrise de ces instruments intellectuels d’un type nouveau. Elle n’est pas vraiment aisée et nécessite des années d’apprentissage (pour un individu il faut environ 20 ans pour maîtriser l’ensemble des instruments et méthodes liés à l’exercice d’une pensée rationnelle). On voit mal comment la diffusion d’objets matériels permettrait en elle-même de raccourcir les délais d’apprentissage, comment on entrerait dans le monde du numérique, abstrait et conceptuel, sans en faire un objet d’étude.

À l’appui de cette nécessité d’enseignement en tant que tel, le fait que la fracture numérique peut se loger là où on ne l’attend pas. Ainsi pointe-t-on une fracture numérique qui émerge, non plus entre les particuliers, mais entre les entreprises, notamment les plus petites et les plus grandes[26]. D’un côté « les mieux loties, accompagnées d’une armée de consultants ou naturellement aguerries à ces sujets ». De l’autre « des centaines de milliers d’entreprises qui souhaitent ardemment tirer profit, dès maintenant, des outils à disposition mais qui butent sur la complexité technologique, les tarifications inadaptées, les offres sur ou sous dimensionnées sans parler des compétences inaccessibles et en voie de raréfaction ». En fait, on voit aujourd’hui émerger « une nouvelle e-aristocratie qui va à l’encontre de la promesse de démocratisation des bénéfices économiques des NTIC (productivité, économie, accessibilité) ».

Dans leur rapport sur l’économie de l’immatériel[27], Maurice Lévy et Jean-Pierre Jouyet soulignent que, dans l’économie de l’immatériel, « l’incapacité à maîtriser les TIC constituera (…) une nouvelle forme d’illettrisme, aussi dommageable que le fait de ne pas savoir lire et écrire ». Ils mettent en évidence les obstacles qui freinent l’adaptation de notre pays à l’économie de l’immatériel, notamment « notre manière de penser », invitant à changer un certain nombre de « nos réflexes collectifs fondés sur une économie essentiellement industrielle ».

La lutte contre la fracture numérique a bien d’abord une dimension éminemment culturelle. Il s’agit d’un enjeu éducatif majeur, de culture générale scientifique et technique pour tous. D’un défi aussi dont les réponses pour le relever se trouvent d’évidence dans les systèmes éducatifs, dont c’est une des raisons d’être.

Jean-Pierre Archambault
Chargé de mission au CNDP-CRDP de Paris

Notes

[1] Crédit photo : Ferdinand Reus (Creative Commons By-Sa)

[2] Les politiques de tous les bords, beaucoup d’institutions (Banque Mondiale et le G8, l’Union Européenne, l’UNESCO…) s’emparent de la problématique de la fracture numérique, avec l’objectif affirmé de la résorber. D’autres s’en inquiètent : « Dejà, le fait qu’une telle notion fasse l’objet d’un consensus aussi large, au sein de groupes sociaux qui s’opposent les uns aux autres, donne à penser qu’elle est scientifiquement fragile. ». Voir La fracture numérique existe-t-elle ?, Éric Guichard, INRIA – ENS.

[3] http://www.liberationdelacroissance.fr/files…

[4] http://www.sophianet.com/wtm_article47688.fr.htm

[5] On pourra se référer aux études de Yochai Benkler reprises par Lawrence Lessig dans son remarquable ouvrage L’avenir des idées, Presses universitaires de Lyon, 2005. Voir « Innover ou protéger ? un cyber-dilemme », Jean-Pierre Archambault, Médialog n°58.

[6] Mais, à trop privilégier dans le discours le nécessaire équipement de tous, il y a le risque de donner à croire que les intérêts des constructeurs ne sont pas loin, en arrière plan de la « noble » lutte contre la fracture numérique.

[7] http://thot.cursus.edu/rubrique.asp?no=27124

[8] http://www.tunisiait.com/article.php?article=2912

[9] ttp://www.dsf-fsn.org/cms/component/option…

[10] http://repta.net/repta/telechargements/Universite_Tunisie…

[11] Premier atelier RELI@ à Dakar : Appel de DAKAR pour la production panafricaine de ressources pédagogiques numériques libres.

[12] http://sesamath.net

[13] http://portal.unesco.org/fr…

[14] http://www.sesamath.net/blog…

[15] http://www.claroline.net/index.php?lang=fr

[16] http://www.curriki.org/xwiki/bin/view/Main/WebHome

[17] L’économie du logiciel libre, François Élie, Eyrolles, 2008.

[18] http://portal.unesco.org/ci/fr/ev.php-URL_ID=2929…

[19] http://portal.unesco.org/ci/fr/ev.php-URL_ID=4347…

[20] « Informatique et TIC : une vraie discipline ? », Jean-Pierre Archambault, Médialog n° 62,

[21] Ordinateur et système éducatif : quelques questions, in Utilisations de l’ordinateur dans l’enseignement secondaire, Jean-Michel Bérard, Inspecteur général de l’Éducation nationale, Hachette Éducation, 1993.

[22] « La nature du B2i lui permet-elle d’atteindre ses objectifs ? » Jean-François Cerisier, Les dossiers de l’ingénierie éducative n° 55, septembre 2006.

[23] http://barthes.ens.fr/atelier/theseEG/

[24] « Enseigner l’informatique », Maurice Nivat, membre correspondant de l’Académie des Sciences,

[25] Voir : Le bloc-notes de l’EPI, La formation à l’informatique et aux TIC au lycée / Proposition de programme / Seconde Première Terminale et « Quelle informatique enseigner au lycée ? », Gilles Dowek, professeur d’informatique à l’École Polytechnique, intervention à l’Académie des Sciences du 15 mars 2005.

[26] Une fracture numérique existe aussi entre les entreprises, Vincent Fournoux, Le Journal du Net du 31 juillet 2008.

[27] L’économie de l’immatériel – La croissance de demain, rapport de la commission sur l’économie de l’immatériel remis à Thierry Breton, Maurice Lévy, Jean-Pierre Jouyet, décembre 2006.




Unix a 40 ans : passé, présent et futur d’un OS révolutionnaire

Rudolf Schuba - CC bySéquence Histoire, à l’occasion du quarantième anniversaire de la naissance d’Unix, le mythique système d’exploitation multitâche et multi-utilisateur, créé en août 1969, dont l’héritage est impressionnant.

Quarante ans, dans la jeune histoire de l’informatique, c’est une véritable épopée. Et le fait qu’il soit toujours évoqué aujourd’hui en dit long sur ses qualités d’origine. On en parle parce que, bien qu’en bout de course, on continue à l’utiliser, mais aussi parce qu’il a engendré et inspiré à sa suite toute une famille de systèmes d’exploitation dont rien moins que BSD, Mac OS X et enfin, évidemment, GNU/Linux.

Dans quelles conditions et contexte Unix est-il né ? Pourquoi un tel succès, une telle longévité et une telle parenté ? Et qu’en est-il de sa situation aujourd’hui ? Autant de questions qui trouveront réponses dans l’article ci-dessous traduit par nos soins[1].

Unix a 40 ans : Le passé, présent et futur d’un OS révolutionnaire

Unix turns 40: The past, present and future of a revolutionary OS

Gary Anthes – 4 juin – ComputerWorld.com
(Traduction Framalang : Vincent, Daria et Tyah)

Après quatre décades, le futur du système d’exploitation s’assombrit, mais son héritage va perdurer.

Cela fera quarante ans cet été, un programmeur s’asseyait et jetait les bases en un mois ce qui allait devenir l’un des plus importants morceaux de logiciel jamais créé.

En août 1969, Ken Thompson, un programmeur des Laboratoires Bell (NdT : Bell Labs), une filiale d’AT&T, considérait le voyage d’un mois de sa femme et de son fils comme une opportunité pour mettre en pratique ses idées pour un nouveau système d’exploitation. Il écrivait la première version de Unix dans un langage assembleur pour un mini-ordinateur un peu mollasson, un Digital Equipment Copr. (DEC) PDP-7, en passant une semaine sur chaque partie : un système d’exploitation, un shell, un éditeur et un assembleur.

Ken Thompson et Dennis Ritchie - Hoshie - Domaine PublicThompson et un collègue, Dennis Ritchie (cf photo ci-contre), se trouvaient démotivés depuis que les Bell Labs s’étaient retirés un peu plus tôt dans l’année d’un projet trouble de développement d’un système temps partagé appelé Multics (Multiplexed Information and Computing Service). Ils n’avaient aucune envie de rester sur des systèmes d’exploitation de type batch qui prédominaient à cette époque, et ne voulaient pas non plus réinventer Multics, qu’ils considéraient comme grotesque et peu maniable.

Après avoir débattu autour de plusieurs idées pour un nouveau système, Thompson a écrit la première version de Unix, que le binôme a continué de développer durant les années suivantes avec l’aide de leurs collègues Doug McIlroy, Joe Ossanna et Rudd Canaday. Quelques-uns des principes de Multics ont été réutilisés dans leur nouveau système d’exploitation, mais la beauté d’Unix alors (et encore maintenant) reposait sur sa philosophie « moins-c’est-plus » (NdT : less-is-more philosophy).

« Un OS puissant pour un usage interactif n’a pas besoin d’être coûteux, que ce soit en matériel ou en efforts humains », devaient écrire Ritchie et Thompson cinq ans plus tard dans les communications de l’ACM (CACM), le journal de l’Association for Computer Machinery. « Nous espérons que les utilisateurs de Unix trouveront que les plus importantes caractéristiques de ce système sont sa simplicité, son élégance et sa facilité d’utilisation ».

Apparemment ils y sont arrivés. Unix va évoluer pour devenir une pierre angulaire de l’informatique, largement installé sur les serveurs et les postes de travail dans les universités, les gouvernements et les entreprises. Et son influence s’est étendue bien au-delà de ses déploiements, comme l’a noté l’ACM en 1983, lorsqu’ils ont attribué leur prix le plus élevé à Thompson et Ritchie, le A.M. Turing Award pour leur contribution à l’informatique : « Le modèle du système Unix a conduit une génération de concepteurs logiciels à repenser leur manière de programmer ».

Les premiers pas

Bien sûr, le succès d’Unix n’est pas arrivé d’un coup. En 1971, il a été porté sur le mini-ordinateur PDP-11, une plateforme plus puissante que le PDP-7 pour laquelle il avait été écrit à l’origine. Des programmes d’édition et de formatage de texte ont été ajoutés, et il a été déployé pour quelques dactylos du département des Brevets des Bell Labs, ses premiers utilisateurs en dehors de l’équipe de développement.

En 1972, Ritchie écrivait le langage de programmation de haut-niveau C (basé sur un langage précédent de Thompson, le B) ; suite à cela, Thompson réécrivit Unix en C, ce qui permit d’améliorer la portabilité de l’OS sur différents environnements. En cours de chemin, il acquit le nom de Unics (Uniplexed Information and Computing Services), un jeu de mots sur Multics ; l’orthographe se transforma rapidement en Unix.

Il était temps d’envahir le monde. L’article de Ritchie et Thompson de Juillet 1974 dans le CACM, « Le système temps-partagé UNIX », prit le monde de l’informatique dans un ouragan. Jusqu’alors, Unix avait été confiné à une poignée d’utilisateurs dans les Laboratoires Bell. Mais maintenant, avec l’Association for Computing Machinery derrière lui, un éditeur l’ayant qualifié comme étant élégant, Unix était à un moment crucial.

« L’article du CACM avait eu un impact très fort », raconte l’historien de l’informatique Peter Salus dans son livre The Daemon, the Gnu and the Penguin (NdT : Le démon, le Gnou et le manchot). « Peu de temps après, Ken était assailli de demandes concernant Unix ».

Un paradis pour les hackers

Thompson et Ritchie étaient des hackers accomplis, quand ce terme désignait quelqu’un qui combinait une créativité hors pair, une intelligence à toute épreuve et de l’huile de coude pour résoudre des problèmes logiciels que l’on a peine à imaginer.

Leur approche, et le code qu’ils avaient écrit, étaient attractifs pour les programmeurs des universités, et plus tard pour des entreprises qui démarraient sans les méga budgets de IBM, Hewlett-Packard ou Microsoft. Unix était tout ce dont les autres hackers, comme Bill Joy à l’Université de Californie, Rick Rashid à l’Université Carnegie Mellon et David Korn plus tard aux Laboratoires Bell avaient rêvé.

« Presque depuis le début, le système était capable de se maintenir seul, et il l’avait prouvé », écrivaient Thompson et Ritchie dans l’article du CACM. « Comme tous les programmes sources étaient toujours disponibles et facilement modifiables en ligne, nous étions volontaires pour réviser et modifier le système et ses logiciels lorsque de nouvelles idées étaient inventées, découvertes ou suggérées par d’autres ».

Korn, maintenant membre d’AT&T, travaillait comme programmeur aux Bell Labs dans les années 1970. « L’une des caractéristiques de Unix était que des outils pouvaient être écrits, et de meilleurs outils pouvaient les remplacer », se souvient-il. « Ce n’était pas un monolithe dans lequel il fallait tout approuver ; vous pouviez en fait développer de meilleures versions ». Il a développé l’influent Korn shell, un langage de programmation permettant d’interagir directement avec Unix, maintenant disponible en open source.

Salus, auteur et historien des technologies, se souvient de son travail avec le langage de programmation APL sur un mainframe IBM tournant sous System/360, en tant que professeur à l’Université de Toronto dans les années 1970. Mais le lendemain de Noël 1978, un ami à l’Université de Colombia lui fit une démonstration de Unix, tournant sur un mini-ordinateur. « Je me suis exclamé : Oh mon Dieu !, et j’étais totalement converti », raconte Salus.

Il dit que pour lui, l’un des avantages clés de Unix était la fonctionnalité pipe, introduite en 1973, qui rendait facile le passage de données d’un programme à l’autre. Le concept de pipeline, inventé par McIlroy des Bell Labs, fut par la suite copié dans de nombreux OS, parmi lesquels les variantes d’Unix, Linux, DOS et Windows.

Un autre avantage de Unix, le deuxième effet Wooow, comme le dit Salus, était qu’il n’avait pas besoin d’un mainframe d’un demi-million de dollars pour tourner. Il avait été écrit sur le petit mini-ordinateur DEC PDP-7, assez primitif, car c’était tout ce que Thompson et Ritchie avaient sous la main en 1969. « Le PDP-7 était presque incapable de quoi que ce soit », se souvient Salus. « J’étais scotché ».

Pas mal de monde a également été rendu accro. Les chercheurs des universités ont adopté Unix car il était assez simple et facilement modifiable, ne demandait pas beaucoup de ressources, et le code source était libre pour une bonne partie. Des startups comme Sun Microsystems et un ensemble d’entreprises maintenant défuntes qui se spécialisaient dans l’informatique scientifique, comme Multiflow Computer, en ont fait leur système d’exploitation de choix pour les mêmes raisons.

La progéniture d’Unix

Unix a grandi comme un système non-propriétaire car en 1956 AT&T avait été enjoint par une décret fédéral à ne pas s’écarter de sa mission de production de service téléphonique. Il pouvait développer du logiciel, et même le licencier pour un tarif raisonnable, mais l’entreprise ne pouvait pas entrer sur le marché de l’informatique.

Unix, qui avait été développé sans encouragement du management, avait d’abord été vu par AT&T comme quelque chose entre une curiosité et un casse-tête légal.

C’est à ce moment là, à la fin des années 1970, AT&t a réalisé qu’ils avaient quelque chose de commercialement intéressant en main. Ses avocats ont commencé à adopter une interprétation plus favorable de l’ordonnance de 1956, comme ils cherchaient des manières de protéger Unix comme un secret de fabrication. A partir de 1979, avec la sortie de la Version 7, les licences Unix interdisaient aux universités d’utiliser le code source Unix pour l’étudier pendant leurs cours.

Pas de problème, se dit alors le professeur d’informatique Andrew Tanenbaum, qui avait utilisé Unix V6 à l’Université Vrije à Amsterdam. En 1987, il écrivit un clone de Unix pour utiliser lors de ses cours, en créant le système d’exploitation open source Minix, qui tournait sur un microprocesseur Intel 80286.

« Minix comprenait toutes les idées d’Unix, et c’était un travail brillant », raconte Salus. « Seul un programmeur majeur, quelqu’un qui comprenait en profondeur les mécanismes internes d’un système d’exploitation, pouvait faire cela ». Minix allait devenir le point de départ pour la création de Linux par Linus Torvalds en 1991. Si ce n’était pas exactement un clone d’Unix, il s’agissait à n’en pas douter d’un Unix-like.

En reculant d’une décade ou à peu près, Bill Joy, qui était un étudiant diplômé et programmeur à l’Université de Californie de Berkeley dans les années 1970, mit la main sur une copie de l’Unix des Laboratoires Bell, et il pensa que c’était une bonne plateforme pour son propre travail sur un compilateur Pascal et un éditeur de texte.

Les modifications et extensions que lui et d’autres firent à Berkeley ont résulté dans la seconde branche majeure de Unix, appelée Berkeley Software Distribution (BSD) Unix. En mars 1978, Joy envoyait des copies de 1BSD, vendues 50$.

Ainsi en 1980 il y avait deux lignes majeures de Unix, l’une de Berkeley et l’autre de AT&T, et la scène était montée pour ce qui allait devenir la Guerre des Unix. La bonne nouvelle était que les développeurs de logiciels pouvaient avoir accès de partout au code source Unix, et l’adapter à leurs besoins et caprices. La mauvaise nouvelle c’est qu’ils firent exactement cela. Unix a proliféré, et les variantes ont divergé.

En 1982, Joy a contribué à fonder Sun Microsystems et offrait une station de travail, la Sun-1, qui utilisait une version de BSD appelée SunOS. (Solaris allait apparaitre environ 10 ans plus tard). L’année suivante, AT&T a sorti la première version de Unix System V, un système d’exploitation qui a eu une influence énorme et qui fut la base de IBM AIX et Hewlett-Packard HP-UX.

Les Guerres Unix

Unix History - Eraserhead1 et Infinity0 - CC by-saAu milieu des années 80, les utilisateurs, y compris le gouvernement fédéral, se sont plaints que si en théorie Unix était un système d’exploitation unique et portable, en fait on en était loin. Les éditeurs faisaient semblant d’adhérer à cette réclamation, mais travaillaient jour et nuit pour enfermer les clients avec des fonctionnalités et API uniques à leur Unix.

En 1987, Unix System Laboratories, qui faisait partie des Laboratoires Bell à cette époque, commença à travailler avec Sun sur un système qui pourrait unifier les deux branches majeures de Unix. Le produit de leur collaboration, appelé Unix System V Release 4.0, fut sorti deux ans plus tard, et combinait des fonctionnalités de System V Release 3, BSD, SunOS et du Xenix de Microsoft.

Les autres éditeurs Unix craignaient l’alliance AT&T/Sun. Les diverses parties ont formé des organismes standards concurrents, qui portaient des noms tels que X/Open, Open Software Foundation (ou OSF), Unix International et Corporation for Open Systems. Les arguments, contre-arguments et réussites de ces groupes pourraient remplir un livre, mais ils clamaient tous leur désir d’un Unix unifié, tout en se tirant dessus les uns les autres.

Dans un article écrit en 1988, mais non publié, pour la DARPA (Defense Advanced Research Projects Agency) (NdT : Agence pour les Projets de Recherche Avancée de la Défense), le pionnier des mini-ordinateurs Gordon Bell disait ceci de la toute nouvelle Open Software Foundation, qui incluait IBM, HP, DEC et d’autres, alliés contre le partenariat AT&T/Sun : « OSF est une manière pour ceux qui n’ont pas d’Unix d’entrer sur ce marché en devenir, tout en maintenant leur musées de code à hautes marges ».

Les Guerres Unix n’ont pas réussi à calmer les différences ou à créer un réel standard pour le système d’exploitation. Mais en 1993, la communauté Unix était réveillée par Microsoft, sous la forme de Windows NT, un système d’exploitation 32 bits utilisable en entreprise. Ce NT propriétaire visait directement Unix, et devait étendre l’hégémonie de Microsoft sur l’ordinateur de bureau aux centres serveurs et endroits similaires, tenus principalement par les serveurs Sun et autres.

Les utilisateurs Microsoft ont applaudi. Les fournisseurs Unix ont paniqué. Tous les principaux rivaux des Unix majeurs se sont réunis dans une initiative appelé Common Open Software Environnement (NdT : Environnement Logiciel Ouvert Commun), et l’année suivante ont plus ou moins déposé les armes en mixant le groupe Unix International, appuyé par AT&T/Sun avec l’Open Software Foundation. Cette coalition a évolué dans l’actuel The Open Group, organisme certificateur des systèmes Unix, et propriétaire de Single Unix Specification (SUS), maintenant la définition officielle de « Unix ».

D’un point de vue pratique, ces développements ont pu standardiser Unix au maximum possible, en fonction de la concurrence des éditeurs. Mais ils sont sans doute arrivés trop tard pour enrayer la montée d’une marée appelée Linux, le système d’exploitation open source dérivé de Minix du professeur Tanenbaum.

Mais qu’est ce que « Unix », finalement ?

Unix, vous diront la plupart des gens, est un système d’exploitation écrit il y a plusieurs dizaines d’années aux Laboratoires Bell de AT&T, et ses descendants. Les versions majeures d’Unix aujourd’hui proviennent de deux branches d’un même tronc : l’une émane directement de AT&T et l’autre vient de AT&T via l’Université de Californie de Berkeley. Les branches les plus robustes actuellement sont AIX d’IBM, HP-UX de HP et Solaris de Sun.

Toutefois, The Open Group, qui détient la marque déposée Unix, définit Unix comme n’importe quel système d’exploitation qui a été certifié par ses services pour se conformer à la Single Unix Specification (SUS) (NdT : Spécification Unix Unique). Ceci inclut des OS que l’on ne considère pas généralement comme étant des Unix, tel que Mac OS X Leopard (qui dérive d’un BSD Unix) et IBM z/OS (qui vient du système d’exploitation mainframe MVS), car ils se conforment au SUS et supportent les APIs SUS. L’idée basique est que c’est un Unix si cela agit comme Unix, quel que soit le code sous-jacent.

Une définition encore plus large d’Unix pourrait inclure les OS Unix Like (qui ressemblent à Unix), parfois appelé des clones d’Unix ou des sosies, qui ont copié une bonne partie des idées de Unix mais n’incorporent pas directement du code Unix. Le plus connu d’entre tous étant certainement Linux.

Finalement, même s’il est raisonnable d’appeler Unix un système d’exploitation, c’est finalement plus que cela. En plus du noyau de l’OS, les implémentations Unix embarquent typiquement des utilitaires tels que des éditeurs en ligne de commande, des interfaces de programmation applicatives (API), des environnements de développement, des librairies et de la documentation.

Le futur d’Unix

Le manque continuel de portabilité complète entre les différentes versions concurrentes d’Unix, de même que l’avantage financier de Linux et Windows sur les processeurs standards x86, vont inciter les organisations informatiques de quitter Unix, suggère un récent sondage du Gartner Group.

« Les résultats réaffirment l’enthousiasme continu pour Linux comme plate-forme serveur, avec Windows qui croît de la même manière, et Unix qui prend la route d’un long, mais graduel, déclin », décrit le sondage, publié en février 2009.

« Unix a eu un passé long et vivant, et même s’il n’est pas encore parti, il sera de plus en plus sous pression », dit l’analyste du Gartner George Weiss. « Linux est l’Unix de choix stratégique. Même si Linux n’a pas le long héritage de développement, de tuning et de tests de stress que Unix a pu avoir, il s’en approche et va bientôt égaler Unix en performance, stabilité et montée en charge », dit-il.

Mais un récent sondage de ComputerWorld suggère que le retrait d’Unix ne va pas arriver aussi rapidement. Dans cette enquête concernant 130 utilisateurs Unix sur 211 responsables informatiques, 90% ont déclaré que leur entreprise était « très ou extrêmement dépendante » de Unix. Un peu plus de la moitié a dit : « Unix est une plateforme essentielle pour nous et le restera indéfiniment », et seulement 12% ont dit « Nous pensons sortir de Unix dans le futur ». Les économies de coût, essentiellement au travers d’une consolidation de serveurs, étaient citées comme la raison n°1 pour migrer vers autre chose.

Weiss pense que la migration vers des processeurs x86 va s’accélérer à cause de l’avantage du coût du matériel. « Des architectures extensibles horizontalement ; le clustering ; le cloud computing ; la virtualisation sur x86, quand vous combinez toutes ces tendances, le système d’exploitation de choix tourne autour de Linux ou Windows », dit-il.

« Par exemple », déclare Weill, « dans l’annonce récente de Cisco de son architecture Unified Computing, vous avez dans un même équipement le réseau, le stockage, le calcul et la mémoire, et vous n’avez pas besoin d’Unix. Vous pouvez utiliser Linux ou Windows sur x86. Ainsi, Intel est en train de gagner la guerre pour le compte de Linux contre Unix ».

The Open Group, propriétaire des Single Unix Specification et organisme certificateur des systèmes Unix, concède peu à Linux, et déclare que Unix est le système de choix pour « le haut du panier en termes de fonctionnalités, montée en charge et performance pour des applications critiques ». Linux, dit-il, tend à être le standard pour les applications plus simples, moins critiques.

Korn, de AT&T, est parmi ceux qui pensent que Unix a encore un bel avenir. Korn dit que la force d’Unix pendant toutes ces années, depuis l’ajout des pipes en 1973, est qu’il peut facilement être éclaté en petits bouts et distribué. Ceci va pousser Unix en avant, dit-il. « La philosophie (du pipeline) fonctionne bien avec le cloud computing, dans lequel vous construisez des petits morceaux réutilisables plutôt qu’une grosse application monolithique ».

L’héritage d’Unix

Quel que soit le sort final d’Unix, le système d’exploitation né dans les Laboratoires Bell il y a 40 ans a établi un héritage qui risque de durer encore quelques dizaines d’années. Il peut revendiquer la paternité d’une longue liste de logiciels populaires, incluant l’offre Unix de IBM, HP, Sun, Apple Mac OS X et Linux. Il a également influencé des systèmes qui ont leurs racines dans Unix, comme Microsoft Windows NT et les versions IBM et Microsoft de DOS.

Unix a permis à de nombreuses entreprises qui démarraient de réussir, en leur offrant une plateforme peu onéreuse sur laquelle construire. C’était une des briques de base pour la construction d’Internet, et il fait partie du cœur des systèmes de télécommunications aujourd’hui. Il a engendré de nombreux concepts d’architecture, comme l’utilisation du pipeline, et le dérivé de Unix, Mach, a contribué énormément à l’informatique scientifique, distribuée et multiprocesseurs.

C’est peut-être l’ACM qui l’a mieux énoncé en 1983 dans sa citation du prix Turing en l’honneur de Thompson et Ritchie sur leur travail sur Unix : « Le génie du système Unix est dans sa structure, qui permet aux programmeurs de bâtir sur le travail des autres ».

Notes

[1] Crédit photos : 1. Rudolf Schuba (Creative Commons By) / 2. Hoshie (Domaine Public) / 3. Eraserhead1 et Infinity0 (Creative Commons By-Sa)




Si rien ne bouge en France dans les cinq ans je demande ma mutation à Genève

Broma - CC byCe billet souhaite avant tout saluer l’action du SEM qui, dans le cadre des MITIC, favorise les SOLL au sein du DIP. Gageons cependant que si vous n’êtes pas familier avec le système éducatif genevois, cette introduction risque de vous apparaitre bien énigmatique !

Le DIP, c’est le Département de l’Instruction Publique du Canton de Génève et le SEM, le Service Écoles-Médias chargé de la mise en œuvre de la politique du Département dans le domaine des Médias, de l’Image et des Technologies de l’Information et de la Communication, autrement dit les MITIC.

Mais l’acronyme le plus intéressant est sans conteste les SOLL puisqu’il s’agit rien moins que des Standards Ouverts et des Logiciels Libres.

En mars dernier en effet le SEM a élaboré un plan de déploiement 2009-2013 sur cinq ans des postes de travail pédagogiques (autrement dit les ordinateurs des élèves[1]) qui présente la particularité d’être peu ou prou… exactement ce qu’il nous faudrait à nous aussi en France ! Lecture chaudement recommandée.

L’objectif du présent plan de déploiement est de parvenir d’ici la rentrée 2013 à doter les écoles d’un poste de travail fonctionnant uniquement sous GNU/Linux, dans sa distribution Ubuntu.

Impressionnant non ! Proposez aujourd’hui la même chose de l’autres côté de la frontière et c’est le tremblement de terre (assorti d’une belle panique du côté des « enseignants innovants » de Projetice, du Café pédagogique et de Microsoft) !

Mais ainsi exposé, il y a un petit côté radical à nuancer :

Le solde constitue les exceptions pour lesquelles il n’aura pas été possible de trouver une solution ou pour lesquelles les systèmes propriétaires restent manifestement mieux adaptés au métier.

Et comment ne pas souscrire à ce qui suit (que je m’en vais de ce pas imprimer et encadrer dans ma chambre) :

Il s’agit en fait d’opérer un changement de paradigme : aujourd’hui, le standard est Windows, l’exception MacOS. Demain, le standard sera GNU/Linux, les exceptions MacOS et Windows.

Tout est dit ou presque. Ce n’est ni un désir, ni une prédiction, c’est à n’en pas douter le choix technologique d’avenir de nos écoles. Et plus tôt on prendra le train en marche, mieux ça vaudra.

Je n’ai pu résister à vous recopier intégralement la première page du plan tant elle est pertinente et pourrait se décliner partout où l’on analyse sérieusement la situation.

Depuis 2004, l’État de Genève a annoncé son intention d’orienter progressivement son informatique vers les standards ouverts et les logiciels libres (SOLL).

Cette décision est motivée par la prise de conscience que « l’information gérée par l’État est une ressource stratégique dont l’accessibilité par l’administration et les citoyens, la pérennité et la sécurité ne peuvent être garanties que par l’utilisation de standards ouverts et de logiciels dont le code source est public ».

Un intérêt économique est aussi présent : diminution des dépenses de licences bien sûr, mais également en favorisant les compétences et les services offerts par des sociétés locales plutôt que de financer de grands comptes internationaux.

Dans le domaine de l’informatique pédagogique, l’intérêt pour les SOLL est bien antérieur. En effet, les logiciels libres offrent pour l’éducation des avantages spécifiques, en plus des avantages communs à tous les secteurs de l’État. Ces logiciels permettent de donner gratuitement aux élèves les outils utilisés en classe et donc de favoriser le lien entre l’école et la maison ; ils offrent un apprentissage affranchi de la volonté des grands éditeurs de créer des utilisateurs captifs ; et la large communauté qui s’est développée autour des SOLL produit des solutions de qualité adaptées aux besoins de l’éducation.

La question des ressources pédagogiques est également au centre de cette problématique. S’appuyant sur le fonctionnement collaboratif propre au logiciel libre, il s’agit de mettre à disposition des enseignants et des élèves des environnements numériques technologiques performants à même de valoriser les contenus créés par les enseignants, de leur offrir la possibilité de les partager et de les échanger tout en protégeant les auteurs.

Conscient de ces enjeux, le DIP a validé en juin 2008 une directive formalisant sa décision « d’orienter résolument son informatique tant administrative que pédagogique vers des solutions libres et ouvertes ». La responsabilité de cette démarche a été confiée au SEM.

On peut toujours qualifier la Suisse de « neutre » et « conservatrice » mais certainement pas pour ce qui concerne les TICE du côté de Genève !

L’excellente directive dont il est question à la fin de l’extrait, nous en avions longuement parlé dans un billet dédié du Framablog. On notera qu’il est également questions des ressources pédagogiques, évoquées (malheureusement en creux) lors du billet L’académie en ligne ou la fausse modernité de l’Éducation nationale.

Vous me direz peut-être que cette belle intention ne se décrète pas. Et vous aurez raison ! Mais on en a pleinement conscience et c’est aussi pour cela qu’on se donne du temps, cinq ans, en commençant progressivement par quelques écoles pilotes.

Comme lors de tout changement, la transition vers un poste de travail logiciels libres va susciter des oppositions importantes, liées à des critères objectifs ou à des craintes non fondées. Pour assurer la réussite du projet, il conviendra donc d’identifier les risques et de mettre en œuvre les moyens de les réduire.

Les principaux risques identifiables dès maintenant sont les suivants :

– résistance au changement des utilisateurs parce que celui-ci demande un effort d’apprentissage et d’adaptation ;

– habitudes acquises lors de la formation (notamment universitaire) d’utiliser certains produits propriétaires, même si ceux-ci sont onéreux et parfois moins performants ou pratiques ;

– difficultés à récupérer les contenus déjà réalisés avec les nouveaux logiciels proposés ;

– difficultés à échanger les documents entre l’environnement mis à disposition par le DIP et les divers environnement acquis dans le domaine privé (même si les logiciels libres peuvent gratuitement être installés à domicile) ;

– ressources insuffisantes pour accompagner le changement et assurer une aide locale aux utilisateurs ;

– manque de clarté des objectifs de l’Etat dans le domaine des SOLL et impression que le DIP fait cavalier seul (ou, plus grave, renoncement de l’Etat à ses objectifs) ;

Et pour se donner le maximum de chances de franchir l’obstacle :

Dans la plupart des cas, la réponse aux préoccupations décrites passe par un effort d’information et de formation. Il faudra en particulier :

– rendre très clairement lisibles les objectifs de l’Etat et du DIP ;

– assurer lors de chaque migration une réelle plus-value pour les utilisateurs, soit pour la couverture des besoins, soit dans la mise à jour et la maintenance du poste, soit pour le support et la maintenance ou encore l’autoformation en ligne ;

– être en mesure d’apporter une aide spécifique, personnalisée, locale, efficace et rapide pour résoudre les problématiques soulevées.

Le plan décrit dans ce document est évolutif. Il pourra être adapté en fonction des opportunités ou difficultés rencontrées au sein du périmètre concerné, ou en fonction de l’évolution du contexte (politique des éditeurs de logiciels, modification des orientations globales de l’Etat, etc.).

Face à ce types d’initiatives, vous pouvez être certain que la politique de certains éditeurs, que l’on ne nommera pas, va évoluer, et évoluer dans le bon sens (ce n’est pas autrement que s’y prend le Becta en Angleterre).

Et pour conclure :

Le but visé par la transition vers les standards ouverts et les logiciels libres consiste en premier lieu à améliorer la qualité et la pérennité des outils informatiques mis à la disposition de l’enseignement.

Les avantages sont évidents dans une perspective globale. Vue du terrain, la réalité est nettement plus nuancée étant donné l’effort personnel que demande le changement d’habitudes et de moyens.

C’est la raison pour laquelle la compréhension par chacun des enjeux est essentielle, de même que la qualité de l’accompagnement qui devra soutenir la démarche.

Voilà une démarche que nous allons suivre de près.

Si vous voulez mon humble avis, on serait bien inspiré d’inviter nos amis du SEM au prochain Salon de l’Éducation à Paris, avec le secret espoir d’être remarqués par notre ministre et ses experts conseillers.

PS : La source de ce billet provient de l’article Écoles : l’informatique en logiciels libres du quotidien suisse indépendant Le Courrier, qui cite souvent le directeur du SEM Manuel Grandjean : « On ne va pas changer une Ferrari pour une 2CV juste parce qu’elle est open source » ou encore « Le travail d’enseignant intègre largement la collaboration et la mise en commun de ressources (…) On est véritablement dans une défense du bien commun ».

Notes

[1] Crédit photo : Broma (Creative Commons By)




Rencontre avec le Parti Pirate suédois

Ann Catrin Brockman - CC by-saDans notre imaginaire collectif la Suède est un pays où il fait bon vivre, auquel on accole souvent certains adjectifs comme « social », « mesuré », « organisé », « tranquille, voire même « conservateur ».

C’est pourquoi l’irruption soudaine dans le paysage politique local du Parti Pirate (ou Piratpartiet) a surpris bon nombre d’observateurs.

Surprise qui a dépassé les frontières lors du récent et tonitruant succès du parti aux dernières élections européennes (7% des voix, 1 et peut-être 2 sièges).

Nous avons eu envie d’en savoir plus en traduisant un entretien réalisé par Bruce Byfield avec le leader du parti, Rickard Falkvinge (cf photo[1] ci-dessus).

Ce succès est-il reproductible dans d’autres pays à commencer par l’Europe et par la France ? C’est une question que l’on peut se poser à l’heure où les différents (et groupusculaires) partis pirates français ont, semble-t-il, décidé d’unir (enfin) leurs forces. À moins d’estimer que l’action, l’information et la pression d’une structure comme La Quadrature du Net sont amplement suffisants pour le moment (j’en profite pour signaler qu’eux aussi ont besoin de sou(s)tien actuellement).

Remarque : C’est le troisième article que le Framablog consacre directement au Parti Pirate suédois après l’appel à voter pour eux (vidéo inside) et la toute récente mise au point de Richard Stallman sur les conséquences potentielles pour le logiciel libre de leur programme politique (question précise que le journaliste n’évoque pas dans son interview).

Interview avec le leader du Parti Pirate : « Des libertés cruciales »

Interview with Pirate Party Leader: "These are Crucial Freedoms"

Bruce Byfield – 16 juin 2009 – Datamation
(Traduction Framalang : Tyah, Olivier et Severino)

Le 7 Juin 2009, les électeurs suédois ont élu un membre du PiratPartiet (Parti Pirate) au Parlement Européen. Ils bénéficieront même d’un second siège si le Traité de Lisbonne est ratifié, celui-ci octroyant à la Suède deux sièges supplémentaires.

Bien que relativement faibles, ce sont de bons résultats pour un parti fondé il y a à peine trois ans, et qui fait campagne avec très peu de moyens, s’appuyant essentiellement sur ses militants. Que s’est-il passé et pourquoi cet événement est-il important bien au-delà de la Suède ?

Pour Richard Falkvinge, fondateur et leader du Parti Pirate, l’explication est simple : les pirates ont fait entrer pour la première fois dans le débat public les préoccupations de la communauté libre concernant la question du copyright et du brevet, et cela en utilisant les réseaux sociaux, un média complètement ignoré par leurs opposants.

Falkvinge nous en a dit un peu plus sur le sujet à l’occasion d’une présentation au cours du récent congrès Open Web Vancouver, ainsi que dans une brève interview qu’il nous a accordée le lendemain.

Falkvinge, entrepreneur depuis son adolescence, s’est intéressé à l’informatique toute sa vie d’adulte, et naturellement aux logiciels libres. « J’ai participé à différents projets open source » dit-il en ajoutant promptement : « Vous ne risquez pas d’avoir entendu parler des projets auxquels j’ai participé. Je fais partie des gens qui ont la malchance de toujours s’engager dans des projets qui ne vont nulle part – excepté celui-ci, évidemment. »

Comme pour de nombreuses autres personnes, le tournant fut pour Falkvinge la volonté de l’Europe d’imposer des droits d’auteurs plus strictes encore en 2005. Selon Falkvinge, le sujet fut largement couvert et débattu en Suède par tout le monde – sauf par les politiciens.

« Je me suis donc demandé : que faut-il faire pour obtenir l’attention des politiciens ? J’ai réalisé que l’on ne pouvait sûrement pas capter leur attention sans amener le débat sur leur terrain. Le seul recours était de contourner totalement les politiciens et de s’adresser directement aux citoyens lors des élections, de nous lancer sur leur terrain pour qu’ils ne puissent plus nous ignorer. »

Si pour les nord-américains, le nom peut sembler provocateur, Falkvinge explique que c’était un choix évident étant donné le contexte politique. En 2001 fut fondé un lobby défendant le copyright nommé le Bureau Anti-Pirate, donc quand un think-tank adverse s’est créé en 2003, il prit tout naturellement le nom de Bureau Pirate.

Selon Falkvinge, « la politique pirate devint connue et reconnue. Chacun savait ce qu’était la politique pirate, l’important n’était donc pas de réfléchir à un nom, mais bien de fonder le parti. », ce qu’il fit le 1er janvier 2006.

Dès le départ, Falkvinge rejetta l’idée de s’appuyer sur les vieux média : TV, radio, presse.

« Ils n’auraient jamais accordé le moindre crédit à ce qu’ils considéraient comme une mouvance marginale. Ils n’auraient jamais parlé suffisamment de nous pour que nos idées se répandent. Il faut dire aussi qu’elles ne rentrent pas vraiment dans leur moule, alors comment expliquer quelque chose que vous avez du mal à saisir ? »

« Nous n’avions d’autre choix que de construire un réseau d’activistes. Nous savions que nous devions faire de la politique d’une manière jamais vue auparavant, de proposer aux gens quelque chose de nouveau, de nous appuyer sur ce qui fait le succès de l’open source. Nous avons essentiellement contourné tous les vieux médias. Nous n’avons pas attendu qu’ils décident de s’intéresser à nous; nous nous sommes simplement exprimés partout où nous le pouvions. »

Leur succès prit tous les autres partis politiques par surprise. Seulement quelques jours après avoir mis en ligne le premier site du parti, le 1er janvier 2006, Falkvinge apprit que celui-ci comptabilisait déjà plusieurs millions de visiteurs. La descente dans les locaux de Pirate Bay et les élections nationales suédoises qui se sont tenues plus tard dans l’année ont contribué à faire connaître le parti, mais c’est bien sur Internet, grâce aux blogs et à d’autres médias sociaux, qu’il a gagné sa notoriété.

Aujourd’hui c’est le troisième parti le plus important de Suède, et il peut se vanter d’être le parti politique qui rassemble, et de loin, le plus de militants parmi les jeunes.

« Ce n’est pas seulement le plus grand parti en ligne », dit Falkvinge. « C’est le seul parti dont les idées sont débattues en ligne. »

Les analystes politiques traditionnels avaient du mal à croire que le Parti Pirate puisse être régulièrement crédité de 7 à 9% d’intentions de vote dans les sondages.

« J’ai lu une analyste politique qui se disait complètement surprise » rapporte Falkvinge. « Elle disait : « Comment peuvent-ils être si haut dans les sondages ? Ils sont complètement invisibles ». Son analyse était évidemment entièrement basée sur sa connaissance classique de la politique. La blogosphère de son côté se demandait si elle n’avait pas passé ces dernières années dans une caverne. »

La plateforme du Parti Pirate

Aux yeux de Falkvinge, la lutte pour l’extension des droits d’auteurs et des brevets, c’est l’Histoire qui bégaye. Il aborde le sujet des droits d’auteurs en rappelant que l’Église catholique réagit à l’invention de l’imprimerie, qui rendait possible la diffusion de points de vue alternatifs, en bannissant la technologie de France en 1535.

Un exemple plus marquant encore est celui de l’Angleterre, qui créa un monopole commercial sur l’imprimerie. Bien qu’elle connue une période sans droit d’auteur, après l’abdication de Jacques II en 1688, il fut restauré en 1709 par le Statute of Anne. Les monopolistes, qui affirmaient que les écrivains tireraient bénéfice du droit d’auteur, ont largement pesé sur cette décision.

Dans les faits, explique Falkvinge, « le droit d’auteur a toujours bénéficié aux éditeurs. Jamais, ô grand jamais, aux créateurs. Les créateurs ont été utilisés comme prétexte pour les lois sur les droits d’auteur, et c’est toujours le cas 300 ans plus tard. Les politiciens emploient toujours la même rhétorique que celle utilisée en 1709, il y a 300 foutues années ! »

Aujourd’hui, Falkvinge décrit le droit d’auteur comme « une limitation du droit de propriété » qui a de graves conséquences sur les libertés civiles. Pour Falkvinge, les efforts faits par des groupes comme les distributeurs de musique et de films pour renforcer et étendre les droits d’auteurs menacent ce qu’il appelle le « secret de correspondance », la possibilité de jouir de communications privées grâce à un service public ou privé.

Partout dans le monde les pressions montent pour rendre les fournisseurs d’accès responsables de ce qui circule sur leurs réseaux, ce qui remet en cause leur statut de simple intermédiaire. « C’est comme si l’on poursuivait les services postaux parce que l’on sait qu’ils sont les plus gros distributeurs de narcotiques en Suède », raisonne Falkvinge par analogie.

Une autre conséquence concerne la liberté de la presse, sujet cher aux journalistes et aux dénonciateurs. « Si vous ne pouvez confier un scandale à la presse sans que des groupes privés ou gouvernementaux y jettent un œil avant qu’il ne parvienne à la presse, quels sujets allez-vous traiter ? Et bien, rien ne sera révélé, car personne ne sera assez fou pour prendre ce risque. À quoi vous servira alors la liberté de la presse ? À écrire des communiqués de presse ? »

Falkvinge défend un droit d’auteur beaucoup plus souple, réservé uniquement à la distribution commerciale et sévèrement restreint ; cinq ans serait une durée raisonnable, suggère-t-il. « Il faut que les droits d’auteurs sortent de la vie privée des personnes honnêtes. Les droits d’auteurs ressemblent de plus en plus à des policiers en uniformes qui font des descentes avec des chiens chez les gens honnêtes. C’est inacceptable. »

Il croit aussi que la copie privée est un progrès social, en faisant valoir que « Nous savons que la société avance quand le culture et les connaissances se diffusent aux citoyens. Nous voulons donc encourager la copie non-commerciale. »

De même, le Parti Pirate s’oppose aux brevets, particulièrement aux brevets logiciels, mais aussi dans d’autres domaines.

« Chaque brevet, dans sa conception même, inhibe l’innovation », maintient-il. « Les brevets ont retardé la révolution industrielle de trente ans, ils ont retardé l’avènement de l’industrie aéronautique nord-américaine de trente autres années, jusqu’à ce que la Première Guerre mondiale éclate et que le gouvernement des États-Unis confisque les brevets. Ils ont retardé la radio de cinq ans. » Aujourd’hui, suggère t-il, les progrès technologiques en matière de voitures électriques et d’infrastructures écologiques sont bloqués par les brevets.

« Tout cela n’est en rien différent de la réaction de l’Église Catholique », explique Falkvinge. « Quand il y a une technologie dérangeante, vecteur d’égalisation, la classe dirigeante n’attaque pas les personnes qui essaient de devenir égales. Elle s’en prend à la technologie qui rend cela possible. On le voit dans le monde entier, la classe dirigeante attaque Internet. »

« Les excuses varient. En Chine, c’est le contrôle. En Asie du Sud, c’est la morale publique, dans d’autres endroits, c’est l’ordre et la loi. En Égypte, je pense, la raison est de respecter les préceptes de la religion, l’Islam dans leur cas. Aux États-Unis, il y a trois excuses majeures : le droit d’auteur, le terrorisme et la pédophilie. Ces excuses sont en train d’être utilisées pour briser le plus grand égalisateur de population jamais inventé. »

« Voilà le véritable enjeu. Les libertés fondamentales doivent être grignotées ou abolies pour sauvegarder un monopole chancelant d’industries obsolètes. Il est compréhensible qu’une industrie déliquescente se batte pour sa survie, mais il appartient aux politiciens de dire que, non, nous n’allons pas démanteler les libertés fondamentales juste pour que vous n’ayez pas à changer. Adaptez-vous ou bien mourrez. »

C’est dans cette situation, déclare Falkvinge, que les perspectives du Parti Pirate sont si importantes.

Le Parti Pirate « adopte une position sur les droits civiques que les politiciens ne comprennent pas. Ils écoutent les lobbys et s’attaquent de manière extrêmement dangereuse aux libertés fondamentales. »

Les efforts du lobby pro-copyright pourraient se révéler en fin de compte futiles, pour Falkvinge ils se battent pour une cause perdue. Mais il met aussi en garde contre les dommages considérables que pourrait causer le lobby avant d’être finalement emporté par l’inéluctable.

Courtiser les Pirates

Cybriks - CC byÀ la prochaine séance du Parlement Européen, Christian Engstrom siègera dans l’hémicycle, un entrepreneur devenu activiste qui milite contre les brevets depuis ces cinq dernières années. Si le Parti Pirate obtient un second siège, Engstrom sera rejoint par Amelia Andersdotter (cf photo ci-contre), que Falksvinge décrit comme « un des plus brillants esprits que nous ayons dans le Parti Pirate ». Elle serait alors la plus jeune membre jamais élue du Parlement Européen.

Le Parti Pirate aborde des problèmes dont personne, jusqu’à maintenant, n’a vraiment pris conscience. Est-ce là l’explication pour le soudain intérêt dont bénéficie le parti ? Peut-être. Mais leur popularité chez les électeurs de moins de trente ans, un groupe que les autres partis ont toujours eu du mal à séduire, compte au moins autant.

De plus, avec un électorat divisé entre une multitude de partie, les 7% recueillis par le Parti Pirate sont loin d’être négligeables.

« Ces sept coalitions se mettent en quatre pour s’approprier notre crédibilité », résume Falkvinge. « Nous jouissons d’un vrai soutien populaire que ces partis se battent pour nous avoir. »

S’exprimant quelques jours après les élections, Falkvinge ne cachait pas sa satisfaction. Malgré tout, il se prépare déjà pour les prochaines élections nationales en Suède, où il espère que le Parti Pirate jouera un rôle dans un gouvernement minoritaire. Le prix d’une alliance avec les Pirates sera, bien sûr, l’adoption de leurs idées.

« Aux élections européennes nous avons gagné notre légitimité », constate Falkvinge. « Les prochaines élections nationales nous permettront de réécrire les lois. »

Si tel est le cas, l’Union Européenne et le reste du monde pourront peut-être en sentir les effets. Déjà, des Partis Pirates se mettent en place à l’image du parti suédois, et, comme le montre leur faculté à attirer les jeunes, pour des milliers d’entre eux le Parti Pirate est le seul parti politique qui aborde les questions qui les intéressent.

« Il y a deux choses qu’il ne faut pas perdre de vue » remarque Falkvinge. « Premièrement, nous faisons partie de la nouvelle génération de défenseurs des libertés fondamentales. C’est un mouvement pour les libertés fondamentales. Des libertés fondamentales et des droits fondamentaux essentiels sont compromis par des personnes voulant contrôler le Net, et nous voulons sauvegarder ces droits. Au fond, nous voulons que les droits et devoirs fondamentaux s’appliquent aussi bien sur Internet que dans la vie courante. »

« Le deuxième point que je voudrais souligner c’est que nous nous faisons connaître uniquement par le bouche à oreille. Nous avons gagné à peu près un quart de million de voix, 50 000 membres, 17 000 activistes, par le bouche à oreille, conversation après conversation, collègue, parent, étudiant, un par un, en trois ans. »

« C’est, je crois, la meilleure preuve que c’est possible. Vous n’êtes plus dépendants des médias traditionnels. Si vous avez un message fort et que les gens s’y reconnaissent, vous pouvez y arriver. »

Notes

[1] Crédit photos : 1. Ann Catrin Brockman (Creative Commons By-Sa) 2. Cybriks (Creative Commons By)




Projet Shtooka – Interview de Nicolas Vion

Cesarastudillo - CC byDans l’expression Rencontres Mondiales du Logiciel Libre, il y a le mot rencontre. Et c’est ainsi que nous avons fait connaissance avec Nicolas Vion, fondateur du fort intéressant Projet Shtooka qu’il nous a semblé judicieux de mettre en avant sur ce blog à la faveur de cette courte interview.

L’objectif du projet vise la création de matériel audio libre pour l’apprentissage des langues étrangères en mettant en place un ensemble de collections sonores de mots et expressions telle la base audio libre de mots français (cf démo en ligne) ainsi que les outils logiciels capables d’en tirer parti. Outre le français, on trouve aussi des corpus pour d’autres langues telles que le russe, l’ukrainien, le biélorusse, le wolof, le tchèque ou le chinois[1].

Un entretien réalisé par Emmanuel Poirier (alias LeBidibule) pour Framasoft.


Bonjour Nicolas, je vais te demander de te présenter.

Je m’appelle Nicolas Vion, je m’intéresse depuis quelques années aux langues slaves. Après une licence de russe, je suis actuellement en licence d’ukrainien et travaille comme développeur système. Je m’occupe du Projet Shtooka depuis son origine.

En quoi consiste ton projet ?

Le projet Shtooka consiste à enregistrer des collections audio libres de mots, d’expressions idiomatiques et d’éléments du langage avec des locuteurs natifs pour toutes les langues.

C’est aussi un ensemble de logiciels permettant d’enregistrer, d’organiser et d’exploiter ces collections. Cela permet, par exemple, d’ajouter l’audio dans des dictionnaires électroniques (les fichiers sont d’ores et déjà utilisés pour le Wiktionnaire), mais aussi de faciliter l’apprentissage du vocabulaire d’une langue étrangère en se faisant des fiches de vocabulaire audio à l’aide d’outils comme le Kit Shtooka (ou bientôt les SWAC Tools) et ainsi de réviser son vocabulaire à l’aide d’un baladeur MP3 ou Ogg Vorbis en baladodiffusion. Il est également possible de créer à partir de ces fiches de vocabulaire des activités pédagogiques au format JClic pour les plus petits…

Au delà de l’aspect pédagogique, ces collections représentent, à mon sens, un intérêt linguistiques et scientifique en regroupant en un ensemble cohérent un tel matériel audio qui, je pense, comptera à l’avenir.

Depuis quelque temps, le Projet Shtooka s’est monté en association, ce qui a permis au projet de s’agrandir un peu. Nous sommes aujourd’hui environ quatre personnes actives dans le projet, de plus cela va nous permettre de contacter différents organismes en tant qu’association.

Quelles est la différence entre le Kit Shtooka et les SWAC Tools ?

Le Kit Shtooka, qui est un ensemble de programmes pour Microsoft Windows (mais qui marche aussi sous GNU/Linux avec Wine), est en quelque sorte l’héritier du petit programme à l’origine du projet. Ce petit programme était une sorte de «bidouille» que j’avais écrit pour mes besoins personnels alors que je me trouvais en Russie, où les connexions Internet ne sont pas forcément bon marché. Aussi, j’ai trouvé un CD de Delphi et ai donc commencé à coder pour cet environnement.

Le Kit Shtooka est en fait issu d’une refonte de ce programme originel. Il est mûr et utilisable, l’ayant moi-même utilisé au cours de mes études de Russe, mais des limitations sont apparues liées au choix techniques initiaux… Il y a maintenant un an j’ai commencé un travail de ré-écriture du Kit Shtooka en C++ et utilisant des libraires standards telles que GTK+ et QT, ce qui permet une meilleure portabilité entre plate-formes et une plus grande modularité.

A l’heure actuelle, si le Kit Shtooka est pleinement utilisable, les SWAC Tools sont encore assez jeunes et d’utilisation plutôt difficile (NdR : il manque notamment le logiciel d’enregistrement, le logiciel exerciseur « Repeat ») mais devraient à terme remplacer les vieux outils. C’est en quelque sorte la nouvelle génération du Kit Shtooka.

Quand as-tu pensé à utiliser des licences libres pour vos productions et vos logiciels ?

A l’origine, je n’imaginais pas qu’il serait aussi facile d’enregistrer la prononciation d’autant de mots. Tout a commencé par intérêt personnel. Je faisais enregistrer la prononciation de mots russes par mes amis afin de me faciliter l’apprentissage du vocabulaire, sans penser à la licence de ces enregistrements.

Au bout d’un an, je me suis rendu compte que je disposais d’un corpus important (NdR : mais inutilisable pour le futur projet, faute d’accord avec les locuteurs de l’époque), et j’ai pensé faire une base de mots audio en français afin d’aider des professeurs de français FLE (Français Langue Étrangère), ou encore pour les étudiants en auto-apprentissage.

C’est au cours de ces enregistrements que j’ai amélioré la technique d’enregistrement (grâce à quelques modifications de l’interface, je pouvais désormais enregistrer plus de 1500 mots de suite sans me fatiguer). J’ai alors décidé de diffuser cette première collection qui regroupait plus de 7000 enregistrements sur une site Internet sous une licence libre (la Creative Commons By) et un ami m’a soufflé l’idée de faire une dépêche sur le site d’information LinuxFr.

Très vite, j’ai été contacté par Eric Streit qui était enthousiasmé par le projet et qui a rapidement enregistré une collection de mots russes avec sa femme originaire du Kazakhstan. Un ami chinois m’a également permis de réaliser le corpus chinois : le projet Shtooka était bel et bien lancé.

À mon sens, la licence libre s’imposait car c’était la seule façon de permettre la créativité. En effet, on ne peut imaginer soi-même toutes les applications possibles à partir d’une telle « matière première » sonore.

Enfin en voulant proposer mon outil d’enregistrement à des contributeurs du projet Wiktionnaire (entre autre Betsy Megas) j’ai eu à ré-écire cet outil, pour en faire un programme séparé, plus facile à utiliser. Cela m’a permis par la même occasion de formaliser la façon des stocker les informations sur les mots enregistrés et les locuteurs, et ai proposé l’adoption des « SWAC Metatags ». En effet, s’il est possible d’enregistrer dans les fichiers audio Ogg Vorbis des informations pour les collections musicales (nom de l’album, nom de la chanson, style de musique) les « SWAC Metatags » permettent de faire la même chose avec les collections linguistiques grâce à une quarantaine de champs d’information : nom du locuteur, sa langue maternelle, région d’origine…

Avez-vous eu beaucoup de retours jusqu’alors ?

Jusqu’à présent, les retours d’expérience ont été peu nombreux; mais je remercie les personnes, notamment les professeurs de Langues Vivantes qui ont permis de faire évoluer le logiciel, et faire remonter les problèmes liés à la formation de l’outil.

Il est vrai que l’outil a été plus pensé pour des apprenants autonomes que pour des professeurs. Les RMLL 2009 ont d’ailleurs été l’occasion de rencontrer des gens d’autres projets qui utilisent nos collections. Nous avons également pris contact avec des libristes marocains qui ont l’intention de développer le Projet Shtooka dans leur pays (nous avons d’ailleurs pu enregistrer avec eux une petite collection de mots arabes durant les RMLL).

Quelles sont les aides que l’on peut vous apporter si l’on souhaite participer au projet ?

Les aides sont les bienvenues !

Tout d’abord, si l’on a des compétences pour une langue en particulier, il est possible de créer des listes de mots et expressions qui serviront lors de sessions d’enregistrements avec un locuteur natif. Pour cela il suffit de rassembler les éléments à enregistrer dans un simple fichier texte. Pour ce travail il faut quand même avoir une bonne connaissance de la langue en question : par exemple, pour le corpus français, se pose la question : faut-il prononcer les substantifs avec ou sans article ? Si oui, lesquels : définis ou indéfinis ? Pour d’autres langues se pose le problème des déclinaisons, du déplacement des accents toniques, des mutations, ou encore des cas d’homographie… Ce travail préparatoire peut être fait par un professeur, mais aussi par un apprenant.


Ensuite vous pouvez participer au projet en tant que « locuteur natif » de votre langue maternelle en enregistrant des mots ou expressions. Ceci-dit, il est important d’avoir un matériel d’enregistrement de qualité convenable, quelques connaissances sur la prise de son avec un ordinateur, et de disposer d’un endroit calme. Le logiciel d’enregistrement est très pratique et permet d’enregistrer plus de 1000 mots par heure. Ici, la communauté Shtooka peut aider (dans la mesure du possible) en trouvant le matériel, en organisant l’enregistrement…

Les professeurs de langues peuvent également nous aider en proposant des listes de vocabulaire bilingues organisées par thèmes ou par leçons, car en fait chaque collection audio est indépendante. De même, tous les travaux dérivés (exercices interactifs, imagiers pour les écoles primaires…) sont intéressants et bienvenus, et peuvent donner des idées pour compléter les collections audio.

Si vous êtes développeur C++ (ou autre) vous pouvez aider au développement des nos logiciels. Les développeurs Web et les graphistes peuvent nous donner un coup de main sur le site Internet…

Globalement, nous cherchons des aides ponctuelles mais aussi dans la durée. Il nous faudrait, par exemple, des personnes pour s’occuper du développement de telle ou telle langue (au passage, nous aurions besoin de quelqu’un qui puisse s’occuper de la collection espagnole), alors n’hésitez pas !

Notes

[1] Crédit photo : Cesarastudillo (Creative Commons By)




Le socialisme nouveau est arrivé

Copyleft FlagLe socialisme est mort, vive le socialisme ? À l’instar de Is Google making us stupid? c’est une nouvelle traduction de poids que nous vous proposons aujourd’hui.

Un socialisme nouveau, revu et corrigé, est en train de prendre forme sur Internet. Telle est l’hypothèse de Kevin Kelly, célèbre éditorialiste du célèbre magazine Wired. Et l’on ne s’étonnera guère d’y voir le logiciel libre associé aux nombreux arguments qui étayent son propos.

Vous reconnaissez-vous dans ce « socialisme 2.0 » tel qu’il est présenté ici ? Peut-être oui, peut-être non. Mais il n’est jamais inutile de prendre un peu de recul et tenter de s’interroger sur ce monde qui s’accélère et va parfois plus vite que notre propre capacité à lui donner du sens.

Le nouveau Socialisme : La société collectiviste globale se met en ligne

The New Socialism: Global Collectivist Society Is Coming Online

Kevin Kelly – 22 mai 2009 – Wired
(Traduction Framalang : Poupoul2, Daria et Don Rico)

Bill Gates s’est un jour moqué des partisans de l’Open Source avec le pire épithète qu’un capitaliste puisse employer. Ces gens-là, a-t-il dit, sont « une nouvelle race de communistes », une force maléfique décidée à détruire l’incitation monopolistique qui soutient le Rêve Américain. Gates avait tort : les fanatiques de l’Open Source sont plus proches des libertariens que des communistes. Il y a pourtant une part de vérité dans son propos. La course effrénée à laquelle on se livre partout sur la planète pour connecter tout le monde avec tout le monde dessine doucement les contours d’une version revue et corrigée du socialisme.

Les aspects communautaires de la culture numérique ont des racines profondes et étendues. Wikipédia n’est qu’un remarquable exemple de collectivisme émergeant parmi d’autres, et pas seulement Wikipédia mais aussi toute le système des wikis. Ward Cunningham, qui inventa la première page web collaborative en 1994, a recensé récemment plus de cent cinquante moteurs de wiki différents, chacun d’entre eux équipant une myriade de sites. Wetpaint, lancé il y a tout juste trois ans, héberge aujourd’hui plus d’un million de pages qui sont autant de fruits d’un effort commun. L’adoption massive des licences de partage Creative Commons et l’ascension de l’omniprésent partage de fichiers sont deux pas de plus dans cette direction. Les sites collaboratifs tels que Digg, Stumbleupon, the Hype Machine ou Twine poussent comme des champignons et ajoutent encore du poids à ce fantastique bouleversement. Chaque jour nous arrive une nouvelle start-up annonçant une nouvelle méthode pour exploiter l’action communautaire. Ces changements sont le signe que l’on se dirige lentement mais sûrement vers une sorte de socialisme uniquement tourné vers le monde en réseau.

Mais on ne parle pas là du socialisme de votre grand-père. En fait, il existe une longue liste d’anciens mouvements qui n’ont rien à voir avec ce nouveau socialisme. Il ne s’agit pas de lutte des classes. Il ne s’agit pas d’anti-américanisme. Le socialisme numérique pourrait même être l’innovation américaine la plus récente. Alors que le socialisme du passé était une arme d’État, le socialisme numérique propose un socialisme sans État. Cette nouvelle variété de socialisme agit dans le monde de la culture et de l’économie, plutôt que dans celui de la politique… pour le moment.

Le communisme avec lequel Gates espérait salir les créateurs de Linux est né dans une période où les frontières étaient rigides, la communication centralisée, et l’industrie lourde et omniprésente. Ces contraintes ont donné naissance à une appropriation collective de la richesse qui remplaçait l’éclatant chaos du libre marché par des plans quinquennaux imposés par un politburo tout puissant.

Ce système d’exploitation politique a échoué, c’est le moins que l’on puisse dire. Cependant, contrairement aux vieilles souches du socialisme au drapeau rouge, le nouveau socialisme s’étend sur un Internet sans frontières, au travers d’une économie mondiale solidement intégrée. Il est conçu pour accroître l’autonomie individuelle et contrecarrer la centralisation. C’est la décentralisation à l’extrême.

Au lieu de cueillir dans des fermes collectives, nous récoltons dans des mondes collectifs. Plutôt que des usines d’État, nous avons des usines d’ordinateurs connectées à des coopératives virtuelles. On ne partage plus des forêts, des pelles ou des pioches, mais des applications, des scripts et des APIs. Au lieu de politburos sans visage, nous avons des méritocracies anonymes, où seul le résultat compte. Plus de production nationale, remplacée par la production des pairs. Finis les rationnements et subventions distribués par le gouvernement, place à l’abondance des biens gratuits.

Je reconnais que le terme socialisme fera forcément tiquer de nombreux lecteurs. Il porte en lui un énorme poids culturel, au même titre que d’autres termes associés tels que collectif, communautaire ou communal. J’utilise le mot socialisme parce que techniquement, c’est celui qui représente le mieux un ensemble de technologies dont l’efficience dépend des interactions sociales. L’action collective provient grosso modo de la richesse créée par les sites Web et les applications connectées à Internet lorsqu’ils exploitent du contenu fourni par les utilisateurs. Bien sûr, il existe un danger rhétorique à réunir autant de types d’organisation sous une bannière aussi provocatrice. Mais puisqu’il n’existe aucun terme qui soit vierge de toute connotation négative, autant donner une nouvelle chance à celui-là. Lorsque la multitude qui détient les moyens de production travaille pour atteindre un objectif commun et partage ses produits, quand elle contribue à l’effort sans toucher de salaire et en récolte les fruits sans bourse délier, il n’est pas déraisonnable de qualifier ce processus de socialisme.

À la fin des années 90, John Barlow, activiste, provocateur et hippie vieillissant, a désigné ce courant par le terme ironique de « point-communisme » (NdT : en référence au point, dot, des nom de domaines des sites Web comme framablog point org). Il le définissait comme une « main d’œuvre composée intégralement d’agents libres », « un don décentralisé ou une économie de troc où il n’existe pas de propriété et où l’architecture technologique définit l’espace politique ». En ce qui concerne la monnaie virtuelle, il avait raison. Mais il existe un aspect pour lequel le terme socialisme est inapproprié lorsqu’il s’agit de désigner ce qui est en train de se produire : il ne s’agit pas d’une idéologie. Il n’y a pas d’exigence de conviction explicite. C’est plutôt un éventail d’attitudes, de techniques et d’outils qui encouragent la collaboration, le partage, la mise en commun, la coordination, le pragmatisme, et une multitude de coopérations sociales nouvellement rendues possibles. C’est une frontière conceptuelle et un espace extrêmement fertile pour l’innovation.

Socialisme 2.0 - HistoriqueDans son livre publié en 2008, Here Comes Everybody (NdT : Voici venir chacun), le théoricien des médias Clay Chirky propose une hiérarchie utile pour classer ces nouveaux dispositifs. Des groupes de personnes commencent simplement par partager, puis ils progressent et passent à la coopération, à la collaboration et, pour finir, au collectivisme. À chaque étape, on constate un accroissement de la coordination. Une topographie du monde en ligne fait apparaître d’innombrables preuves de ce phénomène.

I. Le partage

Les masses connectées à l’Internet sont animées par une incroyable volonté de partage. Le nombre de photos personnelles postées sur Facebook ou MySpace est astronomique, et il y a fort à parier que l’écrasante majorité des photos prises avec un appareil photo numérique sont partagées d’une façon ou d’une autre. Sans parler des mises à jour du statut de son identité numérique, des indications géographiques, des bribes de réflexion que chacun publie çà et là. Ajoutez-y les six milliards de vidéos vues tous les mois sur Youtube pour les seuls États-Unis et les millions de récits issus de l’imagination de fans d’œuvres existantes. La liste des sites de partage est presque infinie : Yelp pour les critiques, Loopt pour la géolocalisation, Delicious pour les marque-pages.

Le partage est la forme de socialisme la plus tempérée, mais elle sert de fondation aux niveaux les plus élevés de l’engagement communautaire.

II. La coopération

Lorsque des particuliers travaillent ensemble à atteindre un objectif d’envergure, les résultats apparaissent au niveau du groupe. Les amateurs n’ont pas seulement partagé plus de trois milliards de photos sur Flickr, ils les ont aussi associées à des catégories ou des mots-clés ou les ont étiquetées (NdT : les tags). D’autres membres de la communauté regroupent les images dans des albums. L’usage des populaires licences Creative Commons aboutit à ce que, d’une façon communautaire, voire communiste, votre photo devienne ma photo. Tout le monde peut utiliser une photo, exactement comme un communiste pourrait utiliser la brouette de la communauté. Je n’ai pas besoin de prendre une nouvelle photo de la tour Eiffel, puisque la communauté peut m’en fournir une bien meilleure que la mienne.

Des milliers de sites d’agrégation emploient la même dynamique sociale pour un bénéfice triple. Premièrement, la technologie assiste directement les utilisateurs, en leur permettant d’étiqueter, marquer, noter et archiver du contenu pour leur propre usage. Deuxièmement, d’autres utilisateurs profitent des tags et des marque-pages des autres… Et tout ceci, au final, crée souvent une valeur ajoutée que seul le groupe dans son ensemble peut apporter. Par exemple, des photos d’un même endroit prises sous différents angles peuvent être assemblées pour former une reproduction du lieu en 3D stupéfiante. (Allez voir du côté de Photosynth de Microsoft). Curieusement, cette proposition va plus loin que la promesse socialiste du « chacun contribue selon ses moyens, chacun reçoit selon ses besoins », puisqu’elle améliore votre contribution et fournit plus que ce dont vous avez besoin.

Les agrégateurs communautaires arrivent à d’incroyables résultats. Des sites tels que Digg ou Reddit, qui permettent aux utilisateurs de voter pour les liens qu’ils souhaitent mettre en évidence, peuvent orienter le débat public autant que les journaux ou les chaînes de télévision (pour info Reddit appartient à la maison mère de Wired, Condé Nast). Ceux qui contribuent sérieusement à ces sites y consacrent plus d’énergie qu’ils ne pourront jamais en recevoir en retour, mais ils continuent en partie à cause du pouvoir culturel que représentent ces outils. L’influence d’un participant s’étend bien au-delà d’un simple vote, et l’influence collective de la communauté surpasse de loin le nombre de ses participants. C’est l’essence même des institutions sociales, l’ensemble dépasse la somme de ses composants. Le socialisme traditionnel visait à propulser cette dynamique par le biais de l’État. Désormais dissociée du gouvernement et accrochée à la matrice numérique mondiale, cette force insaisissable s’exerce à une échelle plus importante que jamais.

III. La collaboration

La collaboration organisée peut produire des résultats dépassant ceux d’une coopération improvisée. Les centaines de projets de logiciel Open Source, tel que le serveur Web Apache, en sont le parfait exemple. Dans ces aventures, des outils finement ciselés par la communauté génèrent des produits de haute qualité à partir du travail coordonné de milliers ou dizaines de milliers de membres. Contrairement à la coopération traditionnelle, la collaboration sur d’énormes projets complexes n’apporte aux participants que des bénéfices indirects, puisque chaque membre du groupe n’intervient que sur une petite partie du produit final. Un développeur motivé peut passer des mois à écrire le code d’une infime partie d’un logiciel dont l’état global est encore à des années-lumière de son objectif. En fait, du point de vue du marché libre, le rapport travail/récompense est tellement dérisoire (les membres du projet fournissent d’immenses quantités de travail à haute valeur ajoutée sans être payés) que ces efforts collaboratifs n’ont aucun sens au sein du capitalisme.

Pour ajouter à la dissonance économique, nous avons pris l’habitude de profiter du fruit de ces collaborations sans mettre la main à la poche. Plutôt que de l’argent, ceux qui participent à la production collaborative gagnent en crédit, statut, réputation, plaisir, satisfaction et expérience. En plus d’être gratuit, le produit peut être copié librement et servir de socle à d’autres produits. Les schémas alternatifs de gestion de la propriété intellectuelle, parmi lesquelles Creative Commons ou les licences GNU, ont été créés pour garantir ces libertés.

En soi, la collaboration n’a bien sûr rien de spécialement socialiste. Mais les outils collaboratifs en ligne facilitent un style communautaire de production qui exclut les investisseurs capitalistes et maintient la propriété dans les mains de ceux qui travaillent, voire dans celles des masses consommatrices.

IV Le collectivisme

Socialisme 2.0 - Ancien / NouveauAlors qu’une encyclopédie peut être rédigée de façon coopérative, nul n’est tenu pour responsable si la communauté ne parvient pas au consensus, et l’absence d’accord ne met pas en danger l’entreprise dans son ensemble. L’objectif d’un collectif est cependant de concevoir un système où des pairs autogérés prennent la responsabilité de processus critiques, et où des décisions difficiles, comme par exemple définir des priorités, sont prises par l’ensemble des acteurs. L’Histoire abonde de ces centaines de groupes collectivistes de petite taille qui ont essayé ce mode de fonctionnement. Les résultats se sont révélés peu encourageants (quand bien même on ne tienne pas compte de Jim Jones et de la « famille » de Charles Manson).

Or, une étude approfondie du noyau dirigeant de Wikipédia, Linux ou OpenOffice, par exemple, montre que ces projets sont plus éloignés de l’idéal collectiviste qu’on pourrait le croire vu de l’extérieur. Des millions de rédacteurs contribuent à Wikipédia, mais c’est un nombre plus restreint d’éditeurs (environ mille cinq cents) qui est responsable de la majorité de l’édition. Il en va de même pour les collectifs qui écrivent du code. Une myriade de contributions est gérée par un groupe plus réduit de coordinateurs. Comme Mitch Kapor, membre fondateur de la Mozilla Open Source Code Factory, le formule : « au cœur de toutes les anarchies qui marchent, il y a un réseau à l’ancienne ».

Ce n’est pas forcément une mauvaise chose. Certaines formes de collectivisme tirent avantage de la hiérarchie, alors que d’autres en souffrent. Des plateformes tels qu’Internet et Facebook, ou même la démocratie, qui servent de substrat à la production de biens ou à la fourniture de services, profitent de l’absence quasi totale de hiérarchie, laquelle réduit les obstacles à l’intégration et permet la répartition équitable des droits et responsabilités. Lorsque des acteurs puissants émergent, la structure dans son ensemble souffre. D’un autre côté, les organisations bâties pour créer des produits ont souvent besoin de dirigeants forts, et de hiérarchies organisées capable de se projeter dans l’avenir : l’un des niveaux se concentre sur les besoins immédiats, l’autre sur les cinq années à venir.

Par le passé, il était quasi impossible de construire une organisation qui exploitait la hiérarchie tout en maximisant le collectivisme. Désormais, les réseaux numériques fournissent l’infrastructure nécessaire. Le Net donne la possibilité aux organisations concentrées sur le produit de fonctionner collectivement, tout en empêchant la hiérarchie d’en prendre totalement le pouvoir. L’organisation qui conçoit MySQL, une base de données Open Source, n’est pas animée par un refus romantique de la hiérarchie, mais elle est bien plus collectiviste qu’Oracle. De la même manière, Wikipédia n’est pas un bastion d’égalité, mais elle est largement plus collectiviste que l’encyclopédie Britannica. Le cœur élitiste que nous trouvons au centre des collectifs en ligne est en fait un signe que le socialisme sans État peut fonctionner à grande échelle.

La plupart des occidentaux, moi y compris, ont été endoctrinés par l’idée que l’extension du pouvoir des individus réduit forcément le pouvoir de l’État, et vice versa. Pourtant, dans la pratique, la plupart des politiques socialisent certaines ressources et en individualisent d’autres. Les économies de marché ont pour la plupart socialisé l’éducation, et même les sociétés les plus socialisées autorisent une certaine forme de propriété privée.

Plutôt que de voir le socialisme technologique comme une sorte de compromis à somme nulle entre l’individualisme du marché libre et une autorité centralisée, on peut le considérer comme un système d’exploitation culturel qui élève en même temps l’individu et le groupe. Le but, largement désarticulé mais intuitivement compréhensible, de la technologie communautaire consiste à maximiser l’autonomie individuelle et le pouvoir de ceux qui travaillent ensemble. Ainsi, on peut voir le socialisme numérique comme une troisième voie rendant les vieux débats obsolètes.

Ce concept de troisième voie est également rapporté par Yochai Benkler, auteur de The Wealth of Networks (NdT : La richesse des réseaux), qui a probablement réfléchi plus que quiconque aux politiques des réseaux. Il affirme voir « l’émergence de la production sociale et de la production collective comme une alternative aux systèmes propriétaires et fermés, basés sur l’État ou le marché », notant que ces activités « peuvent accroître la créativité, la productivité et la liberté ». Le nouveau système d’exploitation, ce n’est ni le communisme classique et sa planification centralisée sans propriété privée, ni le chaos absolu du marché libre. C’est au contraire un espace de création émergeant, dans lequel la coordination publique décentralisée peut résoudre des problèmes et créer des richesses, là où ni le communisme ni le capitalisme purs et durs n’en sont capables.

Les systèmes hybrides qui mélangent les mécanismes marchands et non marchands ne sont pas nouveaux. Depuis des décennies, les chercheurs étudient les méthodes de production décentralisées et socialisées des coopératives du nord de l’Italie et du Pays Basque, dans lesquelles les employés sont les propriétaires, prennent les décisions, limitent la distribution des profits et sont indépendants du contrôle de l’État. Mais seule l’arrivée de la collaboration à bas prix, instantanée et omniprésente que permet Internet a rendu possible la migration du cœur de ces idées vers de nombreux nouveaux domaines telle que l’écriture de logiciels de pointe ou de livres de référence.

Le rêve, ce serait que cette troisième voie aille au-delà des expériences locales. Jusqu’où ? Ohloh, une entreprise qui analyse l’industrie de l’Open Source, a établi une liste d’environ deux cent cinquante mille personnes travaillant sur deux cent soixante-quinze mille projets. C’est à peu près la taille de General Motors et cela représente énormément de gens travaillant gratuitement, même si ce n’est pas à temps complet. Imaginez si tous les employés de General Motors n’étaient pas payés, tout en continuant à produire des automobiles !

Jusqu’à présent, les efforts les plus importants ont été ceux des projets Open Source, dont des projets comme Apache gèrent plusieurs centaines de contributeurs, environ la taille d’un village. Selon une étude récente, la version 9 de Fedora, sortie l’année dernière, représenterait soixante mille années-homme de travail. Nous avons ainsi la preuve que l’auto-assemblage et la dynamique du partage peuvent gouverner un projet à l’échelle d’une ville ou d’un village décentralisé.

Évidemment, le recensement total des participants au travail collectif en ligne va bien au-delà. YouTube revendique quelques trois cent cinquante millions de visiteurs mensuels. Presque dix millions d’utilisateurs enregistrés ont contribué à Wikipédia, cent soixante mille d’entre eux sont actifs. Plus de trente-cinq millions de personnes ont publié et étiqueté plus de trois milliards de photos et vidéos sur Flickr. Yahoo héberge près de huit millions de groupes sur tous les sujets possibles et imaginables. Google en compte près de quatre millions.

Ces chiffres ne représentent toujours pas l’équivalent d’une entière nation. Peut-être ces projets ne deviendront-ils jamais grand public (mais si Youtube n’est pas un phénomène grand public, qu’est-ce qui l’est ?). Pourtant, la population qui baigne dans les médias socialisés est indéniablement significative. Le nombre de personnes qui créent gratuitement, partagent gratuitement et utilisent gratuitement, qui sont membres de fermes logicielles collectives, qui travaillent sur des projets nécessitant des décisions collectives, ou qui expérimentent les bénéfices du socialisme décentralisé, ce nombre a atteint des millions et progresse en permanence. Des révolutions sont nées avec bien moins que cela.

On pourrait s’attendre à de la démagogie de la part de ceux qui construisent une alternative au capitalisme et au corporatisme. Mais les développeurs qui conçoivent des outils de partage ne se voient pas eux-mêmes comme des révolutionnaires. On n’est pas en train d’organiser de nouveaux partis politiques dans les salles de réunions, du moins pas aux États-Unis (en Suède, le Parti Pirate s’est formé sur une plateforme de partage, et il a remporté un piètre 0,63% des votes aux élections nationales de 2006).

En fait, les leaders du nouveau socialisme sont extrêmement pragmatiques. Une étude a été menée auprès de deux mille sept cent quatre-vingt-quatre développeurs Open Source afin d’analyser leurs motivations. La plus commune d’entre elles est « apprendre et développer de nouvelles compétences ». C’est une approche pratique. La vision académique de cette motivation pourrait être : « si je bosse sur du code libre, c’est surtout pour améliorer le logiciel ». En gros, la politique pour la politique n’est pas assez tangible.

Même ceux qui restent et ne participent pas au mouvement pourraient ne pas être politiquement insensibles à la marée montante du partage, de la coopération, de la collaboration et du collectivisme. Pour la première fois depuis des années, des pontes de la télévision et des grands magazines nationaux osent prononcer le mot tabou « socialisme », désormais reconnu comme une force qui compte dans la politique des États-Unis. À l’évidence, la tendance à la nationalisation de grosses portions de l’industrie, à l’établissement d’un système de santé public et à la création d’emplois avec l’argent du contribuable n’est pas dû en totalité au techno-socialisme. Ainsi les dernières élections ont démontré le pouvoir d’une base décentralisée et active sur le Web, dont le cœur bat au rythme de la collaboration numérique. Plus nous tirons les bénéfices d’une telle collaboration, plus nous nous ouvrons la porte à un avenir d’institutions socialistes au gouvernement. Le système coercitif et totalitaire de la Corée du Nord n’est plus, le futur est un modèle hybride qui s’inspire de Wikipédia et du socialisme modéré de la Suède.

Jusqu’où ce mouvement nous rapprochera-t-il d’une société non capitaliste, Open Source, à la productivité collaborative ? Chaque fois cette question apparue, la réponse a été : plus près que nous le pensons. Prenons Craigslist, par exemple. Ce ne sont que des petites annonces classées, n’est-ce pas ? Pourtant, ce site a démultiplié l’efficacité d’une sorte de troc communautaire pour toucher un public régional, puis l’a amélioré en intégrant des images et des mises à jour en temps réel, jusqu’à devenir soudain un trésor national. Fonctionnant sans financement ni contrôle public, connectant les citoyens entre eux sans intermédiaire, cette place de marché essentiellement gratuite produit du bien et du lien social avec une efficacité qui laisserait pantois n’importe quel gouvernement ou organisation traditionnelle. Bien sûr, elle ébranle le modèle économique des journaux, mais en même temps il devient indiscutable que le modèle de partage est une alternative viable aux entreprises à la recherche permanente de profits et aux institutions civiques financées par les impôts.

Qui aurait cru que des paysans précaires pourraient obtenir et rembourser des prêts de cent dollars accordés par de parfaits étrangers vivant à l’autre bout du monde ? C’est ce que réussit Kiva en fournissant des prêts de pair-à-pair. Tous les experts de santé publique ont déclaré sous le sceau de la confidentialité que le partage, ça convenait pour les photos, mais que personne ne partagerait son dossier médical. Pourtant, PatientsLikeMe, où les patients mettent en commun les résultats de leurs traitements pour échanger et mieux prendre soin d’eux-mêmes, a montré que l’action collective peut contredire les médecins et leurs craintes concernant la confidentialité.

L’habitude de plus en plus répandue qui consiste à partager ce que vous pensez (Twitter), ce que vous lisez (StumbleUpon), ce que vous gagnez (Wesabe), bref tout et n’importe quoi (le Web) est en train de prendre une place essentielle dans notre culture. En faire de même en créant des encyclopédies, des agences de presse, des archives vidéo, des forges logicielles, de façon collaborative, dans des groupes rassemblant des contributeurs du monde entier sans distinction de classe sociale, voilà ce qui fait du socialisme politique la prochaine étape logique.

Un phénomène similaire s’est produit avec les marchés libres du siècle dernier. Chaque jour, quelqu’un demandait : « Y a-t-il quelque chose que les marchés ne peuvent pas faire ? ». Et on établissait ainsi une liste de problèmes qui semblaient nécessiter une planification rationnelle ou un mode de gouvernance paternaliste en leur appliquant une logique de place de marché. Dans la plupart des cas, c’était la solution du marché qui fonctionnait le mieux, et de loin. Les gains de prospérité des décennies récentes ont été obtenus en appliquant les recettes du marché aux problèmes sociaux.

Nous essayons aujourd’hui d’en faire de même avec la technologie sociale collaborative, en appliquant le socialisme numérique à une liste de souhaits toujours plus grande (jusqu’aux problèmes que le marché libre n’a su résoudre) pour voir si cela fonctionne. Pour l’instant, les résultats ont été impressionnants. Partout, la puissance du partage, de la coopération, de la collaboration, de l’ouverture, de la transparence et de la gratuité s’est montrée plus pragmatique que nous autres capitalistes le pensions possible. À chaque nouvelle tentative, nous découvrons que le pouvoir du nouveau socialisme est plus grand que nous ne l’imaginions.

Nous sous-estimons la capacité de nos outils à remodeler nos esprits. Croyions-nous réellement que nous pourrions construire de manière collaborative et habiter des mondes virtuels à longueur de temps sans que notre perception de la réalité en soit affectée ? La force du socialisme en ligne s’accroît. Son dynamisme s’étend au-delà des électrons, peut-être même jusqu’aux élections.




L’académie en ligne ou la fausse modernité de l’Éducation nationale

Dustpuppy - CC byUne formidable occasion manquée pour notre cher ministère de l’Éducation nationale de se rapprocher de la culture des biens communs ? C’est l’hypothèse développée dans ce billet. Et c’est d’autant plus dommage et frustrant que tout semblait réuni pour que la rencontre ait bel et bien lieu.

Cet épisode révélateur vient clore une nouvelle année plus que fade pour le logiciel libre et son état d’esprit à l’école, puisque, à notre connaissance, pas une mesure sérieuse d’envergure a été officiellement prise en sa faveur, au cours de l’exercice 2008/2009 (on aura ainsi attendu en vain l’équivalent d’un rapport Becta de chez nous).

Logiciels, formats, et surtout, comme nous le verrons plus bas, ressources devront encore patienter pour s’engager pleinement sur le chemin de la liberté. Malgré les efforts de nombreuses personnes, la rue de Grenelle a tranché : c’est une fois de plus le redoublement !

Un projet ambitieux : l’académie en ligne

Comme souvent, il y a au départ une louable intention répondant à un réel besoin avec ce projet d’académie en ligne, inauguré officiellement le 19 juin dernier par l’ex-ministre Xavier Darcos.

L’académie en ligne est un site de ressources gratuites proposés par le CNED pour aider les jeunes dans leur scolarité et permettre aux parents de mieux les accompagner sur la voie de la réussite.

L’académie en ligne doit mettre à la disposition de tous l’intégralité des contenus d’enseignement des programmes de la scolarité obligatoire. Les cours d’école primaire seront en ligne à partir du 15 septembre et ceux de collège et lycée à partir de fin octobre.

Dès à présent, il propose des cours d’été, aux élèves du C.P. à la terminale, pour réviser les notions essentielles de l’année écoulée et préparer la rentrée.

De nombreuses séquences s’appuient sur des documents audio, iconographiques ou des activités interactives. On peut y accéder par matière, par classe ou par mot-clé grâce à un moteur de recherche.

Excellente et exaltante idée que de vouloir ainsi « mettre à la disposition de tous l’intégralité des contenus d’enseignement ».

Voilà qui sera d’une grande utilité non seulement aux élèves mais aussi à tous ceux qui sont un peu curieux de que l’on apprend à l’école (et parmi les effets secondaires positifs, on en profitera au passage pour réduire l’influence croissante et lucrative du parascolaire privé sur le temps non scolaire).

Visite surprise du site : le fond

Intrigué, je me suis donc rendu sur le site en question. Mon propos n’est pas ici d’en évaluer dans le détail la qualité et la pertinence pédagogique. Mais permettez-moi néanmoins au passage de donner un rapide et humble avis sur ce que je connais un peu, à savoir les mathématiques du secondaire.

Pour le collège on a visiblement découpé en rondelles PDF une sorte de cahiers d’activités (toujours sur le même moule : « je me souviens, je retiens, je m’exerce, je relève un défi »). La correction des exercices est à télécharger séparément.

Pour le lycée, c’est plus solide mais c’est un peu comme si on avait saucissonné, toujours uniquement en PDF, un semblant de manuel scolaire cette fois. On a le cours et des exercices d’application corrigés. Pas très moderne, didactiquement parlant. Si l’élève[1] a eu la bonne idée de conserver son propre manuel de l’année écoulée, autant travailler sur ce dernier, ces documents en ligne n’apportant a priori pas grand chose de plus (il économisera de l’encre et du papier qui plus est).

J’ai jeté également un œil (non avisé) sur les mathématiques du primaire. Ce n’est plus du PDF mais des animations au format Flash qui sont proposées. Ça bouge, ça parle et il y a de jolies couleurs, mais c’est toujours la même et lancinante structure : une première partie où l’on écoute passivement une petite explication et une seconde partie avec des exercices pseudo-interactifs où a la première erreur on nous dit systématiquement : « tu t’es trompé, recommence ! » et à la deuxième : « tu t’es trompé regarde bien la solution ! ».

Au final, tout ceci a le mérite d’exister mais c’est tout de même « un poil » décevant (mettez-vous à la place d’un élève qui débarque sur le site en souhaitant réviser en toute autonomie). C’est comme si le CNED avait mis en ligne des documents préexistants qu’il distribue j’imagine pendant l’année à ses élèves. Il n’y a visiblement pas eu de réflexion sur le spécificité des cours d’été, cette période particulière où l’on se trouve entre deux niveaux.

Visite surprise du site : la forme

J’ai balayé quelques pages du reste du contenu. Il m’a semblé que l’on retrouvait peu ou prou le même modèle pour les autres disciplines.

La seule nouveauté repérée concernait la présence de ressources audios pour les langues (anglais et espagnol), qui étaient elles-aussi mises à disposition au format Flash. Du format audio (le mp3 en l’occurrence) encapsulé dans du format Flash, impossible donc de télécharger ces séquences sonores (« Hello my name is John, repeat after me ») pour les écouter sur la plage dans son iPod.

Nous n’avons donc que deux formats, le PDF et le Flash. Le premier est un format ouvert quand l’autre ne l’est pas, mais ce que l’on peut surtout faire remarquer c’est que ce sont des formats qui ne permettent généralement pas les modifications. En effet, si vous voulez mettre à jour un fichier PDF, vous devez disposer du format natif qui a généré votre PDF (par exemple le traitement de texte Word de MS Office ou, mieux, Writer d’OpenOffice.org). Par analogie avec les logiciels, on pourrait dire que le fichier traitement de texte est le fichier source tandis que le fichier PDF est le fichier compilé (idem avec le Flash dont tout changement demande la présence des sources au format .fla). Sur l’académie en ligne ces fichiers d’origine sont absents. Les ressources mises à disposition sont pour ainsi dire « figées dans la vitrine ».

Dernière remarque. Les pages du site sont au format ASPX caractéristiques de la technologie Web de Microsoft. Ce ne sont pourtant pas les solutions libres qui manquent aujourd’hui pour construire des sites de qualité. Je ne pense pas que ce soit lié mais on peut aussi faire observer en passant que l’ergonomie générale du site laisse lui aussi pour le moment à désirer.

Visite surprise du site : la législation en vigueur

Il n’est techniquement pas possible de modifier les fichiers proposés ou d’embarquer les sons sur son baladeur. Mais, ceci expliquant sûrement cela, il est surtout juridiquement impossible de le faire.

Les mentions légales (et plus particulièrement son paragraphe 3 « Propriété intellectuelle ») sont en effet très contraignantes, et malheureusement révélatrices du climat ambiant.

D’ailleurs je viens déjà de me mettre en infraction à cause du lien ci-dessus ne pointant pas sur la page d’accueil du site !

Premier extrait (c’est moi qui souligne) :

Le site autorise, sans autorisation préalable, la mise en place de liens hypertextes pointant vers la page d’accueil du site Internet.

Tout lien vers une page autre que la page d’accueil du site Internet est strictement interdit sans l’accord préalable du Cned. Même en cas d’accord du Cned, Il est strictement interdit d’imbriquer les pages du site à l’intérieur des pages d’un autre site. Les pages du site doivent être visibles par l’ouverture d’une fenêtre indépendante.

Les sites qui font le choix de pointer vers ce site engagent leur responsabilité dès lors qu’ils porteraient atteinte à l’image du site public ou de la marque Cned.

Thierry Stoehr et Benoit Sibaud apprécieront cette interdiction de liaison (pourtant ontologiquement indissociable du Web).

Mais, plus fort encore, deuxième extrait concernant les cours proprement dits :

L’ensemble des cours figurant sur ce site sont la propriété du Cned.

Les images et textes intégrés à ces cours sont la propriété de leurs auteurs et/ou ayants-droits respectifs.

Tous ces éléments font l’objet d’une protection par les dispositions du code français de la propriété intellectuelle ainsi que par les conventions internationales en vigueur.

La consultation et le téléchargement des cours n’opèrent aucun transfert de droit de propriété intellectuelle sur ceux-ci. Ils ne sont permis que dans le strict respect des conditions suivantes :

Vous ne pouvez utiliser ces contenus qu’a des fins strictement personnelles. Toute reproduction, utilisation collective à quelque titre que ce soit, tout usage commercial, ou toute mise à disposition de tiers d’un cours ou d’une œuvre intégrée à ceux-ci sont strictement interdits.

Il est interdit de supprimer ou de tenter de supprimer les procédés techniques de protection des cours et des contenus intégrés (filigranes, blocages de sélections notamment).

Il est interdit d’extraire ou de tenter d’extraire une œuvre reproduite dans un cours et de l’utiliser à d’autres fins que celle d’illustration du cours auxquels elle est intégrée.

Le non respect de ces conditions vous expose à des poursuites judiciaires pour contrefaçon conformément aux articles L 335-2 et suivi du code de la propriété intellectuelle. Ces actes sont punis de 3 ans de prison et 300 000 euros d’amende.

Vous avez bien lu. Pour rappel nous sommes sur un service public d’éducation.

Si je partage je m’expose donc alors à des sanctions pour le moins disproportionnées. Cela ne vous rappelle rien ? Hadopi bien sûr, à la différence prêt que l’école est le lieu même de la transmission et que les auteurs des ressources sont des fonctionnaires de l’état français qui ne sont généralement pas payés (plusieurs fois) sur leurs droits d’auteur mais (une fois) sur leur salaire provenant de nos impôts.

Je suis enseignant et je souhaite distribuer ces ressources à mes élèves ? Interdiction. Je souhaite les adapter à mes besoins et (re)déposer ce travail dans le pot commun ? Interdiction. Je suis animateur dans un Espace public numérique ou dans un réseau d’éducation populaire et souhaite en faire profiter collectivement mon public ? Interdiction. Je suis un élève et souhaite distribuer les ressources à mes camarades qui n’ont pas accès à Internet ? Interdiction. La liste est longue et non exhaustive…

Ces mentions légales étaient-elles forcément les plus adaptées à la situation et à l’objectif fièrement affiché ? Rien n’est moins sûr. N’y aurait-il pas une certaine légitimité à les remettre en question, ou tout du moins à se poser quelques questions ?

Quelques ombres planent : 1. L’alternative Sésamath et les associations d’enseignants

Il est dès lors difficile d’évoquer ce projet sans penser en arrière-plan à l’association de professeurs Sésamath (que les lecteurs du Framablog connaissent bien désormais). Quand bien même elle ne concerne que le champ des mathématiques, la comparaison est en effet riche d’enseignements.

Sur la forme, les ressources mises à disposition par Sésamath sont elles aussi principalement proposées au format PDF et Flash, à ceci près que les sources sont également présentes. Et c’est loin d’être un détail parce que c’est la conséquence directe de la plus grande différence de départ entre cette académie en ligne et les travaux de l’association : la licence des ressources.

Fermée pour l’académie mais ouverte pour Sésamath, qu’il s’agisse de la GNU FDL (pour les manuels et les cahiers) ou de la GPL pour les logiciels (dont le fameux Mathenpoche). Avec un tel choix de licences libres, toutes les interdictions mentionnées précédemment sont levées !

Mais peut-être plus important encore,le fond, c’est-à-dire la qualité des documents. Ce n’est pas parce qu’une structure accole du jour au lendemain une licence libre à ses travaux que ces derniers vont, tel un coup de baguette magique, gagner en qualité. Il y a bien entendu des facteurs autrement plus importants qui entrent en ligne de compte. Il n’empêche que cela participe à la création d’un terreau fertile à l’épanouissement des ressources. La licence libre donne confiance, induit la circulation, la collaboration et donc a priori l’amélioration (je peux copier, modifier et reverser en toute liberté dans le pot commun sans que quiconque puisse un jour refermer le couvercle). Le projet peut échouer bien entendu, mais on lui aura ainsi facilité en amont ses chances de réussite. Réussite qui a bien eu lieu ici avec Sésamath, où qualité, mais aussi quantité, réalisées à plusieurs mains sont au rendez-vous.

Je souhaite cet été que mon gamin, futur lycéen, révise le théorème de Thalès vu en troisième ? Sur l’académie en ligne vous avez droit à votre unique fiche d’activité PDF à imprimer (Internet ne sert donc à rien d’autre ici qu’à stocker la ressource). Sur Sésamath par contre c’est un autre son de cloche. Vous avez plus d’une centaine de questions interactives via Mathenpoche, accompagnées si vous le désirez par les exercices du cahier correspondant (exemple), ainsi que le chapitre complet du manuel libre du niveau considéré. Mais il y a mieux, avec leur nouveau projet Kidimath, tout (et plus encore : rappels de quatrième, annales du Brevet, QCM…) est regroupé dans une seule et même interface spécialement conçue pour le travail de l’élève hors du temps scolaire ! Allez-y, cliquez sur 3ème puis Thalès, et vous serez bluffé par la qualité et la quantité du contenu proposé (et optimisé pour Internet). Et il en va de ce chapitre particulier comme de tous les autres chapitres de tous les niveaux du collège !

D’où évidemment la question suivante : mais pourquoi diable le ministère n’a-t-il pas fait appel à Sésamath pour collaborer sur la partie mathématique de l’académie en ligne ? Quel intérêt de laisser le CNED proposer seul dans son coin ces maigres ressources alors que l’on possède en son sein des enseignants aussi productifs ayant une solide expérience du « travailler ensemble » ?

Je n’ai pas la réponse à ce qui, vu de l’extérieur, est un pur mystère, voire un beau gaspillage d’énergie (cf le syndrome Not Invented Here). Tout au plus peut-on supputer que c’est lié à une question de gouvernance : une décision qui se prend seule en haut en désignant un unique interlocuteur bien identifié en bas pour exécuter la tâche (en l’occurrence le CNED). Peut-être aussi que l’absence de volonté de mettre en avant le logiciel libre à l’école ne favorise pas chez nos élites l’appropriation de sa culture, ses valeurs… dont la collaboration est l’un des piliers. L’Éducation nationale est une cathédrale et non un réseau social (et encore moins une communauté).

Toujours est-il qu’il y a tout de même un élément de réponse simple à la question. Tant que les mentions légales du projet d’académie en ligne resteront en l’état, il ne sera pas possible à un Sésamath de s’impliquer, pour la bonne raison que les licences sont totalement incompatibles.

Et n’allez pas croire que Sésamath est seul à bord du navire. Il en est certes à la proue mais derrière lui d’autres associations d’enseignants sont elles-aussi très actives et productives. Je pense notamment à Weblettres ou les Clionautes, qui respectivement en français et en histoire et géographie, font référence parmi les collègues. D’ailleurs ces trois association sont en partenariat autour du projet CapBrevet et on fait l’objet d’une sérieuse étude dans le n° 65 des Dossiers de l’ingénierie éducative consacré justement au travail collaboratif. Lecture chaudement recommandée, quand bien même on occulte un peu la question pourtant primordiale des licences, qui différencie, mais pour combien de temps encore, Sésamath de ses deux partenaires.

En tout cas, cela fait déjà pas mal de monde qui aurait pu participer au projet en le bonifiant de son savoir-faire. Ne nous privons pas de nos talents, conjuguons-les pour le plus grand bénéfices de nos élèves !

Quelques ombres planent : 2. Les éditeurs scolaires

Une autre éventuelle piste de réponse à la question précédente peut être recherchée du côté des éditeurs scolaires. J’avoue humblement être très peu au fait des relations entre ces éditeurs et le ministère, mais il y a fort à parier qu’on a voulu un tant soit peu les ménager ici.

Imaginez en effet la mise à disposition sous licence libre de ressources pédagogiques en collaboration réelle avec les enseignants et leurs associations, ouvertement accessibles sur des forges spécialement dédiées, pour toutes les disciplines et pour tous les niveaux ! Nul doute que cela finirait par impacter fortement le marché de l’édition scolaire (en fait cela irait beaucoup plus loin en impactant directement et durablement la manière même dont les enseignants, et même les élèves, travaillent).

Une telle éventualité signifierait à terme ni plus ni moins que la mort lente mais annoncée du système actuel. L’industrie du disque et leurs CD pressés ont, semble-t-il, aujourd’hui quelques « menus problèmes » avec l’avènement du numérique. Les éditeurs scolaires et leurs manuels scolaires imprimés auront à n’en pas douter des difficultés similaires demain. On connait l’histoire : soit on se rétracte en défendant le plus longtemps possible des positions et habitudes hérités du siècle dernier, soit on s’adapte en créant de nouveaux modèles et en associant étroitement ici les fans de musique et là les enseignants.

Mais ne prenons aucun risque et épargnons-nous cette crise potentielle. D’abord parce que ces ressources sont donc sous licence non libre (on pourrait dire « propriétaires » dans le langage des logiciels) mais aussi parce que, autant appeler un chat un chat, elles sont en l’état de piètre qualité. C’est à prendre tel quel ou à laisser, nous dit la licence. Et la piètre qualité achève notre choix. Le privé conserve son avantage, l’été sera chaud mais non incandescent.

On notera cependant qu’il n’y a pas que les éditeurs privés qui soient concernés. Une structure comme le CNDP dont le budget dépend pour beaucoup des ventes de son catalogue pédagogique (où à ma connaissance rien ou presque n’a encore été mis sous licence libre) peut également se voir contrariée voire contestée dans sa manière de fonctionner. Idem pour les traditionnels partenaires culturels de l’Éducation nationale. Pour le moment feignons de croire que le copyleft n’existe pas et qu’il n’y a de ressources que les ressources fermées soumises aux droits d’auteur d’avant l’Internet. Et rassurons les partenaires en payant plusieurs fois et pour des durées limitées l’accès à ces ressources.

Quelques ombres planent : 3. Le boum des ressources éducatives libres

Licences fermées, professeurs peu impliqués et éditeurs confortés dans leur immobilisme… tout ceci ne devrait pas tenir longtemps parce que par delà nos frontières c’est la pleine effervescence autour de ce que l’on appelle les ressources éducatives libres. Et c’est bien plus qu’une ombre qui plane, c’est une véritable mutation qui s’annonce.

De quoi s’agit-il exactement ? En creux (académie en ligne) ou en plein (Sésamath), nous en parlons en fait implicitement depuis le début de cet article. Difficile pour l’heure d’en donner une définition précise, tant le concept est nouveau et en mouvement, mais on peut voir ces ressources éducatives libres comme une tentative de transposition des principes fondamentaux du logiciel libre. Usage, copie, modification et distribution (sans entrave et sans discrimination), ces principes garantissent un certain nombre de libertés aux utilisateurs tout en favorisant l’échange, le partage et l’amélioration collective du logiciel. Cela présuppose que le logiciel soit placé sous une licence libre qui légitime et explicite ces droits. Et c’est pourquoi nous insistons tant sur le choix ou non d’une telle licence.

À partir de là, voici la définition qu’en donne actuellement Wikipédia : « l’expression Ressources Éducatives Libres (REL) désigne un mouvement mondial initié par des fondations, universités, enseignants et pédagogues visant à créer et distribuer via internet des ressources éducatives (cours, manuels, logiciels éducatifs, etc.) libres et gratuites ».

Pour aller plus loin je vous invite à lire la Déclaration de Dakar sur les Ressources Educatives Libres adoptée le 5 mars 2009 au cours du Campus numérique francophone de Dakar, évènement organisé à l’initiative du Bureau Régional pour l’Education en Afrique de UNESCO, de l’Organisation Internationale de la Francophonie (OIF), et de l’Agence universitaire de la Francophonie (AUF). On pourra également parcourir la traduction française de ce document de l’UNESCO : Open Educational Resources: the Way Forward.

Mais dans ce domaine ce sont clairement les anglophones qui ont une bonne longueur d’avance, l’expression ressources éducatives libres n’étant d’ailleurs à la base qu’une traduction de Open Educational Ressources (ou OER). Chez eux la réflexion est menée depuis longtemps et les initiatives se multiplient : les pionniers de l’OpenCourseWare au MIT, OER Commons, OpenCourseWare Consortium, Teachers without Borders, The Cape Town Open Education Declaration, Open Education and Mozilla, WikiEducator (auteur de l’OER Handbook for Educators que l’on ne désespère pas de traduire un jour), les projets de manuels scolaires libres dans le secondaire comme en Californie, et Wikiversity (dont le fort intéressant cours Composing free and open online educational resources) pour ne citer que ceux-là.

Mesurons-nous en effet pleinement les conséquences de l’accessibilité complète sur Internet de telle ressources, comme par exemple ce cours de Programming Methodology dans la cadre d’un cursus informatique donné à la prestigieuse université de Standford ? Et, attention, on parle bien ici d’accessibilité complète. Pour chaque séquence vous avez la vidéo (sous différents formats : YouTube, iTunes, format natif mp4 distribué en torrent via le réseau… P2P !) et sa transcription (au format PDF mais aussi html), des exercices et des annales (et leurs corrections), ainsi que des logiciels à télécharger, des notes et des références bibliographiques. C’est très impressionnant et le tout est proposé sous la licence libre Creative Commons By (cf Les licences Creative Commons expliquées aux élèves), signifiant par là-même que du moment que vous conservez et respectez la paternité du travail, vous pouvez, de n’importe quel point du globe, utiliser, télécharger, copier, modifier, distribuer et même en faire commerce !

À comparer avec ce que propose l’académie en ligne, qui à peine née semble déjà quelque part obsolète ! Avec ce projet, le ministère avait une occasion rêvée de s’inscrire enfin dans cette dynamique. Force est de constater qu’il ne l’a pas saisie. La France institutionnelle prend un retard qu’il lui sera difficile par la suite de combler.

Un discours qui se voulait moderne

À la lumière de ce que nous venons d’exposer, je vous laisse apprécier le discours de presse du ministre prononcé lors du lancement du projet (et dont la lecture a motivé ce billet).

Morceaux choisis.

Pourquoi cette décision ? Parce que dans une société qui s’enorgueillit à juste raison d’avoir bâti une école gratuite, laïque et obligatoire, je ne me résous pas à ce que l’accès au savoir et la réussite scolaire puissent devenir peu à peu une affaire de moyens, de relations ou de circonstances.

Pour ma part, je ne me résous pas à ce que cet accès au savoir se fasse dans ces conditions. Et j’ai parfois l’impression que la situation du Libre à l’école est un peu « affaire de moyens, de relations ou de circonstances ».

Je connais des enfants qui occupent leurs vacances comme ils le peuvent, tandis que d’autres, du même âge, passent de livrets de révision en stages de soutien payants, accentuant ainsi l’écart avec les autres élèves.

Ces situations, ces besoins, nous les connaissons tous et pourtant nous laissons à d’autres le soin d’y répondre. À l’heure où les technologies de l’information et de la communication mettent le savoir à la portée de tous, tout le temps et partout, l’école a pourtant une opportunité extraordinaire de rappeler sa capacité à transmettre des connaissances à partir de ressources précises, fiables, hiérarchisées selon une logique cohérente.

L’opportunité est en effet extraordinaire de « mettre le savoir à la portée de tous, tout le temps et partout ». Mais pourquoi ne pas être allé au bout de la démarche ? Est-ce que le CNED est la seule entité capable de produire « des connaissances à partir de ressources précises, fiables, hiérarchisées selon une logique cohérente » ?

Pour autant cette académie en ligne est bien plus qu’un service supplémentaire offert aux élèves et à leurs familles. Car si nous parlons de 31e académie, c’est bien qu’il s’agit d’une véritable mutation dans notre ministère.

L’Éducation nationale est divisée en académies. Affirmer que l’on jette ainsi la première pierre à une 31e académie donne la mesure de l’ambition. Mais la véritable mutation aura-t-elle lieu ?

Cette académie en ligne est une aide non seulement pour les élèves, mais aussi pour les parents qui veulent accompagner leurs enfants, pour les professeurs désireux de trouver des ressources pédagogiques, et même pour les adultes qui souhaitent reprendre des études. Plus largement, je souhaite que cet outil contribue au rayonnement de la langue française et à la diffusion de nos contenus éducatifs dans les pays francophones, notamment dans certains pays d’Afrique, où les enseignants qui le désirent pourront trouver gratuitement des ressources de qualité pour leurs élèves.

Quand le paradoxe frise la contradiction. Au risque de nous répéter, comment voulez-vous que les professeurs s’y retrouvent si on leur interdit la moindre modification ? Quant aux pays d’Afrique, ils apprécieront de ne pouvoir distribuer les ressources en direction des populations non connectées à Internet. Impliquons-les! Qu’ils soient avec nous acteurs du contenu plutôt que simples spectateurs bridés, le « rayonnement de la langue française » ne s’en portera que mieux.

Le mot « gratuit » est prononcé cinq fois dans le discours. Il est tant de d’affirmer clairement (et péremptoirement) notre position : l’académie en ligne ne doit pas être gratuite, elle doit être libre. Il se trouve qu’en étant libre elle sera effectivement disponible gratuitement, mais ça n’en sera qu’une conséquence. Et n’oublions pas d’ailleurs, comme cela a déjà été dit, que derrière ces ressources il y a ici des enseignants du CNED payés sur leur temps de travail pour les produire (aux frais du contribuable, ce qui n’est pas gratuit).

Les libertés d’utiliser, de copier, de modifier et de distribuer des ressources éducatives, sur des formats ouverts et lisibles par des logiciels libres, ne sont-elles pas ici plus fondamentales que la gratuité, a fortiori dans le domaine éducatif ?

Et le ministre de surenchérir, dans sa lettre aux parents cette fois (qui fait également l’objet d’une vidéo) :

Naturellement, ces ressources seront accessibles gratuitement, conformément aux principes fondamentaux de l’école républicaine.

Substituons « librement » à « gratuitement », et c’est d’un coup l’horizon des possibles qui s’élargit, tout en étant certainement plus proche de ces fameux principes républicains. Le jour où un ministre de l’Éducation Nationale dira que « naturellement, ces ressources seront accessibles librement » alors les lignes auront bougé.

Avec ses 55 000 écoles primaires, ses 5 000 collèges et ses 2 600 lycées, l’Éducation nationale constitue le premier réseau physique d’accès au savoir en France. Je veux faire en sorte qu’elle devienne aussi le premier réseau numérique de diffusion des connaissances.

A l’heure où de grands moteurs de recherche scannent et mettent à la disposition du public des fonds entiers de bibliothèques, il me semble que la diffusion d’une offre complète et gratuite de contenus d’enseignement est de nature à faire du service public d’éducation un acteur puissant du monde de l’Internet.

On a raison de s’inquiéter de l’emprise de Google. Mais est-ce ainsi que l’on construit « le premier réseau numérique de diffusion des connaissances » capable lui faire concurrence ?

La suite du discours est du même acabit, si ce n’est qu’elle est révélatrice d’une certaine confusion vis-à-vis de la modernité.

Renforcer la présence du ministère de l’Éducation nationale sur Internet, c’est aussi repenser totalement nos modes de communication sur ce média. (…) Nous avons donc voulu à la fois rénover nos sites institutionnels et diversifier nos formats de communication, en donnant une part plus importante aux nouveaux médias présents sur Internet : Dailymotion, Twitter, Facebook sont de nouveaux outils qui permettent de toucher des publics qui ne fréquentaient pas spontanément nos sites institutionnels, notamment des publics plus jeunes et moins spécialisés dans les questions éducatives. (…) Nous avons aussi ouvert le compte Twitter Education France, qui informe les abonnés des sujets d’actualité immédiate du ministère. Je veux que l’Éducation nationale soit partie prenante de ce qu’on appelle le « web 2.0 », le web participatif.

Les expressions marketing sont lâchées… On met les guillemets au web 2.0 mais pas au web participatif. Comme si nous étions tous d’accord sur le sens accordé.

Je ne vois pas en quoi placer quelques vidéos sur Dailymotion (avec commentaires désactivés !) et communiquer via ces nouveaux canaux que sont Facebook et Twitter procèdent de la participation (ce sont tous en outre des services privés reposant sur des logiciels propriétaires susceptibles de poser quelques problèmes vis-à-vis de la protection des données personnelles). De ce point de vue là, l’actuelle Consultation publique sur l’Internet du futur, avec son bon vieux formulaire à remplir, est bien plus participative à mes yeux (si, contrairement au forum de la mission E-educ, on prend réellement en compte les contributions).

Ce qui est sûr c’est qu’en plus de ses ressources « verrouillées », l’académie en ligne version juin 2009 n’est en rien participative. Aucun espace pour y laisser la moindre trace, pas même une page de contact !

Ce ministère a trop souvent été raillé pour son conservatisme, je veux à présent faire en sorte qu’il soit loué pour sa modernité.

Nous attendrons encore un peu.

N’ayez pas peur

La conclusion du discours ouvre cependant une fenêtre d’espoir.

Mesdames et messieurs les journalistes (…) vous pouvez constater que c’est une stratégie globale que nous mettons en place pour faire participer le ministère de l’Éducation nationale aux évolutions de son temps.

A travers ces nouveaux outils, dont l’académie en ligne est un exemple, je veux permettre au plus grand nombre d’accéder librement et dans les délais les plus courts à la totalité de l’offre et de l’actualité éducative. Ce n’est que le début d’un chantier immense, que je veux poursuivre avec de nouveaux services que nous proposerons aux enseignants et qui seront à l’étude à partir de la rentrée prochaine.

Pour la première fois en effet on a troqué la gratuité pour la liberté. Ayant conscience de l’ampleur de la tâche, on nous dit aussi que l’on souhaite proposer de « nouveaux services » aux enseignants.

Il est encore temps de rectifier le tir (la présence d’un nouveau ministre étant d’ailleurs un facteur favorable). Le diagnostic est bon, le remède beaucoup moins. Oublions les Facebook, Twitter, Dailymotion et autres gadgets de communication légèrement hors-sujet par rapport aux réels enjeux. Et osons faire passer l’académie en ligne du mode « lecture seul » au mode « lecture / écriture ensemble ». Car le plus grand service que l’on puisse rendre présentement aux enseignants est d’inscrire ce projet dans le cadre des ressources éducatives libres.

Il s’agirait alors bien sûr d’une véritable petite « révolution culturelle » au sein du ministère, nécessitant de repenser, parfois en profondeur, les relations entre l’institution et les différents acteurs du monde éducatif. Mais pourquoi attendre (puisque c’est inéluctable) ? Sauf à vouloir aller contre les objectifs même de ce projet, cette décision, certes courageuse mais pleine de bon sens, serait alors réellement à même de faire « participer le ministère de l’Éducation nationale aux évolutions de son temps ».

Dans le cas contraire, regarder passer le train des ressources éducatives libres constituerait selon nous une triple erreur : historique, politique et par dessus tout pédagogique.

Notes

[1] Crédit photo : Dustpuppy (Creative Commons By)




Largage de liens en vrac #19

Silvio Tanaka - CC byCe n’est pas parce que les vacances approchent qu’il faut arrêter de farfouiller le Web à la recherche d’actualités logicielles intéressantes (ou supposées intéressantes).

Voici donc une sélection qui contrairement à beaucoup d’entre vous est loin d’être au régime.

Et n’oubliez jamais que « ebony and ivory live together in perfect harmony »[1].

  • Jake : Une application ambitieuse de synchronisation de documents (via le protocole XMPP). Le about tente d’expliquer en quoi c’est différent mais proche de SVN, CS, Git, Google Docs, Dropbox… (en gros la principale différence c’est qu’il n’y a plus de serveur central). I’m waiting for you dans les commentaires pour nous en dire plus (et mieux !).
  • Open Atrium : Basé sur Drupal, un ambitieux projet de « groupware réseau social ». Si vous connaissez, n’hésitez pas à partagez votre avis avec nous !
  • Hawkscope : Pour tout OS, une manière rapide d’accèder à votre disque dur via des menus popup dynamiques (en plus on peut paramétrer ses comptes Gmail, Delicious, Twitter, etc.).
  • Sugar on a stick : Sugar, l’interface de l’OLPC pensée pour l’éducation (théorie constructiviste) propose désormais une version portable. Ce qui fait dire à Technology Review que le PC à 100$ est aujourd’hui devenu une clé à 5$ !
  • MegaZine 3 : C’est encore du Flash mais ça pourra en intéresser quelques uns : c’est un logiciel de… pageflip ! Vous ne savez pas ce que c’est ? Moi non plus, enfin si cela permet de lire « agréablement » des livres ou des documents en ouvrant une fenêtre sur votre navigateur.
  • Open Melody : Un peu pris de vitesse par WordPress, le moteur de blog Movable Type libère lui aussi son code pour créer une communauté et plus si affinités.
  • TinyMCE : Peut-être le plus élégant (et le plus riche) des éditeur JavaScript WYSIWYG.
  • lilURL : Le clone libre de TinyURL (vous savez, ces réducteurs d’URL revenus sur le devant de la scène avec Twitter).
  • Open Source Designers : Un réseau social (Ning) de designers Open Source. Pas idiot de se regrouper ainsi.
  • Open Humanity : Nous aurons l’occasion d’en reparler. Pour le moment contentons-nous de ce résumé de Scoffoni : Open Humanity se situe « à mi-chemin entre un réseau social et un webOS ».
  • KeynoteTweet : Permet d’envoyer des tweets à partir du logiciel Apple Keynote dont les geeks se servent beaucoup en conférence. Vous arrivez au slide 23 et un message twitter est automatiquement envoyé à vos followers.
  • GDocBackup  : Utilise la techno Microsoft .NET mais c’est bien pratique si vous avec un compte Google Docs puisque cela permet de rapatrier sur votre disque dur tous vos fichiers d’un coup (typiquement le genre de fonctionnalités que Google ne propose pas exprès !)
  • The Pencil Project : C’est plus qu’une extension Firefox, c’est une véritable application intégrée pour faire des diagrammes et des prototypes d’interfaces utilisateur.. Là encore retours commentaires appréciés.
  • VideoSurf Videos at a Glance : Une extension Firefox plutôt pratique puisque cela permet de prévoir le contenu d’une vidéo (YouTube & co) à l’aide d’images fixes découpant la vidéo. Faut l’expérimenter pour mieux comprendre en fait !
  • Nuke Anything Enhanced : Et encore une extension Firefox, mais non des moindres ! Permet en effet de cacher temporairement ou durablement n’importe quel partie d’une page web. Ainsi par exemple je peux virer tout ce qui ne m’intéresse pas, pubs et autres, avant impression (cf vidéo démo sur LifeHacker).
  • Collections : Je ne connaissais pas (shame on me). Permet de compiler dans un seul pack tout plein d’extensions Firefox à installer d’un seul coup (top pratique surtout lorsque l’on change d’ordinateur). On vous explique ici comment faire. Des volontaires pour que Framasoft participe et vous propose aussi ses propres sélections ?
  • Recording music with Linux on an EEE PC : Toujours avec l’Eee Pc, que l’on transforme ici en parfait système pour la prise de son (par exemple pour partir jouer les reporter radio en herbe).
  • YouTube / Ogg/Theora comparison : YouTube va-t-il passer à Ogg Theora pour encoder ses videos (comme Dailymotion l’expériemente) ? Peut-être pas mais en attendant une petite comparaison qualité s’impose.
  • Library à la Carte : Joli titre et interface sexy. Un logiciel pour les bibliothécaires et les documentalistes. D’ailleurs si l’un d’entre vous passe par là…

Notes

[1] Crédit photo : Silvio Tanaka (Creative Commons By)