La guerre du Web, par Tim O’Reilly

Phault - CC byUn article majeur de l’un des gourous de la Toile, qui met le doigt là où ça peut faire bientôt très mal.

Hubert Guillaud, nous le présente ainsi sur l’agrégateur Aaaliens :

« Tim O’Reilly revient sur la guerre du Web : entre Facebook qui ne transforme par les liens en hyperliens, Apple qui rejette certaines applications menaçant son coeur de métier… Tim O’reilly répète depuis longtemps qu’il y a deux modèles de systèmes d’exploitation de l’Internet : celui de « l’anneau pour les gouverner tous » et celui des « petites pièces jointes de manières lâche », le modèle Microsoft et le modèle Linux.

Allons-nous vers le prolongement du modèle du Web interopérable ? Ou nous dirigeons-nous vers une guerre pour le contrôle du Web ? Une guerre des plateformes (Google, Apple, Facebook…) ? Il est temps pour les développeurs de prendre position : si l’on ne veut pas rejouer la guerre des PC ou celle des navigateurs, il faut prendre fait et cause maintenant pour les systèmes ouverts ! »

La guerre du Web aura-t-elle lieu ?[1] La réponse dépend aussi de la capacité qu’aura « la communauté du Libre » à diffuser et défendre ses valeurs et ses idées.

On notera au passage un étonnante prédiction finale sur Microsoft, notre futur allié de circonstance !

La guerre du Web

The War For the Web

Tim O’Reilly – 16 novembre 2009 – O’Reilly Radar
(Traduction Framalang : Olivier Rosseler et Goofy)

Vendredi dernier, mon dernier message sur Twitter a également été publié automatiquement sur Facebook, comme d’habitude. À un détail près : le lien que contenait le message n’était plus actif, comme l’a remarqué Tom Scoville.

En fait, il est loin d’être le seul à l’avoir remarqué. Dès samedi matin, Mashable publiait un article à ce sujet : Facebook retire vos liens Twitter.

Si vous publiez des liens Web (Bit.ly, TinyURL) sur votre compte Twitter et que par le biais d’une application Twitter-Facebook vous les partagez également sur Facebook, ils perdent leur caractère d’hyperliens. Vos amis devront copier et coller l’adresse dans leur navigateur pour qu’ils fonctionnent.

Si Facebook tente d’améliorer son ergonomie, c’est une curieuse décision : il vaudrait mieux que ça soit juste un bogue, nous avons donc contacté Facebook pour en savoir plus. Toujours est-il que tout le site est affecté, et pas seulement vous.

Il se trouve que ce ne sont pas uniquement les liens postés depuis Twitter qui étaient affectés. Tous les liens externes ont été temporairement désactivés si les utilisateurs ne les avaient pas clairement ajoutés avec la fonction « Joindre ». Sur Facebook j’ai essayé de poster un lien direct vers ce blog dans mes nouveautés, mais le résultat est le même : les liens n’étaient plus automatiquement cliquables. Le premier lien de cet article renvoie à une image illustrant ma tentative.

Le problème a été rapidement résolu, les liens apparaissent à nouveau cliquables. On a dit que c’était un bogue, mais certains mettent évidemment cette explication en doute, surtout compte tenu des efforts de plus en plus visibles de Facebook pour prévenir les gens qu’ils quittent Facebook pour se rendre sur le grand méchant Internet.

Tout cela part d’un bon sentiment, je n’en doute pas. Après tout, Facebook met en place un meilleur contrôle de la vie privée, pour que les utilisateurs puissent mieux gérer la visibilité de leurs informations et la visibilité universelle qui fait loi sur le Web n’est pas forcément la mieux adaptée aux informations postées sur Facebook. Mais ne nous voilons pas la face : Facebook est un nouveau type de site Web (ou une ancienne version largement reliftée), un monde à part, avec ses propres règles.

Mais ça ne concerne pas que Facebook.

L’iPhone d’Apple est l’appareil connecté le plus à la mode et, comme Facebook, même s’il est connecté au Web, il joue avec ses propres règles. N’importe qui peut créer un site Web ou offrir une nouvelle application pour Windows, Mac OS X ou Linux, sans demander la permission à qui que ce soit. Vous voulez publier une application pour iPhone ? Il vous faudra obtenir l’approbation d’Apple.

Mais il y a une lacune flagrante : n’importe qui peut créer une application Web et les utilisateurs peuvent y accéder depuis leur téléphone. Mais ces applications connaissent des limitations : toutes les fonctionnalités du téléphone ne leur sont pas accessibles. HTML5 aura beau innover autant qu’il veut, les fonctionnalités principales du téléphone resteront hors de portée de ces applications sans la permission d’Apple. Et si l’on s’en réfère à l’interdiction de Google Voice sur iPhone il y a quelques temps, Apple n’hésite pas à interdire les applications qui menacent leur cœur d’activité et celui de ses partenaires.

Et ce n’est pas tout, une autre salve a été tirée contre les règles tacites d’interopérabilité du Web : Rupert Murdoch menace de retirer le Wall Street Journal de l’index de Google. Même si, de l’avis général, ce serait du suicide pour le journal, des voix contraires s’élèvent pour insister sur l’influence qu’à Murdoch. Pour Mark Cuban, Twitter a maintenant dépassé les moteurs de recherche pour ce qui est des informations en temps réel. Jason Calacanis va même plus loin, quelques semaines avant les menaces de Murdoch, il suggérait déjà que pour porter un gros coup à Google il faudrait que tous les groupes de radio/presse/télévision devraient bloquer Google et négocier un accord d’exclusivité avec Bing pour ne plus apparaître que dans l’index de Microsoft.

Évidemment, Google n’encaisserait pas sans broncher et signerait également des accords de son côté, on assisterait alors à une confrontation qui ferait passer la guerre des navigateurs des années 90 pour une petite bagarre de cours d’école.

Je ne suis pas en train de dire que News Corp et les autres groupes d’information devraient adopter la stratégie prônée par Jason, ni même qu’elle fonctionnerait, mais je vois une se profiler une période de concurrence meurtrière qui pourrait être très néfaste à l’interopérabilité du Web telle que nous la connaissons aujourd’hui.

Si vous suivez mes commentaires sur le Web 2.0 depuis le début, vous savez que je pense que nous sommes engagés dans un projet à long terme dont la finalité est le système d’exploitation Internet (jetez un œil au programme de la O’Reilly Emerging Technology Conference de 2002 (pdf)). Je soutiens depuis des années qu’il y a deux modèles de systèmes d’exploitation, que je décris comme "Un anneau pour les gouverner tous" et "Des petits morceaux faiblement coordonnés", ce dernier étant illustré par une carte d’Internet.

Dans le premier : malheur au vaincu, c’est le monde que nous avons connu avec Microsoft Windows et le PC, un monde où priment la simplicité et l’accessibilité, mais où le choix de l’utilisateur et du développeur sont réduits au bon vouloir du fournisseur de système d’exploitation.

Le second est une système d’exploitation qui fonctionne comme Internet lui-même, comme le Web et comme les systèmes d’exploitation Open Source comme Linux : un monde certes moins raffiné, moins contrôlé, mais un monde qui est par essence novateur car chacun peut apporter ses idées sans avoir à demander la permission à qui que ce soit.

J’ai déjà expliqué les tentatives des grands pontes comme Facebook, Apple et News Corp de grignoter le modèle « des petits morceaux faiblement coordonnés » de l’Internet. Mais peut-être que le plus grand danger réside dans les monopoles qu’a engendré l’effet réseau du Web 2.0.

Je ne cesse de répéter, à propos du Web 2.0, qu’il s’appuie sur un système auto-entretenu : plus il y a d’utilisateurs, plus l’expérience est intéressante. C’est un système qui tend naturellement vers des monopoles.

Nous nous sommes donc habitués à un monde où un seul moteur de recherche domine, où une seule encyclopédie en ligne domine, un seul cyber-marchand, un seul site d’enchères, un seul site de petites annonces dominent, et nous avons été préparés à un monde où un seul réseau social dominera.

Mais qu’advient-il lorsqu’une de ces entreprises, profitant de son monopole naturel, tente de dominer une activité connexe ? C’est avec admiration et inquiétude que j’ai observé Google utiliser sa mainmise sur la recherche pour tenter d’étendre son emprise sur d’autres activités concentrées sur les données. Le service qui m’a mis la puce à l’oreille était la reconnaissance vocale, mais c’est vraiment les services de géolocalisation qui ont eu le plus gros impact.

Il y a de cela quelques semaines, Google a lancé une application de navigation GPS gratuite pour les téléphones Android. Pour les clients c’est génial puisque auparavant ils devaient opter pour un GPS dédié ou des applications pour iPhone hors de prix. Mais il faut aussi y voir la compétitivité que le Web a acquise et la puissance que Google a gagnée en comprenant que les données sont le nouveau "Intel Inside" de la nouvelle génération d’applications pour ordinateurs.

Nokia a allongé 8 milliards de dollars pour NavTeq, leader de la navigation routière. Le fabricant de GPS TomTom a quant à lui payé 3,7 milliards de dollars pour TeleAtlas, numéro deux du secteur. Google développe un service équivalent dans son coin pour finalement l’offrir gratuitement… mais à ses seuls partenaires. Tous les autres doivent encore payer de lourdes redevances à NavTeq et TeleAtlas. Google va même plus loin puisqu’il y ajoute ses propres services, comme Street View.

Mais surtout, les camps sont maintenant bien établis entre Apple et Google (ne ratez pas l’analyse de Bill Gurley à ce sujet). Apple domine l’accès au Web mobile avec son appareil, Google contrôle l’accès à l’une des applications mobiles les plus importantes et limite son accès gratuit aux seuls terminaux Android pour l’instant. Google ne fait pas des merveilles que dans le domaine de la recherche, mais aussi en cartographie, en reconnaissance vocale, en traduction automatique et dans d’autres domaines adossés à des bases de données intelligentes phénoménales que seuls quelques fournisseurs peuvent s’offrir. Microsoft et Nokia disposent également de ces atouts, mais eux aussi sont en concurrence directe avec Apple et, contrairement à Google, leur économie repose sur la monétisation de ces atouts, pas sur la gratuité du service.

Il se peut qu’ils trouvent un moyen de co-exister pacifiquement, et dans ce cas nous pourrions continuer à jouir du Web interopérable que nous connaissons depuis deux décennies. Mais je parierais plutôt sur l’effusion de sang. Nous sommes à la veille d’une guerre pour le contrôle du Web. Au fond, c’est même plus que ça, c’est une guerre contre le Web en tant que plateforme interopérable. Nous nous dirigeons plutôt vers la plateforme Facebook, la plateforme Apple, la plateforme Google, la plateforme Amazon, les grandes entreprises s’étripant jusqu’à ce qu’il n’en reste plus qu’une.

C’est maintenant au développeur de s’affirmer. Si vous ne voulez pas voir l’histoire se répéter comme pour les PC, pariez sur les systèmes ouverts. N’attendez pas qu’il soit trop tard.

PS : Une prédiction : Microsoft sera le grand défenseur du Web ouvert, encourageant l’interopérabilité des services Web, tout comme IBM est devenu l’entreprise soutenant le plus Linux.

Je parlerai de ce sujet lors de mon discours d’introduction à la Web 2.0 Expo à New York mardi. J’espère vous y rencontrer.

Notes

[1] Crédit photo : Phault (Creative Commons By)




MiMOOo ou la migration OpenOffice.org de l’administration publique en questions

MimOOo Box« MiMOOo » vous connaissiez ? Nous non plus ! Cherchons alors ensemble à en savoir davantage, parce que cela en vaut la peine…

MiMOOo est l’acronyme de ce qui se présente comme un beau projet institutionnel français signifiant Mutualisation interMinistérielle pour OpenOffice.org.

Laissons une Sophie Gautier enthousiaste nous le présenter plus avant sur son blog : « MiMOOo ou quand l’administration s’organise comme l’open source ! Ce groupe de travail interministériel a mis en place une véritable stratégie de migration à OOo. Depuis un peu plus d’un an, les différents ministères se rencontrent régulièrement pour définir des statégies communes, partager outils et problématiques. S’inspirant des techniques de mise en commun des projets de développement, MiMOOo a ainsi optimisé sa migration à travers le partage des expériences et des savoirs ».

Cette citation date d’avril 2007. On peut donc en déduire que Mimoo existe depuis au moins avril 2006, c’est-à-dire depuis un certain temps déjà.

Hypothèse corroborée par cette dépêche tout aussi enthousiaste de LinuxFr du mois de septembre 2006, titrée La plus grosse migration OpenOffice.org au monde : 400 000 postes dans l’administration française, et ainsi présentée : « Courant 2007, l’administration centrale française (essentiellement les ministères) va voir 400 000 de ses postes informatiques migrer vers la suite bureautique OpenOffice.org et le format ouvert OpenDocument, ce qui constitue actuellement la plus grosse migration vers OpenOffice.org au monde. Le groupe de travail interministériel responsable de ce déploiement met à disposition des administrations de nombreux outils : cédérom interministériel d’installation d’OpenOffice.org[1], mallette pédagogique, formation en ligne, pack de communication, outils d’accompagnement, mémentos, guide, etc. »

On retrouve donc notre groupe de travail interministériel. Mais problème : les deux principaux liens proposés par la dépêche (Le programme de migration et Communauté assistance OpenOffice.org) sont aujourd’hui inaccessibles.

MiMOOo en (toute) discrétion

Parce qu’il se trouve justement que malgré son bel âge nous ne disposons aujourd’hui que de trop rares et déjà anciennes informations publiques sur le projet.

Il ne subsiste en effet aujourd’hui qu’un petit encart dans une brochure sur la modernisation de l’État (page 2 – avril 2007), mais surtout cet article de présentation, sur le site gouvernemental des Ateliers de la modernisation, dont le titre interpelle par son optimisme (alors que la dernière mise à jour date de septembre 2006) : Poste de travail : les clés d’un projet réussi.

Article qui vient confirmer les informations précédentes avec des citations comme : « Le projet de par sa nature induisait une démarche de mutualisation. En effet, la notion de logiciel libre est étroitement liée à un idée de partage des ressources, des connaissances : un état d’esprit qui se prête au travail collaboratif. »

Et depuis plus rien. Point de bilan et perspectives à l’instant t et aucune trace des « cédérom interministériel d’installation, mallette pédagogique, formation en ligne, pack de communication, outils d’accompagnement, mémentos, guide, etc. ».

Alors, trois ans plus tard, où en sommes-nous ? Telle est la légitime question qui en appelle plusieurs autres dans le détail.

Cette absence d’informations publiques signifie-t-elle qu’à ce jour le groupe hiberne et que la migration OpenOffice.org est au point mort dans l’administration publique ?

Assurément non. Elle signifie simplement que nous les administrés ne sommes pas en mesure d’évaluer les avancées du projet. Elle signifie également que nous ne pouvons profiter des documents produits pour l’occasion sur OpenOffice.org, rétention dont nous ne sommes pas habitués lorsqu’il s’agit de logiciel libre. Elle signifie enfin que la collaboration avec la communauté francophone d’OpenOffice.org a dû être si ce n’est nulle tout du moins fortement limitée.

MiMOOo en réunion

Nous pouvons de plus affirmer que MiMOOo est une cellule toujours active.

En effet nous savons, de « source autorisée », que le groupe s’est réuni le 19 mai dernier. Lors de cette réunion, étaient présents des représentants des ministères suivants :

  • Le ministère de l’Économie et du Budget
  • Le ministère de l’Intérieur
  • Le ministère de la Justice
  • Le ministère de l’Alimentation, de l’Agriculture et de la Pêche
  • Le ministère de l’Écologie, de l’Énergie, du Développement durable et de la Mer
  • La Gendarmerie Nationale
  • Les services du Premier ministre
  • La Caisse nationale des allocations familiales
  • L’Assemblée Nationale
  • L’École nationale d’administration

On remarquera quelques grands absents, à commencer par le ministère de… l’Éducation nationale ! On aurait pu s’attendre en effet à ce que ce ministère y siège en bonne place et y envoie un représentant compétent en la matière, ce dont la maison ne manque pas.

MiMOOo en question(s)

À partir de là, voici une liste non exhaustive de quelques questions que nous aimerions poser avant tout au groupe de travail MiMOOo, mais également à l’Éducation nationale, en passant par le personnel administratif et l’équipe francophone d’OpenOffice.org,

N’y voyez surtout pas un nouvel avatar de « la dictature d’Internet » qui souhaite mettre son nez partout. Et nous comprenons fort bien que certaines informations n’aient pas vocation ni intérêt à être diffusées publiquement. Nous, simples citoyens (et contribuables) en appelons juste à plus de transparence, puisque ce projet concerne l’administration publique en route vers une migration massive en logiciel libre et format ouvert.

Questions à MiMOOo
  • Quelle est la composition de ce groupe et sa gouvernance ? De quel département ce groupe est-il l’émanation ?
  • Quelles sont ses prérogatives ? Est-il uniquement consultatif ? Est-il décisionnel au niveau des plans d’équipement et/ou de formation ?
  • Qui sont les destinataires de ses conclusions ?
  • Qui contacter pour obtenir des renseignements sur les travaux de ce groupe ?
  • Y a-t-il eu d’autres réunions depuis ? Quelle est la fréquence de ces réunions ?
  • Pourquoi MiMOOo ne publie-t-il pas ses comptes rendus et ses débats en ligne ?
  • Qu’en est-il aujourd’hui de cet ambitieux objectif de 400 000 postes sous OpenOffice.org affiché en 2006 ?
  • Concerne-t-il toutes les administrations ou bien uniquement celles présentes à la réunion ?
  • Qu’en est-il aujourd’hui de cette autre volonté affichée en 2006, celle de « migrer vers le format OpenDocument » ?
  • MiMOOo a-t-il eu, ou tenté d’avoir, une influence quelconque dans l’élaboration de la toute récente nouvelle version du Référentiel général d’interopérabilité qui, d’après l’April, « sème la confusion en préconisant deux formats bureautiques concurrents » ? (cf le communiqué de l’April : RGI : le cadeau de François Fillon à Microsoft)
  • Pourquoi un certain nombre de ressources créées en interne ne seraient-elles pas rendues publiques si elles sont susceptibles de profiter à toute la communauté ?
Question au personnel des ministères
  • Avez-vous vu passer MiMOOo dans votre service ? Si oui, dans quelles conditions (formation, accompagnement, documentation…) ?
  • Faites-vous partie des 400 000 postes qui ont migré vers OpenOffice.org ?
Questions à l’Éducation nationale
  • Qui est le représentant MiMOOo du ministère de l’Éducation Nationale ? Comment le contacter ?
  • De quels mandats ce représentant a-t-il été chargé par son ministère de tutelle ?
  • Fait-on une distinction entre la migration de l’informatique pédagogique (les postes des élèves et des enseignants) et la migration de l’informatique administrative (les postes de la direction, de l’intendance, etc.) ?
  • L’absence remarquée à la réunion du 19 mai est-elle ponctuelle ou permanente ?
Questions à OpenOffice.org
  • Quelle relation le projet francophone OpenOffice.org entretien-t-il avec MiMOOo ?
  • Le projet francophone OpenOffice.org offre-t-il assistance et expertise à MiMOOo ? Intervient-il dans les réunions, les formations ?
  • En retour, MiMOOo (que l’on peut assimiler ici à un « grand compte public ») fait-il remonter les remarques, avis, critiques, problèmes rencontrés lors du déploiement ? Donne-t-il accès aux ressources évoquées ?
Question à la cantonade
  • Est-il normal qu’une structure telle que MiMOOo, pour rappel composée exclusivement de fonctionnaires, soit si discrète dans son action, sa communication et la diffusion de ses ressources créées en interne ?

En espérant, sait-on jamais, que tout ou partie des questions trouveront réponse dans les commentaires. Parce que « la plus grosse migration OpenOffice.org au monde » mérite certainement plus que cela, c’est-à-dire pour le moment une seule page Web mise à disposition.

Edit du 16 novembre : 24h après la mise en ligne de ce billet est apparu un article MiMOOo sur Wikipédia qui répond à bon nombre des questions ! Merci pour cette excellente et originale initiative.

Notes

[1] C’est l’image virtuelle de la boîte de ce cédérom qui sert d’illustration à ce billet.




La libération du savoir est un travail de fourmis

AntWeb - CC by-saUn peu de storytelling aujourd’hui sur le Framablog, avec cette histoire de fourmis qui n’avaient pas d’images dans Wikipédia.

Nous le savons, l’encyclopédie libre est très certainement l’une des plus belles aventures humaines jamais imaginées.

Mais son influence est telle qu’elle a aujourd’hui également la capacité d’influencer directement ou indirectement la politique de licences des contenus produits par les organismes publics, universités en tête[1].

AntWeb passe sous licence Creative Commons BY-SA

AntWeb goes CC-BY-SA

Waldir Pimenta – 6 novembre 2009 – All The Modern Things
(Traduction Framalang : Poupoul2)

Saviez vous que l’insecte le plus venimeux au monde est une fourmi ? En effet, une piqûre de la fourmi Maricopa Harvester équivaut à douze piqures d’abeilles, ce qu’il faut pour tuer un rat de plus de deux kilos.

J’ai découvert cela il y a plus d’un an dans le livre des insectes de l’Université de Floride. Je me suis immédiatement tourné vers Wikipedia pour savoir ce qu’on en disait, mais à ma grande surprise, aucun article n’existait. J’en ai donc commencé un à partir d’un page blanche, en utilisant des informations glanées sur plusieurs sites consacrés aux fourmis. Finalement, les gens ont commencé à enrichir l’article, jusqu’à ce qu’il contienne une somme d’informations de bonne qualité à propos de cette espèce fascinante. Mais il y manquait toujours quelque chose, qui à lui seul pouvait rendre l’article dix fois meilleur : Une image.

Ainsi, en cherchant des images afin d’illustrer cet article, j’ai découvert les fantastiques images d’AntWeb, un projet de l’Académie des Sciences de Californie, qui a pour objectif d’illustrer l’énorme diversité des fourmis dans le monde. J’étais particulièrement heureux qu’ils utilisent une licence Creative Commons, mais j’ai rapidement déchanté en constatant que celle qu’ils utilisaient (la licence Creative Commons BY-NC) n’était pas appropriée pour Wikipédia, ou plus généralement pour ce que les Creative Commons appellent elles-mêmes les « œuvres culturelles libres » (Ndt : voir à ce sujet ce billet du Framablog).

Je leur ai donc envoyé un courriel, suggérant de changer la licence. Lorsqu’ils m’ont répondu, j’ai découvert qu’en fait, des discussions internes à propos de la licence étaient déjà en cours. Je suis resté en contact avec eux, et me suis assuré de leur parler des avantages de voir leurs travaux placés dans des vitrines telles que Wikipédia, Commons ou Wikispecies.

J’aime à penser que ma modeste intervention a participé à leur prise de décision, quelque temps plus tard, non seulement de changer de licence pour une Creative Commons BY-SA, mais également de téléverser leurs images dans Commons eux-mêmes. Il s’agissait d’une partie de leur mission globale : « L’accès universel aux informations sur les fourmis ». Auparavant, le projet AntWeb, se concentrait sur la numérisation de contenus et le développement d’un portail web : ils ont désormais décidé d’exporter le contenu d’AntWeb pour en améliorer l’accès. Mettre les images et les méta-données associées dans Commons fut un exemple en matière d’organisation.

Cette initiative a été saluée par la communauté, et il y a eu de nombreuses contributions à ce massif téléversement, afin de rendre les images plus faciles à trouver et à utiliser pour illustrer des articles, et autres pages pertinentes. Le processus a pris plusieurs jours, mais au final ce sont pas moins de 30 000 images qui auront été téléversées, intégralement associées à leurs données EXIF, mais également aux informations taxonomiques et géographiques, chaque fois qu’elles étaient disponibles.

Tout ceci n’est pourtant quelque part qu’une première pierre. Puisque, comme d’habitude dans le monde des wikis, vous pouvez contribuer. Il existe des articles à illustrer dans toutes les langues de Wikipedia (l’outil de recherche d’images libres FIST de Magnus arrive à point nommé pour cela). Il y a des pages à illustrer sur Wikispecies. Il y a des catégories à créer dans Commons, afin de faciliter la navigation dans l’arbre des catégories des fourmis et d’y rendre chaque image de fourmi accessible. Et plus important, il y a cette nouvelle fantastique à diffuser, afin de faire savoir à tous ceux qui sont intéressés par les fourmis qu’ils peuvent désormais compter sur ce qui est sans doute la plus importante ressource en ligne d’images de fourmis, toutes de grandes qualité.

Un grand merci à Brian Fisher, chef de projet AntWeb, qui a coordonné le processus de changement de licence, Dave Thau, ingénieur logiciel AntWeb, qui a écrit le script de téléversement et réalisé cette opération, et à toute l’équipe d’AntWeb pour leur formidable travail.

Notes

[1] Crédit photo : AntWeb (Creative Commons By-Sa)




Le framabook Simple comme Ubuntu nouveau est arrivé !

Framabook - Simple comme Ubuntu 9.10 - Cover Alexandre Mory Art LibreEn avance sur le Beaujolais, nous sommes heureux et fiers d’annoncer la sortie du nouveau framabook Simple comme Ubuntu (ou SCU) dans son millésime 9.10 Karmic Koala.

Comme il a en a pris la bonne habitude, il suit d’à peine quelques jours la sortie de la nouvelle version d’Ubuntu.

C’est la résultante du travail intense de son auteur Didier Roche, accompagné par les remarques et suggestions de toute la communauté, sans oublier la fine équipe de relecteurs et un éditeur InLibroVeritas qui trouve encore le temps d’être prêt malgré La bataille Hadopi qu’il mène sur tous les fronts.

Une petite interview s’imposait. D’autant que, grande et originale nouveauté, il n’est pas courant de trouver un livre « dans » un système d’exploitation !

PS : J’en profite pour rappeler que la collection Framabook a pour slogan « le pari du livre libre » et qu’en commandant (pour vous ou pour offrir à l’approche des fêtes) sa version matérielle chez InLibroVeritas, vous contribuez à soutenir tout le projet.

Entretien avec Didier Roche

Bonjour Didier, peux-tu te présenter brievement et nous décrire tes multiples activités autour d’Ubuntu ?

Didier RocheBonjour Alexis,

Je suis un ingénieur de production informatique de 26 ans travaillant dans une grande boite d’édition logicielle française (propriétaire, mais c’est un bug que je suis en train de corriger hardiment ;)).

Cela fait un peu plus d’une dizaine d’années que j’utilise un système GNU/Linux et j’ai donc connu et utilisé de multiples distributions : Red Hat, Mandrake, Debian pendant plusieurs années pour certaines…

J’ai adopté Ubuntu dès ses débuts (première installation en novembre 2004) et jamais lâché depuis.

Je suis depuis bientôt deux ans secrétaire de l‘association Ubuntu-fr, après avoir été quelques mois administrateur de sa partie documentation. J’aide notamment à l’organisation de l’Ubuntu party parisienne. Participer à une association de ce type fait que l’on se doit d’être présent les nombreux et classiques événements du Libre auxquels Ubuntu-fr participe ou initie.

Enfin, je suis également ce que l’on appelle MOTU (signifiant pompeusement « Master Of The Universe »), groupe de développeurs ayant les droits adéquates qui s’occupe des dépôts universe/multiverse d’Ubuntu. Cependant, je travaille plus particulièrement dans l’équipe « desktop » qui s’occupe principalement de mettre à jour GNOME dans Ubuntu. A ce titre, j’ai eu la chance d’être sponsorisé par Canonical (société principale qui finance de nombreux développeurs Ubuntu) pour aller à l’UDS (Ubuntu Developer Summit) en mai dernier à Barcelone et à Dallas dans une quinzaine de jours. Cela m’a permis d’être le principal développeur de Quickly, projet poussé par Canonical afin de créer une application distribution et technologie agnostique, qui permet de rendre plus aisée la programmation sous GNU/Linux (plus d’information sur LWN).

Ton livre Simple comme Ubuntu (alias le SCU) est une grande réussite de « l’édition libre », et une belle collaboration Ubuntu-fr, InLibroVeritas et Framasoft. Peux-tu nous en raconter la génèse, son évolution et en quoi ce choix de la licence libre est important pour toi ?

Simple Comme Ubuntu a une histoire très singulière que j’évoque rapidement dans sa préface. Lors de mes études d’ingénieur généraliste (comprendre un environnement avec peu de véritables passionnés d’informatique), j’étais en 2005-2006 dans une association au nom d’Afric’Edu dont l’objectif est la récupération, le reconditionnement et l’envoie de matériel informatique dans les écoles d’Afrique. On officie également une formation sur place sur un mois. Voulant installer un système d’exploitation Libre basé sur GNU/Linux (comme l’année précédente), je pensais qu’Ubuntu convenait parfaitement aux besoins. Cependant la connaissance de l’équipe sur GNU/Linux frisait malheureusement l’axe des abscisses, un peu gênant pour ensuite effectuer des formations, non ? 🙂

Ayant vu l’excellente suite de billet de yeKcim sous licence CC By-Sa, je me disais à l’époque qu’il ne manquait pas grand chose pour en faire une documentation complète. J’ai naturellement respecté la licence, conscient de ses bienfaits et publié « Simple Comme Linux » (pour Dapper Drake 6.06), un pdf d’une quinzaine de pages que nous avons utilisé en support de cours au Togo.

Rentré d’Afrique, je l’ai publié sur le forum d’Ubuntu-fr où de nombreux retours et suggestions ont été faites. La documentation s’est ainsi étoffée jusqu’à atteindre environ 70 pages où Alexis Kauffmann m’a alors parlé en novembre 2006 de la collection Framabook qui n’était alors formée que d’un seul opus sur Thunderbird. Le passage d’une documentation à un véritable livre a été particulièrement chronophage, mais le résultat a plu et plaît encore, et c’est ce qui compte !

À nouvelle version d’Ubuntu, nouvelle version du SCU. Quelles en sont les principales nouveautés ? Je crois savoir qu’il y en a une de poids tout à fait originale…

Tout à fait. Depuis la version Karmic, Simple Comme Ubuntu est maintenant… dans Ubuntu ! C’est à dire qu’il fait parti des dépôts universe (il suffit d’installer le paquet simplecommeubuntu) pour avoir accès au livre librement et légalement en version électronique, installé sur sa machine. Les sources en LaTeX permettent de construire le pdf comme tout autre logiciel de la distribution, ce qui permet d’avoir un accès aisé aussi bien aux sources qu’au contenu. Son intégration dans les archives du projet Debian est en cours.

Chaque nouvelle version d’Ubuntu est un réel challenge. Car en plus du surplus d’activité au niveau Ubuntu-fr, il y a également la release d’Ubuntu côté développement qui me prend énormément de temps. Chaque mise à jour du livre (tous les 6 mois) nécessite une moyenne d’une cinquantaine d’heures au niveau des modifications et changement des copies d’écran. La deadline est par conséquent très serrée ! Nous essayons d’être le plus réactif possible. L’excellent comité de relecture de Framabook, que je ne remercierai jamais assez pour l’acharnement de ses membres (certains depuis juin 2006 !), permet d’obtenir un niveau de qualité très satisfaisant.

Aujourd’hui (cela s’est fait graduellement et non sur mon impulsion, bien au contraire), Simple Comme Ubuntu est devenu en quelque sorte le livre officiel de la communauté francophone (il suffit d’aller voir sur le forum le nombre d’échanges le conseillant), nous l’avons donc, à partir de cette version, intégré aux 3 000 CD francophones qu’Ubuntu-fr presse à ses frais et vend sur les divers évènements où nous nous rendons (il sera également sur la clef de la Framakey Ubuntu-fr Remix version Karmic). Rien de mieux que d’avoir ensemble le(s) logiciel(s) et la manière de les utiliser. 🙂

Concernant les nouveautés et dans le plus pur esprit du Libre, je n’ai pu résister à joindre ci-dessous le changelog des changements impactés dans le livre (gérant le livre dans un VCS, je pourrais même fournir un patch) 🙂

Merci Didier pour ces précisions. Tu nous donnes rendez-vous à l’Ubuntu Party de Paris ?

Exactement, il y a des Ubuntu Party dans la France entière, la plus importante en terme de visites (4000 personnes aux deux précédentes éditions) étant à Paris, au Carrefour Numérique, Cité des sciences et de l’industrie les 28 et 29 novembre. De nombreuses associations du Libre (dont Framasoft) y tiendront un stand et il y a de nombreuses conférences et activités proposées pour tous les niveaux, de débutant à confirmé.

N’hésitez pas à venir nous rencontrer et rester informé sur le programme complet bientôt publié sur le site de l’Ubuntu party.

Didier

Découvrir la nouvelle version 9.10 du framabook Simple comme Ubuntu…

Release note de SCU version 9.10

  • Mise à jour des tous les éléments de Jaunty vers Karmic. Nombreuses images également modifées.
  • Revue de la procédure d’installation. Quelques remarques supplémentaires sur l’installation et le chiffrement de partition
  • Modification suite au passage de gdm 2.28
  • Modification des éléments dans Systèmes (un vrai bento de renommage), ajout d’ibus et suppression de SCIM
  • Sources de mises à jour redevient sources de logiciels une énième fois :/
  • Ajout de palimpset
  • Suppression d’évolution dans la barre supérieure par défaut
  • Modifier des éléments du tableau de bord en haut à droite (NM, Icône présente, etc.): une bonne pelletée de changements 🙂
  • Nombreux changements dans l’applet FUSA
  • Remplacement d’ajouter/supprimer par l’App Center d’Ubuntu. Adaptation de la partie dédiée. Beaucoup de modifications tout au long du livre (notamment le fait qu’il n’y ait plus de confirmation pour l’installation d’appli dans universe et également que toutes les applications soient disponibles par défaut). Il n’y a plus d’indicateur de popularité non plus
  • Modifications de la nettoyeur système
  • Suppression de l’installation de la version propriétaire de Java vu que la version libre a bien évolué et permet maintenant d’adresser la plupart des cas.
  • Ajout et modification de l’écran de changement de fond d’écran
  • Le clin d’oeil du thème vista basic a été gardé le temps de trouver un screenshot potable pour faire un seven basic 🙂
  • La nouvelle version de gdm n’est plus thémable graphiquement
  • Gnome-screenshot -> option pour prendre une partie de l’écran.
  • Petite note pour indiquer que tracker n’est pas installé par défaut, idem pour deskbar
  • Changement de l’outil pour gérer la connexion automatique et par défaut de GDM
  • Ajout de exec devant numlock et déplacement au chapitre 7
  • Ajout précision sur ami de root et la notification pour dropper les privilèges
  • Changement de la méthode de notification de connexion wiki/ethernet. Suppression des icônes et modifiant du descriptif correspondant.
  • Ajout d’empathy
  • Rafraichissement de la description de pidgin
  • Racketiciel et detaxe.org ont maintenant fusionnés: un seul lien
  • Le clavier par défaut proposé maintenant en « France – Alternative »
  • Ext4 est maintenant utilisé par défaut
  • Support linguistique: prise en charge des langues
  • Puis prise en charge linguistique -> prise en charges des langues
  • Note sur chiffrement et trousseau qui apparait désormais uniquement si vous utilisez un trousseau de clef.
  • Test du matériel -> Test du système
  • Renommage de certains boutons comme Installer/supprimer des langues -> Installer / supprimer des langues
  • Suppression de la gravure directement par Nautilus
  • Comparaison de Cinelerra avec Adobe Premiere et ajout des dépôts de lprod pour installer ce dernier.
  • Quelques modifications sur la description des onglets dans Firefox
  • La situation des cartes graphiques d’ATI se sont améliorés. Remarque mise à jour
  • Suppression de la remarque sur Waow de Vista vu que maintenant Seven est sorti 😉
  • Modification sur une remarque sur les noyaux (pour 1 Go de RAM, t’as plus rien ;))
  • Des liens de logiciel changés, textes rafraichis
  • Sélectionner avec un motif -> Sélectionner les éléments correspondants à \ldots{}
  • Ajout sur la version électronique du descriptif du projet Framabook
  • Corrections de quelques zillions de coquilles, reformulations, etc. 🙂



Claude Bernard Lyon 1 offre les premières bourses Microsoft à ses étudiants

Stuartpilbrow - CC by-saL’université française ne doit plus pleurer sur le désengagement de l’État, le sauveur et bienfaiteur Microsoft est là pour y remédier.

Hier c’était Paris Descartes qui décidait de confier la communication numérique de ses étudiants à la firme de Redmond. Et aujourd’hui, fait unique dans les annales, ont vu le jour les premières bourses d’étudiants financées pour le privé.

C’est à l’Université Claude Bernard Lyon 1 que l’on doit cet acte pionnier et, vous l’aurez compris, c’est encore de Microsoft qu’il s’agit.

Extrait du communiqué de presse :

Alors qu’en novembre 2007, l’Université Claude Bernard Lyon 1 s’était engagée avec Microsoft France sur une série d’actions visant à rapprocher les deux structures en termes de partenariat économique, après plusieurs années de projets communs – l’Université et Microsoft France concrétisent aujourd’hui l’un de ses axes de partenariat qui était de contribuer financièrement au soutien d’étudiants boursiers, par le biais de la Fondation partenariale Lyon 1.

Cinq bourses sont accordées pour la rentrée universitaire 2009 à des étudiants débutants leurs études en première année de licence (…) La bourse d’un montant de 3 000 €, versée en une fois, doit permettre à des étudiants méritants d’entamer des études scientifiques dans de bonnes conditions financières.

(…) Ils recevront lundi 19 octobre 2009 à 14h30 dans la salle du conseil de l’Université leur bourse des mains d’Eric Le Marois, Directeur Education et Recherche de Microsoft France et de Lionel Collet, président de l’Université Lyon 1.

À l’issue de cette remise de bourse, Lionel Collet et Eric le Marois se prêteront au jeu des questions-réponses sur les thématiques des nouvelles technologies auprès de jeunes étudiants de l’Université.

Inclinons-nous et disons merci à la généreuse société américaine pour le soutien ainsi apporté au fleuron de notre jeunesse[1].

Quand on pense au coût annuel que représente la somme totale de toutes les licences Windows et MS Office de tous les postes de tous les établissements scolaires de France et de Navarre, on se dit que ces 5 bourses de 3 000 € ne méritent pas forcément une vaste opération de communication.

Il faut être naïf, malintentionné ou bien carrément parano pour n’y voir avant tout qu’une belle arnaque consistant à déshabiller l’élève Pierre pour habiller l’étudiant Paul sous l’œil bienveillant d’une puissance publique de moins en moins puissante et de moins en moins publique.

Notes

[1] Crédit photo : Stuartpilbrow (Creative Commons By-Sa)




Appel de soutien de la FSF à l’occasion des 25 ans du projet GNU

Appenz - CC byDans un récent entretien que nous avions traduit, Richard Stallman évoquait le fait d’être parfois marginalisé au sein d’une communauté qu’il a lui même contribué à construire.

Son regret ne concerne bien entendu pas l’efficience, la qualité et les succès toujours plus nombreux que remportent le logiciel libre. Mais celui de constater que certains en chemin minimisent voire écartent le mouvement social et éthique qui sous-tend à ses yeux le logiciel libre.

C’est l’historique et classique opposition entre « open source » et « free software ». Et il serait dommage que le premier phagocyte le second sous prétexte qu’il est bien plus politiquement correct.

Voici très grossièrement synthétisé pourquoi nous soutenons la Free Software Foundation, et ne manquons pas de traduire et relayer bon nombre de ses appels et communiqués[1].

25 ans de GNU – Soutenons la liberté du logiciel

25 years of GNU – support software freedom!

Peter Brown – 29 septembre 2009 – FSF.org
(Traduction Framalang : Quentin et Goofy)

Chers supporters du logiciel libre,

Demain s’achèvera une année de célébrations du 25ème anniversaire du projet GNU. Une célébration démarrée en trombe en septembre 2008 avec l’excellente vidéo de l’auteur et comédien Stephen Fry.

Aujourd’hui, nous célébrons le fait que nous avons passé le cap des 25 000 personnes inscrites à notre newsletter mensuelle, la Free Software Supporter, et nous remercions les 3 200 personnes qui ont rejoint la Free Software Foundation comme membres associés pour financer notre travail. Vous pouvez rejoindre leur rang tout de suite et arborer fièrement votre carte de membre en :

Je suis fier que la FSF ait autant d’activistes et de membres dévoués, qui chaque jour proclament leur soutien à notre cause et plaident pour une société libre.

Le mouvement du logiciel libre a passé une excellente année, et son importance sur le plan éthique est de plus en plus reconnue. Ensemble, nous combattons le fléau du logiciel propriétaire, des brevets logiciels, des DRM, et de l’informatique pleine de chausse-trappes, dans un effort pour construire un monde de logiciels libres où nous, les utilisateurs, nous serons libres.

« J’aurais pu gagner de l’argent (en rejoignant le monde des logiciels propriétaires), et peut-être pris du bon temps à écrire du code. Mais je savais qu’à la fin de ma carrière, j’aurais fait le bilan de ces années passées à ériger des murs entre les individus, et j’aurais eu le sentiment d’avoir gâché ma vie en rendant le monde pire qu’il n’aurait pu l’être. »

Richard Stallman, projet GNU.

Aidez-nous à finir en beauté cette année faste pour le GNU en devenant membre ou en effectuant un don, et merci pour votre soutien sans faille !

Notes

[1] Crédit photo : Appenz (Creative Commons By)




LinuxÉdu, le groupe qui fait bouger le Libre éducatif de Toulouse et sa région

Logo LinuxEdu - ToulouseMon petit doigt me dit que cette année le Framablog va moins se lamenter sur la situation du Libre dans l’éducation nationale française que par le passé.

D’abord parce même au sein du ministère, les mentalités évoluent. Mais aussi parce que nous souhaitons être plus constructifs en mettant l’accent sur les nombreuses et positives actions de terrain (sachant que ces dernières ne bénéficient pas forcément de la même attention médiatique qu’un projet comme l’Académie en ligne par exemple).

Ici, on ne se lamente pas mais on agit. Et ces actions sont autant de petits ruisseaux qui convergent lentement mais sûrement vers une grande rivière, rivère qui finira bien par passer un jour sous les fenêtres du ministère !

Et justement, cela tombe bien, parce qu’avec le dynamique projet LinuxÉdu de Toulouse et sa région, on tient une action des plus intéressantes qui ne demande qu’à « faire jurisprudence ».

Il est en effet rare, voire unique, d’afficher ainsi officiellement (sur un site académique) sa volonté de promouvoir le logiciel libre à l’école, de réussir à pénétrer le monde a priori fermé de la formation continue pour proposer des stages aux titres plus qu’explicites (exemple : « Linux et les logiciels libres pour l’éducation »), et d’organiser d’originales rencontres publiques (comme les rendez-vous « BarCamp TICE libres » qui débutent le 7 octobre prochain) en collaboration étroite avec Toulibre, le GULL du coin (il y a même un cinéma local impliqué, la totale quoi !).

Nous nous devions d’en savoir plus, en partant à la rencontre de l’un des ses principaux acteurs.

PS : Si d’autres académies veulent se manifester dans les commentaires pour évoquer leurs propres initiatives en faveur du Libre à l’école, qu’elles n’hésitent surtout pas.

Entretien avec Rémi Boulle

Rémi Boulle, bonjour, une petite présentation personnelle ?

Rémi BoulleBonjour, dans la vraie vie, je suis père de famille.

Dans le monde du libre, je participe au projet OpenOffice.org Éducation, suis membre du CA d’EducOOo (qui développe OOo4kids), participe au groupe éducation de l’APRIL et bien sûr au groupe LinuxEdu de l’académie de Toulouse.

Quelles fonctions exercez-vous au sein de l’Académie de Toulouse ?

Je suis professeur de maths dans un collège de la proche banlieue toulousaine. J’enseigne depuis une dizaine d’année (déjà !). Je suis membre de l’IREM (groupe maths et Internet) et fais aussi de la formation continue (stages LinuxÉdu, tableur au collège, WIMS).

Qu’est-ce que le groupe LinuxÉdu ? (historique, structures, objectifs, effectifs, champ d’activites, etc.)


Vu la montée en puissance du libre dans nos métiers et la nécessité pour un professeur de pouvoir utiliser, modifier, redistribuer des ressources et ne voyant rien venir du côté de l’institution, nous nous sommes dits que c’était à nous de prendre des initiatives et de proposer.

Avec des collègues (Frédéric Bellissent et Yves Dhenain), nous avons donc proposé un premier stage « Linux et les logiciels libres pour l’éducation ». Celui-ci a eu beaucoup de demandes. L’intérêt des personnels pour le libre et pour linux est bien présent. Le libre est, pour les enseignants, une nécessité professionnelle. Depuis, nous avons lancé un stage « niveau 2 ».

Tout cela nous a beaucoup encouragé. Nous avons donc continué de fédérer au plan académique les professionnels de l’éducation utilisateurs du libre et à intensifier nos actions. La liste de diffusion, deux sites Internet, le canal IRC, le micro-blogging… sont d’ailleurs des outils essentiels pour cela.

La structure du groupe LinuxÉdu ? Ce serait davantage une communauté de pratique informelle plutôt du côté du bazar que de la cathédrale. Nous mutualisons nos connaissances, échangeons, partageons… Le groupe au sens large est formé de 150 à 200 personnes. On y trouve majoritairement des professeurs, certains en charge de la gestion du réseau de leur établissement mais aussi des personnels du rectorat, des membres des AIDAT (assistance informatique pour les réseaux pédagogiques), du CRIA (idem mais pour les réseaux administratifs) et aussi des développeurs ou des gérants de SSLL travaillant dans l’éducation.

Est-ce le premier et (pour le moment) unique groupe faisant explicitement la promotion du logiciel libre au sein d’un site académique ?


J’ai l’impression que oui. J’espère me tromper. Pourtant faire progresser les pratiques sur ce plan est relativement simple à faire et vite très efficace…

Je profite de cette interview pour lancer un appel à l’ensemble des personnels de l’éducation afin que, dans leurs académies :

  • ils créent une liste de diffusion type linuxedu@ac-monacademie.fr (contacter le service académique ad hoc).
  • ils fassent une communication la plus large possible de l’existence de cette liste dans le maximum de réseaux professionnels (listes professionnelles, syndicats, listes internes…) afin d’en augmenter l’effectif.

Il est fondamental dans un premier temps de rassembler les enseignants innovants que sont les utilisateurs du libre dans une liste de diffusion académique. Le reste suivra.

Vous avez donc réussi à investir la formation continue des enseignants en proposant des stages originaux. Pouvez-vous nous en dire plus ?


Dans notre académie, il n’y avait pas de stages fléchés « ressources libres », « Linux » ou « intéropérabilité ». De nos jours, un Plan Académique de Formation (PAF) sans ce type de contenu ne peut, à mon avis, sembler qu’incomplet. Quid alors des parties « veille technologique et pédagogique », « innovations pédagogiques » sans ce volet ?

Si ce n’était pas à nous de combler ce vide, qui l’aurait fait ?

Il faut savoir qu’en théorie n’importe qui peu proposer des stages de formations. Je veux dire par là que ce n’est pas seulement les gros opérateurs de formations comme les IUFM ou les Inspections. Un personnel peut tout à fait proposer un stage… et voir sa proposition validée. C’est la voie que nous avons suivi.

Lorsque notre proposition de stage est arrivée en commission, je sais qu’elle a été bien accueillie. Le groupe LinuxÉdu s’est constitué au fil de ces formations.

Avez-vous rencontré des résistances internes aussi bien pour ce qui concerne la création de LinuxEdu que pour les propositions de stages ? Mais peut-être que le temps d’une certaine méfiance vis-à-vis du logiciel libre est définitivement révolu ?

Selon Héraclite, les chiens aboient contre les inconnus… face à quelque chose que l’on est incapable de comprendre, l’Homme est plus souvent tenté d’attaquer. Ce fût parfois le cas pour le libre et ce fût le plus souvent cocasse. Ce stade est, je pense, révolu.

Le libre est une solution de qualité professionnelle pour nos établissements scolaires. C’est déjà le cas en entreprise. Au delà du logiciel, la licence libre est tout ce qu’il y a de plus compatible avec les missions d’un professeur. Cela ne semble pas faire de doutes. Reste à vraiment franchir le pas.

Nous travaillons beaucoup avec le Centre Régional de Documentation Pédagogique (CRDP) de Midi-Pyrénées. Nous y avons toujours eu un accueil des plus favorables. Ils ont été un partenaire crucial pour les journées TICE libres en 2009.

La Mission aux TICE de notre académie avec qui nous avons de très bons contacts nous a ouvert la liste de diffusion ainsi qu’un hébergement sans difficultés. Elle fait aussi partie de nos partenaires, nous y avons notamment déjà fait une réunion de travail pour notre projet de paquets « linuxedu ».

De quoi s’agit-il ?

Quasiment tous les serveurs des réseaux pédagogiques des établissements sont sous windows, ce n’est pas le cas pour les réseaux administratifs et des serveur web du rectorat qui sont sous Linux.

L’idée est de mettre à disposition des établissements un paquet logiciel pour linux qui automatise l’intégration d’une machine Linux dans le réseau et qui installe aussi toute une sélection de logiciels et ressources pédagogiques.

Ainsi, un élève ou un professeur, qu’il soit sous Linux ou Windows, utilisera le même compte, retrouvera ses propres documents et bénéficiera de la complémentarité des deux univers.

On a tendance à caricaturer le corps enseignant comme un bloc monolithique assez difficile à déplacer. Comment faites-vous pour arriver à convaincre les enseignants de « s’essayer au Libre » ? Abordez-vous le sujet en insistant sur la qualité technique (angle « open source ») ou en mettant plutôt l’accent sur le caractère éthique et social du logiciel libre (angle « free software ») ?


L’accès au code source importe peu à la très grande majorité des enseignants. Ce n’est tout simplement pas notre métier.

L’angle idéal est celui des ressources. Pouvoir récupérer une ressource pédagogique, la modifier, y adjoindre des éléments venant d’ailleurs, la redistribuer à nos élèves, à nos collègues c’est un aspect très important de notre travail. Cela implique d’avoir des formats ouverts, d’utiliser des logiciels librement distribuables, des ressources libres… Le libre est une condition nécessaire d’exercice forte de notre métier. D’ailleurs beaucoup d’enseignants développent des logiciels libres éducatifs.

Le monde propriétaire même s’il a des produits de qualité complique inutilement notre travail, pose des barrières à la transmission des connaissances à nos élèves, à la mutualisation de nos ressources : problèmes de formats qui ne sont pas intéropérables, de logiciels dont la mise à jour n’est pas automatique, dont on impose indirectement l’achat ou la copie illégale à nos élèves, problème de licence des ressources, difficulté d’interagir avec les développeurs… C’est une vision de l’éducation qui contraste quelque peu avec les valeurs de l’école de la République.

Cette découverte s’accompagne-t-elle de réelles migrations chez nos collègues, jusqu’à changer de système d’exploitation ?


On en observe de plus en plus. Dans tous les cas, la curiosité et l’envie sont très vives. Ce BarCamp est aussi destiné à accompagner celles et ceux qui souhaitent migrer.

Quelles sont vos relations avec la très dynamique association TouLibre ?


Excellentes ! Je suis d’ailleurs membre de Toulibre même si je participe plus souvent aux Qjelt. Ils nous ont beaucoup aidé lors de l’organisation de LinuxEdu Pride 2008, des journées TICE libres 2009 ainsi que pour La journée du libre pour l’éducation en partenariat avec les cinémas Utopia. Nous savons que nous pouvons compter sur eux dans le futur.

Le mercredi 7 octobre prochain aura lieu le premier « BarCamp TICE libres » au CRDP Midi-Pyrénées à Toulouse. Pourquoi une telle manifestation et quel en sera le programme ?


L’idée est de permettre aux collègues d’avoir une antenne du libre éducatif à leur disposition, de servir de point relais, de lieu d’innovation technique et pédagogique. Comme nous avons tous des centres d’intérêts variés et que nous voulons tous avancer, l’organisation sous forme de BarCamp s’est imposée.

Selon Wikipédia, Un BarCamp, c’est une rencontre, une non-conférence ouverte qui prend la forme d’ateliers-événements participatifs où le contenu est fourni par les participants qui doivent tous, à un titre ou à un autre, apporter quelque chose au Barcamp.

Tout le monde est invité à participer quelles que soient ses compétences techniques : on peut présenter un logiciel, un exemple d’activité utilisant les TICE, aborder des aspects techniques mais aussi une simple idée…

« BarCamp » c’est pour faire moderne ou bien cela cache une véritable originalité dans l’organisation et le déroulement de l’évènement ?


Un peu les deux j’avoue. J’ai l’impression que les programmes trop définis, trop minutés ont tendance a attirer moins de participants. L’idée de base est que nous avons tous des compétences, des connaissances et que nous souhaitons les donner et en recevoir. Partageons-les !

Outre TouLibre et LinuxÉdu, Toulouse accueille également le président d’Ubuntu-fr (Christophe Sauthier) et la présidente de Wikimedia France (Adrienne Alix). Est-ce un hasard ? Pourquoi Toulouse a-t-elle de telles bonnes dispositions pour le Libre ? Et pourquoi ne pas avoir encore organisé de RMLL ?


Je ne sais pas. Peut-être le confit de canard et le Gaillac ont-ils tendance à libérer ? À vérifier lors des RMLL à Toulouse 😉

Une dernière chose. Est-ce que le service rendu par le réseau Framasoft vous est utile. Et que nous suggéreriez-vous pour l’améliorer ?


Je suis venu au libre par l’approche « free software » et avec l’aide de Framasoft. Surtout continuez !




Fracture et solidarité numériques, par Jean-Pierre Archambault

Ferdinand Reus - CC by-saRien de tel pour aborder la rentrée scolaire qu’un excellent article de synthèse de notre ami Jean-Pierre Archambault qui réunit ici deux de ses sujets favoris : le logiciel libre et la place de l’informatique à l’école.

Il est intéressant de noter que l’auteur a associé dans le titre les termes « fracture » et « solidarité », sachant bien que le logiciel, les contenus et les formats libres et ouverts apportent non seulement une réponse au premier mais développent et favorisent le second[1].

Un article un peu long pour un format blog mais qui vaut le coup ! Pour vous donner un ordre d’idée il correspond à deux cents messages Twitter que l’on parcourerait en enfilade 😉

Fracture et solidarité numériques

URL d’origine du document

Jean-Pierre Archambault – septembre 2009 – Association EPI
Licence Creative Commons By-Nd


Le thème de la fracture numérique est solidement installé dans le paysage des débats sociétaux. La nécessité de la réduire prend des allures de consensus : acceptons-en l’augure. Une raison de fond à cela : la place sans cesse croissante de l’informatique dans tous les secteurs de la société, et les enjeux qui y correspondent. La fracture numérique ce sont les inégalités d’accès aux réseaux, aux contenus entre le Nord et le Sud, ainsi qu’au sein des pays développés. Ce sont aussi les inégalités en terme de maîtrise conceptuelle du numérique. Nous examinerons ces problématiques. Le libre, désormais composante à part entière de l’industrie informatique, a permis de constituer au plan mondial un bien commun informatique, accessible à tous. Nous verrons donc pourquoi il est intrinsèquement lié à la lutte contre la fracture numérique, et donc à la solidarité numérique, avec son approche, transposable pour une part à la production des autres biens informationnels, ses réponses en matière de droit d’auteur. Comme le sont également les formats et les standards ouverts. Et nous rappellerons que dans la société de la connaissance, la « matière grise » et l’éducation jouent, on le sait, un rôle décisif.

Le numérique partout

Le numérique est partout, dans la vie de tous les jours, au domicile de chacun, avec l’ordinateur personnel et l’accès à Internet ; dans l’entreprise où des systèmes de contrôle informatisés font fonctionner les processus industriels. Ses métiers, et ceux des télécommunications, occupent une place importante dans les services. On ne compte plus les objets matériels qui sont remplis de puces électroniques. Il y a relativement, et en valeur absolue, de plus en plus de biens informationnels. C’est l’informatique, pour ne prendre que ces exemples, qui a récemment fait faire de très spectaculaires progrès à l’imagerie médicale et qui permet ceux de la génétique. Elle modifie progressivement, et de manière irréversible, notre manière de poser et de résoudre les questions dans quasiment toutes les sciences expérimentales ou théoriques qui ne peuvent se concevoir aujourd’hui sans ordinateurs et réseaux. Elle change la manière dont nous voyons le monde et dont nous nous voyons nous-mêmes. L’informatique s’invite aussi au Parlement, ainsi on s’en souvient, en 2006, pour la transposition de la directive européenne sur les Droits d’auteur et les droits voisins dans la société de l’information (DADVSI), suscitant des débats complexes où exercice de la citoyenneté rimait avec technicité et culture scientifique. Et plus récemment avec la « loi Hadopi ».

La fracture numérique

On imagine sans peine que pareille omniprésence de l’informatique signifie des enjeux forts, économiques notamment. Que tous ne soient pas sur un pied d’égalité, loin s’en faut, face aux profondes mutations que le numérique engendre ne saurait a priori surprendre. Cela vaut, à plus ou moins grande échelle, pour tous les pays. Il y a beaucoup de fractures : sanitaires, alimentaires… Culturelles aussi. Ainsi concernant la maîtrise de sa langue maternelle. Ainsi la fracture mathématique, qui serait bien plus grave encore s’il n’y avait pas un enseignement de culture générale mathématique tout au long de la scolarité. Si l’interrogation sur « la poule et l’oeuf » est éternelle, on peut penser qu’« il est certain que la fracture numérique résulte des fractures sociales produites par les inégalités sur les plans économique, politique, social, culturel, entre les hommes et les femmes, les générations, les zones géographiques, etc. »[2].

Un problème d’accès

La fracture numérique tend à être perçue, d’abord et surtout, comme un problème d’accès : les recherches sur Internet avec son moteur préféré ne laissent aucun doute à ce sujet. Il y a ceux pour qui il est possible, facile de disposer d’ordinateurs connectés au réseau mondial, et les autres. C’est vrai pour le monde en général, et la France en particulier. En juin 2008, présentant « ordi 2.0 », plan anti-fracture numérique, Éric Besson rappelait qu’« être privé d’ordinateur aujourd’hui pour les publics fragiles, c’est être privé d’accès à l’information, à la culture, à l’éducation, aux services publics, donc être exposé à un risque accru de marginalisation ». Un premier volet de son plan, qui confirmait la possibilité prévue par la loi de finances 2008, permettait aux entreprises de donner leurs ordinateurs inutiles, mais en état de marche, à leurs salariés, sans charges sociales ni fiscales. Un deuxième volet visait à favoriser la création d’une filière nationale de reconditionnement, de redistribution et de retraitement des ordinateurs, ainsi que la mise en place d’un « label de confiance », garantissant un matériel en état de fonctionnement et vendu à très bas prix.

La fracture numérique a une dimension géographique. De ce point de vue, la question de l’accès égal aux réseaux est primordiale. Une politique d’aménagement du territoire ne peut que s’en préoccuper. Avec l’objectif de « démocratiser le numérique en accélérant le déploiement des infrastructures », la décision 49 du Rapport de la Commission pour la libération de la croissance française, sous la présidence de Jacques Attali[3], consistait en la « garantie d’une couverture numérique optimale en 2011 ». La décision 51, « faciliter l’accès de tous au réseau numérique » correspondait à l’objectif de réduire les fractures numériques, dont il était dit qu’« elles recouvrent la fracture sociale ». Elle proposait d’« accélérer le taux d’équipement en ordinateurs dans les foyers et TPE/PME avec un objectif d’équipement de 85 % en 2012, au moyen notamment de donations des PC usagés, de soutiens spécifiques aux étudiants, et microcrédit social ».

Pour le World Wide Web consortium qui, le 28 mai 2008, lançait un groupe d’intérêt web mobile pour le développement social (MW4D), « les technologies mobiles peuvent ouvrir aux plus pauvres des accès à des services d’informations essentiels comme les soins de santé, l’éducation, les services administratifs »[4].

L’accès à Internet, un bien commun

Le problème de l’accès est bien réel. De l’accès à Internet, tel qu’il a été créé et a fonctionné jusqu’à maintenant, et qu’il faut préserver. En effet, Internet est, en lui-même, un bien commun accessible à tous, une ressource sur laquelle n’importe quel usager a des droits, sans avoir à obtenir de permission de qui que ce soit. Son architecture est neutre et ouverte. Le « réseau des réseaux » constitue un point d’appui solide dans la lutte contre la fracture numérique[5].

Internet repose sur des standards ouverts de formats de données (HTML pour écrire des pages web) et de protocoles de communication (TCP/IP, HTTP). Il fonctionne à base de logiciels libres : Apache, SendMail, Linux… Il est donc impossible de verrouiller le réseau par la pratique du secret. Les logiciels libres contribuent à construire une plate-forme neutre. Ils la protègent par des licences comme la GPL et la diffusion du code source, garantissant aux développeurs qu’elle le restera dans l’avenir.

Les logiciels et les contenus numériques

Si l’accent est mis, à juste titre, sur la nécessité de disposer d’un ordinateur pour accéder au monde du numérique[6], les discours sont en général plus « discrets » sur le système d’exploitation. Or, sans système d’exploitation, que les acheteurs ont encore trop souvent l’impression de ne pas payer même lorsqu’il est « propriétaire », pas de machine qui fonctionne.

La fracture numérique, c’est aussi les inégalités d’accès aux logiciels et aux contenus, les régimes de propriété intellectuelle qui entravent leur circulation, leur production. Il y a désormais deux informatiques qui coexistent : libre et propriétaire. Des contenus numériques sous copyright mais aussi sous licences Creative Commons. Ces approches diffèrent sensiblement, sont quasiment antinomiques. Le débat sur leurs « mérites » respectifs, et les choix à opérer, se situe de plain-pied dans la problématique de la fracture numérique. Il peut arriver qu’il en soit absent, les deux « protagonistes » n’étant pas explicitement nommés. Cela étant, la Conférence « Repenser la fracture numérique » de l’Association for Learning Technology, dans une vision multidimensionnelle de la fracture numérique, posait la question « Open or proprietary ? »[7]. Une question qui mérite effectivement d’être posée.

Ce fut le cas à l’Université d’été de Tunisie qui s’est déroulée à Hammamet, du 25 au 28 août 2008[8]. Organisée par le Fonds Mondial de Solidarité Numérique (FSN)[9] et par l’Association pour le Développement de l’Éducation en Afrique (ADEA), elle était consacrée au thème de « La solidarité numérique au service de l’enseignement ». À son programme figuraient notamment les usages du TBI (Tableau blanc interactif), la création de ressources pédagogiques par les enseignants « auto-producteurs » et le rôle des communautés d’enseignants, les problématiques de droits d’auteur. Un atelier, qui portait sur les ressources pédagogiques des disciplines scientifiques et techniques des lycées, a fait différentes propositions dont l’une essentielle aux yeux de ses participants, qui affirme que les logiciels et les ressources pédagogiques utilisés et produits doivent être libres. Les standards et les formats de données doivent être ouverts[10]. Trois raisons ont motivé cette proposition : les coûts, le caractère opérationnel de la production collaborative de contenus pédagogiques, et le fait que les modalités de réalisation et les réponses du libre en terme de propriété intellectuelle sont en phase avec la philosophie générale d’un projet de solidarité numérique, à savoir partage, coopération, échange.

Le projet RELI@, « Ressources en ligne pour institutrices africaines », est destiné à améliorer la qualité de l’enseignement dans les pays du Sud par l’utilisation des outils et contenus numériques. Il repose sur des logiciels et ressources libres. Il a tenu son premier atelier à Dakar, du 22 au 24 octobre 2008[11]. Un « Appel de Dakar » a été lancé pour la production panafricaine de ressources pédagogiques numériques libres.

L’Unesco prime le libre

En 2007, l’association Sésamath[12] a reçu le 3e prix UNESCO (sur 68 projets) sur l’usage des TICE[13]. Pour le jury, Sésamath est « un programme complet d’enseignement des mathématiques conçu par des spécialistes, des concepteurs et près de 300 professeurs de mathématiques ». Il a été récompensé « pour la qualité de ses supports pédagogiques et pour sa capacité démontrée à toucher un large public d’apprenants et d’enseignants ».

« Remerciant particulièrement la commission française pour l’UNESCO qui a soutenu officiellement sa candidature », l’association Sésamath a vu dans l’obtention de ce prix « l’ouverture d’une nouvelle ère pour son action, vers l’internationalisation et plus particulièrement encore vers l’aide au développement ». Elle a ajouté : « Que pourrait-il y avoir de plus gratifiant pour des professeurs de Mathématiques que de voir leurs productions coopératives libres (logiciels, manuels…) utilisées par le plus grand nombre et en particulier par les populations les plus défavorisées ? C’est vrai dans toute la Francophonie… mais de nombreuses pistes de traductions commencent aussi à voir le jour. »[14]

Les deux lauréats 2007 étaient le Consortium Claroline[15] et Curriki[16]. Claroline, représenté par l’Université Catholique de Louvain, en Belgique, fournit à quelque 900 établissements répartis dans 84 pays une plate-forme « open source », sous licence GPL, en 35 langues. Claroline offre une série d’outils pédagogiques interactifs et centrés sur l’apprenant. C’est un modèle de réseau et de communauté qui met en relation des apprenants, des enseignants et des développeurs du monde entier. Créée en 2004 par Sun Microsystems, Curriki est une communauté mondiale qui se consacre à l’éducation et à la formation. Elle a désormais le statut d’organisme à but non lucratif. Elle fournit un portail Internet, un ensemble d’outils et de services aux utilisateurs grâce auxquels chacun peut librement concevoir, regrouper, évaluer et enrichir les meilleurs programmes d’enseignement, ce qui permet de répondre aux besoins de toutes les classes d’âge et de toutes les disciplines. Curriki a ainsi créé une communauté très vivante composée d’enseignants, d’apprenants, de ministères de l’Éducation, d’établissements scolaires et d’organisations publiques et privées.

L’UNESCO a ainsi mis à l’honneur des démarches éducatives fondées sur le libre, logiciels et ressources.

Parmi les avantages du libre

Parmi les avantages du libre, bien connus, il y a des coûts nettement moins importants. Si libre ne signifie pas gratuit, on peut toujours se procurer une version gratuite d’un logiciel libre, notamment en le téléchargeant. Une fantastique perspective quand, organisée au niveau d’un pays, la diffusion d’un logiciel libre permet de le fournir gratuitement à tous, avec seulement des coûts de « logistique » pour la collectivité mais une économie de licences d’utilisation à n’en plus finir.

Partage-production collaborative-coopération sont des maîtres mots de la solidarité numérique qui supposent des modalités de propriété intellectuelle qui, non seulement, favorisent la circulation des ressources numériques et les contributions des uns et des autres mais, tout simplement l’autorisent. La réponse est du côté de la GPL et des Creative Commons.

L’on sait la profonde affinité entre libre et standards et formats ouverts. Or, par exemple, les documents produits par un traitement de texte lambda doivent pouvoir être lus par un traitement de texte bêta, et réciproquement. La coopération et l’échange sont à ce prix. Il s’agit là d’une question fondamentale de l’informatique et de la fracture numérique. Tout citoyen du monde doit pouvoir avoir accès à ses données, indépendamment du matériel et du logiciel qu’il utilise. De plus en plus de biens informationnels ont une version numérisée. L’enjeu est d’accéder au patrimoine culturel de l’humanité, de participer à sa production, d’être un acteur à part entière du partage et de la coopération.

Avec le libre, chaque communauté peut prendre en main la localisation/culturisation qui la concerne, connaissant ses propres besoins et ses propres codes culturels mieux que quiconque. Il y a donc, outre une plus grande liberté et un moindre impact des retours économiques, une plus grande efficacité dans le processus, en jouant sur la flexibilité naturelle des créations immatérielles pour les adapter à ses besoins et à son génie propre. C’est aussi plus généralement ce que permettent les « contenus libres », c’est-à-dire les ressources intellectuelles – artistiques, éducatives, techniques ou scientifiques – laissées par leurs créateurs en usage libre pour tous. Logiciels et contenus libres promeuvent, dans un cadre naturel de coopération entre égaux, l’indépendance et la diversité culturelle, l’intégration sans l’aliénation.

Les logiciels (et les ressources) libres, composante à part entière de l’industrie informatique, ne peuvent qu’avoir une place de choix dans la lutte contre la fracture numérique. Sans pour autant verser dans l’angélisme. Entre les grands groupes d’acteurs du libre (communautés de développeurs, entreprises, clients comme les collectivités), dont les motivations et ressorts sont divers, il existe des conflits et des contradictions. Des dérives sont possibles, comme des formes de travail gratuit. Mais au-delà des volontés des individus, il y a la logique profonde d’une façon efficace de produire des contenus de qualité[17].

L’accès à la culture informatique

Dans un texte de l’UNESCO, TIC dans l’éducation[18], il est dit que « l’utilisation des TIC dans et pour l’éducation est vue maintenant dans le monde entier comme une nécessité et une opportunité. ». Les grandes questions sur lesquelles l’UNESCO se concentre en tant « qu’expert et conseiller impartial » sont : « Comment peut-on employer les TIC pour accélérer le progrès vers l’éducation pour tous et durant toute la vie ? (…) En second lieu, les TIC, comme tous les outils, doivent être considérées en tant que telles, et être employées et adaptées pour servir des buts éducatifs. » Elle revendique que « l’initiation à l’informatique soit reconnue comme une compétence élémentaire dans les systèmes d’enseignement »[19].

Le numérique, ce sont des outils conceptuels, des abstractions, une discipline scientifique et technique en tant que telle. Au service des autres disciplines, comme le sont les mathématiques. L’ordinateur est une prothèse du cerveau, dont on se sert d’autant plus intelligemment qu’on en connaît l’« intelligence »[20]. La fracture numérique ne serait-elle pas aussi (d’abord ?) une fracture culturelle, qui ne concerne pas que le Sud ? D’ailleurs, ne parle-t-on pas fréquemment de l’« accès » à la culture ?

« L’utilisation d’un outil, si fréquente et diversifiée soit-elle, ne porte pas en elle-même les éléments qui permettent d’éclairer sa propre pratique. »[21] « Comment en effet procéder à une recherche d’information efficace lorsque l’on n’a aucune connaissance du mode de fonctionnement de l’instrument utilisé ? »[22] Or, une enquête menée auprès de 640 000 utilisateurs de l’internet en France en 2001 avait montré que 87 % d’entre eux ne savaient pas se servir d’un moteur de recherche[23]. « Depuis que "l’homo faber" fabrique des outils et s’en sert, une bonne intelligence de l’outil est considérée comme nécessaire pour une bonne utilisation, efficace, précise et raisonnée : plus on en sait quant aux possibilités de réglage et aux conditions d’utilisation mieux cela vaut, partout. Il n’y aurait que l’informatique qui échapperait à cette règle et où l’ignorance serait un avantage ! »[24].

Partout dans le monde, lutter véritablement contre la fracture numérique suppose de donner à tous les élèves les fondamentaux scientifiques du domaine[25]. L’objectif est la maîtrise de ces instruments intellectuels d’un type nouveau. Elle n’est pas vraiment aisée et nécessite des années d’apprentissage (pour un individu il faut environ 20 ans pour maîtriser l’ensemble des instruments et méthodes liés à l’exercice d’une pensée rationnelle). On voit mal comment la diffusion d’objets matériels permettrait en elle-même de raccourcir les délais d’apprentissage, comment on entrerait dans le monde du numérique, abstrait et conceptuel, sans en faire un objet d’étude.

À l’appui de cette nécessité d’enseignement en tant que tel, le fait que la fracture numérique peut se loger là où on ne l’attend pas. Ainsi pointe-t-on une fracture numérique qui émerge, non plus entre les particuliers, mais entre les entreprises, notamment les plus petites et les plus grandes[26]. D’un côté « les mieux loties, accompagnées d’une armée de consultants ou naturellement aguerries à ces sujets ». De l’autre « des centaines de milliers d’entreprises qui souhaitent ardemment tirer profit, dès maintenant, des outils à disposition mais qui butent sur la complexité technologique, les tarifications inadaptées, les offres sur ou sous dimensionnées sans parler des compétences inaccessibles et en voie de raréfaction ». En fait, on voit aujourd’hui émerger « une nouvelle e-aristocratie qui va à l’encontre de la promesse de démocratisation des bénéfices économiques des NTIC (productivité, économie, accessibilité) ».

Dans leur rapport sur l’économie de l’immatériel[27], Maurice Lévy et Jean-Pierre Jouyet soulignent que, dans l’économie de l’immatériel, « l’incapacité à maîtriser les TIC constituera (…) une nouvelle forme d’illettrisme, aussi dommageable que le fait de ne pas savoir lire et écrire ». Ils mettent en évidence les obstacles qui freinent l’adaptation de notre pays à l’économie de l’immatériel, notamment « notre manière de penser », invitant à changer un certain nombre de « nos réflexes collectifs fondés sur une économie essentiellement industrielle ».

La lutte contre la fracture numérique a bien d’abord une dimension éminemment culturelle. Il s’agit d’un enjeu éducatif majeur, de culture générale scientifique et technique pour tous. D’un défi aussi dont les réponses pour le relever se trouvent d’évidence dans les systèmes éducatifs, dont c’est une des raisons d’être.

Jean-Pierre Archambault
Chargé de mission au CNDP-CRDP de Paris

Notes

[1] Crédit photo : Ferdinand Reus (Creative Commons By-Sa)

[2] Les politiques de tous les bords, beaucoup d’institutions (Banque Mondiale et le G8, l’Union Européenne, l’UNESCO…) s’emparent de la problématique de la fracture numérique, avec l’objectif affirmé de la résorber. D’autres s’en inquiètent : « Dejà, le fait qu’une telle notion fasse l’objet d’un consensus aussi large, au sein de groupes sociaux qui s’opposent les uns aux autres, donne à penser qu’elle est scientifiquement fragile. ». Voir La fracture numérique existe-t-elle ?, Éric Guichard, INRIA – ENS.

[3] http://www.liberationdelacroissance.fr/files…

[4] http://www.sophianet.com/wtm_article47688.fr.htm

[5] On pourra se référer aux études de Yochai Benkler reprises par Lawrence Lessig dans son remarquable ouvrage L’avenir des idées, Presses universitaires de Lyon, 2005. Voir « Innover ou protéger ? un cyber-dilemme », Jean-Pierre Archambault, Médialog n°58.

[6] Mais, à trop privilégier dans le discours le nécessaire équipement de tous, il y a le risque de donner à croire que les intérêts des constructeurs ne sont pas loin, en arrière plan de la « noble » lutte contre la fracture numérique.

[7] http://thot.cursus.edu/rubrique.asp?no=27124

[8] http://www.tunisiait.com/article.php?article=2912

[9] ttp://www.dsf-fsn.org/cms/component/option…

[10] http://repta.net/repta/telechargements/Universite_Tunisie…

[11] Premier atelier RELI@ à Dakar : Appel de DAKAR pour la production panafricaine de ressources pédagogiques numériques libres.

[12] http://sesamath.net

[13] http://portal.unesco.org/fr…

[14] http://www.sesamath.net/blog…

[15] http://www.claroline.net/index.php?lang=fr

[16] http://www.curriki.org/xwiki/bin/view/Main/WebHome

[17] L’économie du logiciel libre, François Élie, Eyrolles, 2008.

[18] http://portal.unesco.org/ci/fr/ev.php-URL_ID=2929…

[19] http://portal.unesco.org/ci/fr/ev.php-URL_ID=4347…

[20] « Informatique et TIC : une vraie discipline ? », Jean-Pierre Archambault, Médialog n° 62,

[21] Ordinateur et système éducatif : quelques questions, in Utilisations de l’ordinateur dans l’enseignement secondaire, Jean-Michel Bérard, Inspecteur général de l’Éducation nationale, Hachette Éducation, 1993.

[22] « La nature du B2i lui permet-elle d’atteindre ses objectifs ? » Jean-François Cerisier, Les dossiers de l’ingénierie éducative n° 55, septembre 2006.

[23] http://barthes.ens.fr/atelier/theseEG/

[24] « Enseigner l’informatique », Maurice Nivat, membre correspondant de l’Académie des Sciences,

[25] Voir : Le bloc-notes de l’EPI, La formation à l’informatique et aux TIC au lycée / Proposition de programme / Seconde Première Terminale et « Quelle informatique enseigner au lycée ? », Gilles Dowek, professeur d’informatique à l’École Polytechnique, intervention à l’Académie des Sciences du 15 mars 2005.

[26] Une fracture numérique existe aussi entre les entreprises, Vincent Fournoux, Le Journal du Net du 31 juillet 2008.

[27] L’économie de l’immatériel – La croissance de demain, rapport de la commission sur l’économie de l’immatériel remis à Thierry Breton, Maurice Lévy, Jean-Pierre Jouyet, décembre 2006.