1

Avez-vous le réflexe OpenStreetMap ?

Francois Schnell - CC byDans la série « les projets pharaoniques (mais sans esclaves) de la culture libre hors logiciels », on cite toujours, et à juste titre, Wikipédia. Mais il se pourrait bien qu’OpenStreetMap vienne rapidement le rejoindre aux yeux du grand public.

Afin d’accélerer le mouvement, adoptons tous « le réflexe OpenStreetMap », qu’il s’agisse de participer directement à son édition ou plus modestement de l’utiliser autant que faire se peut dans nos documents, messages, sites, blogs et autres réseaux sociaux.

Qu’est-ce qu’OpenStreetMap, ou OSM pour les intimes ?

(et je m’adresse ici bien moins aux fidèles lecteurs du Framablog qu’à ceux, bienvenus, qui arrivent un peu par hasard et curiosité, par exemple à partir de Wikio et son « classement » des blogs)

Commençons par ce petit reportage vidéo issu des archives Framatube, et poursuivons en interrogeant encore (et toujours) Wikipédia : « OpenStreetMap est un projet pour créer des cartes libres du monde, en utilisant le système GPS ou d’autres données libres. OpenStreetMap a été fondé en juillet 2004 par Steve Coast au University College de Londres. Les cartes sont disponibles sous les termes de la licence Creative Commons Attribution-ShareAlike 2.0. Par l’utilisation de moyens informatiques basés sur Internet qui permettent l’intervention et la collaboration de tout utilisateur volontaire, le projet OpenStreetMap relève de la géomatique 2.0 et est aussi une contribution à ce qui est appelé la néogéographie. »

Du coup on le surnomme parfois « le Wikipédia de la cartographie » et, licences et affinités obligent, on ne s’étonnera pas de trouver les cartes de l’un dans les articles de l’autre.

Mais vous en saurez beaucoup plus en parcourant l’excellent dossier OpenStreetMap, les routards du web réalisé cet été par Camille Gévaudan pour le non moins excellent site Ecrans.fr (l’année d’avant c’était le tour de Wikipédia mais surtout de la désormais célèbre Saga Ubuntu d’Erwan Cario !).

Non seulement ce dossier nous permet de mieux appréhender le projet dans son extraordinaire dimension collaborative (avec interview de contributeurs à la clé) mais il fournit en prime un mode d’emploi par l’exemple pour ceux qui aimeraient à leur tour participer à dessiner librement le monde. Ce qui, par contagion, est une conclusion presque naturelle de la lecture du dossier (quand bien même on vous prévient qu’il faut être sacrément motivé parce que techniquement parlant les ballades « Je cartographie ma ville pour OpenStreetMap » relèvent parfois du parcours du combattant).

Extraits de l’introduction :

OpenStreetMap, sorte de Wikipédia de la cartographie, est un projet un peu fou qui tente depuis 5 ans de redessiner le monde (…), rue après rue. Sa communauté œuvre d’abord par idéologie. Convaincue que les données géographiques de la planète devraient appartenir au bien commun et non aux agences qui les ont relevées pour les exploiter commercialement.

(…) Et comme toute réutilisation des contenus propriétaires de Google Maps, Yahoo ! Maps et autres Mappy est formellement interdite, l’exercice est un peu sportif… au sens littéral du terme. Ni clavier ni souris : les outils du cartographe 2.0 sont un appareil GPS et une voiture, un vélo ou une bonne paire de baskets. On enregistre son itinéraire en parcourant méthodiquement les rues de sa ville ou les sentiers d’une randonnée locale, avant de transférer les coordonnées sur son ordinateur et de convertir le paquet de chiffres en tracés de routes. La dernière étape consiste à associer aux tracés des informations (nom, type de voie, largeur…) qui leur permettent d’être correctement interprétés et affichés sur la carte interactive.

(…) L’ampleur du travail à fournir et le côté un peu « roots » du projet ne semble pas décourager les participants, dont les contributions sont de plus en plus nombreuses. Quand on s’est toujours figuré les militants du Libre comme des geeks blafards et sédentaires, on ne peut qu’être fortement intrigué…

Alors, à Ecrans.fr, on a eu envie d’essayer aussi. Un GPS en main (…), on se donne comme objectif d’apporter une petite pierre à l’édifice. Disons deux ou trois rues, pour commencer. Lire la suite…

Mais est-ce que ne pas posséder de GPS est éliminatoire pour contribuer ? Que nenni !

Rendez-vous sur le wiki francophone du site officiel où l’on vous expliquera[1] comment vous pouvez cartographier les traces GPS existantes et/ou ajouter des informations (ou tags) aux cartes qui ne demandent que cela (cf cette page et cette aide-mémoire pour avoir une idée de la diversité de la chose). On remarquera qu’il n’y aucune raison de se restreindre aux routes et chemins proprement dits, comme en témoignent ces extensions au projet que sont OpenCycleMap[2] (vélo), OpenPisteMap (ski) ou encore OpenSeaMap (balises maritimes) !

Imaginons maintenant que vous n’ayez ni GPS, ni la patience, la disponibilité, etc. d’enrichir les informations des cartes ? Et bien vous pouvez quand même participer !

En effet, à chaque fois que vous avez besoin d’afficher une carte dynamique sur vos sites, oubliez Google Maps[3] et autres aspirateurs propriétaires à données, et pensez à OpenStreetMap.

Comme la planète entière n’a pas encore été « openstreetmapisée » (une question de temps ?), il se peut fort bien que votre zone géographique soit mal ou non renseignée. Mais dans le cas contraire (comme c’est généralement désormais le cas pour les grandes voire moyennes villes occidentales), ce serait vraiment dommage de s’en priver et ne pas en profiter du même coup pour faire à moindre effort la promotion de ce formidable projet.

Comment procède-t-on concrètement ? C’est très simple. On se rend sur le site d’OpenStreeMap et on parcourt le monde en zoomant jusqu’à tomber sur le lieu qui nous intéresse. Si vous êtes satisfait du résultat (c’est à dire si les dimensions et la qualité de la carte vous conviennent), cliquez alors sur l’onglet Exporter en choisissant le format HTML incorporable. Un code à recopier directement sur votre site Web vous sera alors proposé (notez au passage que l’on peut également exporter en XML, PDF, PNG, etc.).

Voici ce que cela donne ci-dessus pour mon chez moi à moi qui se trouve pile au centre de la carte (que l’on peut aussi consulter en grand sur le site d’OSM bien entendu).

D’ailleurs si vous passez un jour à Rome, n’hésitez pas à me contacter pour qu’on refasse le monde ensemble autour d’un cappuccino !

Autant le refaire plus libre qu’avant du reste, si vous voulez mon humble avis 😉

MapOSMatic - Exemple de La Cantine à ParisMais ça n’est pas fini ! En combinant les données, le très prometteur projet dérivé MapOSMatic vous délivre de véritables cartes « qualité pro » avec un magnifique index coordonné des rues.

Par exemple, si je veux vous donner rendez-vous à La Cantine à Paris pour un « TrucCamp » autour du libre, je peux faire comme précédemment mais je peux également y adjoindre une carte générée par MapOSMatic avec le PDF du plan et de son index (cf photo ci-contre et pièces jointes ci-dessous). Impressionnant non ?! Le tout étant évidemment sous licence libre.

Il faut vraiment être blasé pour ne pas s’enthousiasmer une fois de plus sur la formidable capacité de travail que peuvent fournir bénévolement les gens lorsqu’il sont motivés par une cause qui leur semble noble, juste et source de progrès.

Pour le moment le programme est restreint à la France (à ce que j’en ai compris), pour cause de projet démarré chez nous[4], mais nous n’en sommes qu’au début de l’application qui ne compte certainement pas en rester là.

Voilà, d’une implication forte (mais qui fait faire de belles ballades individuelles ou collectives en mapping party) à une participation plus légère (qui rend service et embellit nos sites Web), prenons tous « l’habitude OSM » et parlons-en autour de nous. Ce n’est pas autrement que nous réussirons là encore un projet de type « ils ne savaient pas c’était impossible alors ils l’ont fait » qu’affectionne tout particulièrement le logiciel libre lorsqu’il part à la rencontre des biens communs.

« La route est longue mais la voie est libre », avons-nous l’habitude de dire à Framasoft. Ce n’est pas, bien au contraire, le projet OpenStreetMap qui nous démentira !

Notes

[1] Dans la mesure où l’édition dans OpenStreetMap n’est pas forcément chose aisée, je me prends à rêver d’un framabook dédié ouvrant plus facilement l’accès au projet. Des volontaires ?

[2] Crédit photo : François Schnell (Creative Commons By)

[3] À propos de Google Maps, quelques questions pour d’éventuels commentaires. Peut-on considérer que les deux projets sont concurrents ? Est-ce que la comparaison est valable et valide ? Est-ce que, à terme, l’un peut librement se substituer à l’autre ?

[4] À propos de MapOSMatic, sachez que l’un des prochains entretiens du Framablog concernera justement ce projet puisque nous partirons à la rencontre de l’un de ses créateurs, le prolifique développeur Thomas Petazzoni.




LinuxÉdu, le groupe qui fait bouger le Libre éducatif de Toulouse et sa région

Logo LinuxEdu - ToulouseMon petit doigt me dit que cette année le Framablog va moins se lamenter sur la situation du Libre dans l’éducation nationale française que par le passé.

D’abord parce même au sein du ministère, les mentalités évoluent. Mais aussi parce que nous souhaitons être plus constructifs en mettant l’accent sur les nombreuses et positives actions de terrain (sachant que ces dernières ne bénéficient pas forcément de la même attention médiatique qu’un projet comme l’Académie en ligne par exemple).

Ici, on ne se lamente pas mais on agit. Et ces actions sont autant de petits ruisseaux qui convergent lentement mais sûrement vers une grande rivière, rivère qui finira bien par passer un jour sous les fenêtres du ministère !

Et justement, cela tombe bien, parce qu’avec le dynamique projet LinuxÉdu de Toulouse et sa région, on tient une action des plus intéressantes qui ne demande qu’à « faire jurisprudence ».

Il est en effet rare, voire unique, d’afficher ainsi officiellement (sur un site académique) sa volonté de promouvoir le logiciel libre à l’école, de réussir à pénétrer le monde a priori fermé de la formation continue pour proposer des stages aux titres plus qu’explicites (exemple : « Linux et les logiciels libres pour l’éducation »), et d’organiser d’originales rencontres publiques (comme les rendez-vous « BarCamp TICE libres » qui débutent le 7 octobre prochain) en collaboration étroite avec Toulibre, le GULL du coin (il y a même un cinéma local impliqué, la totale quoi !).

Nous nous devions d’en savoir plus, en partant à la rencontre de l’un des ses principaux acteurs.

PS : Si d’autres académies veulent se manifester dans les commentaires pour évoquer leurs propres initiatives en faveur du Libre à l’école, qu’elles n’hésitent surtout pas.

Entretien avec Rémi Boulle

Rémi Boulle, bonjour, une petite présentation personnelle ?

Rémi BoulleBonjour, dans la vraie vie, je suis père de famille.

Dans le monde du libre, je participe au projet OpenOffice.org Éducation, suis membre du CA d’EducOOo (qui développe OOo4kids), participe au groupe éducation de l’APRIL et bien sûr au groupe LinuxEdu de l’académie de Toulouse.

Quelles fonctions exercez-vous au sein de l’Académie de Toulouse ?

Je suis professeur de maths dans un collège de la proche banlieue toulousaine. J’enseigne depuis une dizaine d’année (déjà !). Je suis membre de l’IREM (groupe maths et Internet) et fais aussi de la formation continue (stages LinuxÉdu, tableur au collège, WIMS).

Qu’est-ce que le groupe LinuxÉdu ? (historique, structures, objectifs, effectifs, champ d’activites, etc.)


Vu la montée en puissance du libre dans nos métiers et la nécessité pour un professeur de pouvoir utiliser, modifier, redistribuer des ressources et ne voyant rien venir du côté de l’institution, nous nous sommes dits que c’était à nous de prendre des initiatives et de proposer.

Avec des collègues (Frédéric Bellissent et Yves Dhenain), nous avons donc proposé un premier stage « Linux et les logiciels libres pour l’éducation ». Celui-ci a eu beaucoup de demandes. L’intérêt des personnels pour le libre et pour linux est bien présent. Le libre est, pour les enseignants, une nécessité professionnelle. Depuis, nous avons lancé un stage « niveau 2 ».

Tout cela nous a beaucoup encouragé. Nous avons donc continué de fédérer au plan académique les professionnels de l’éducation utilisateurs du libre et à intensifier nos actions. La liste de diffusion, deux sites Internet, le canal IRC, le micro-blogging… sont d’ailleurs des outils essentiels pour cela.

La structure du groupe LinuxÉdu ? Ce serait davantage une communauté de pratique informelle plutôt du côté du bazar que de la cathédrale. Nous mutualisons nos connaissances, échangeons, partageons… Le groupe au sens large est formé de 150 à 200 personnes. On y trouve majoritairement des professeurs, certains en charge de la gestion du réseau de leur établissement mais aussi des personnels du rectorat, des membres des AIDAT (assistance informatique pour les réseaux pédagogiques), du CRIA (idem mais pour les réseaux administratifs) et aussi des développeurs ou des gérants de SSLL travaillant dans l’éducation.

Est-ce le premier et (pour le moment) unique groupe faisant explicitement la promotion du logiciel libre au sein d’un site académique ?


J’ai l’impression que oui. J’espère me tromper. Pourtant faire progresser les pratiques sur ce plan est relativement simple à faire et vite très efficace…

Je profite de cette interview pour lancer un appel à l’ensemble des personnels de l’éducation afin que, dans leurs académies :

  • ils créent une liste de diffusion type linuxedu@ac-monacademie.fr (contacter le service académique ad hoc).
  • ils fassent une communication la plus large possible de l’existence de cette liste dans le maximum de réseaux professionnels (listes professionnelles, syndicats, listes internes…) afin d’en augmenter l’effectif.

Il est fondamental dans un premier temps de rassembler les enseignants innovants que sont les utilisateurs du libre dans une liste de diffusion académique. Le reste suivra.

Vous avez donc réussi à investir la formation continue des enseignants en proposant des stages originaux. Pouvez-vous nous en dire plus ?


Dans notre académie, il n’y avait pas de stages fléchés « ressources libres », « Linux » ou « intéropérabilité ». De nos jours, un Plan Académique de Formation (PAF) sans ce type de contenu ne peut, à mon avis, sembler qu’incomplet. Quid alors des parties « veille technologique et pédagogique », « innovations pédagogiques » sans ce volet ?

Si ce n’était pas à nous de combler ce vide, qui l’aurait fait ?

Il faut savoir qu’en théorie n’importe qui peu proposer des stages de formations. Je veux dire par là que ce n’est pas seulement les gros opérateurs de formations comme les IUFM ou les Inspections. Un personnel peut tout à fait proposer un stage… et voir sa proposition validée. C’est la voie que nous avons suivi.

Lorsque notre proposition de stage est arrivée en commission, je sais qu’elle a été bien accueillie. Le groupe LinuxÉdu s’est constitué au fil de ces formations.

Avez-vous rencontré des résistances internes aussi bien pour ce qui concerne la création de LinuxEdu que pour les propositions de stages ? Mais peut-être que le temps d’une certaine méfiance vis-à-vis du logiciel libre est définitivement révolu ?

Selon Héraclite, les chiens aboient contre les inconnus… face à quelque chose que l’on est incapable de comprendre, l’Homme est plus souvent tenté d’attaquer. Ce fût parfois le cas pour le libre et ce fût le plus souvent cocasse. Ce stade est, je pense, révolu.

Le libre est une solution de qualité professionnelle pour nos établissements scolaires. C’est déjà le cas en entreprise. Au delà du logiciel, la licence libre est tout ce qu’il y a de plus compatible avec les missions d’un professeur. Cela ne semble pas faire de doutes. Reste à vraiment franchir le pas.

Nous travaillons beaucoup avec le Centre Régional de Documentation Pédagogique (CRDP) de Midi-Pyrénées. Nous y avons toujours eu un accueil des plus favorables. Ils ont été un partenaire crucial pour les journées TICE libres en 2009.

La Mission aux TICE de notre académie avec qui nous avons de très bons contacts nous a ouvert la liste de diffusion ainsi qu’un hébergement sans difficultés. Elle fait aussi partie de nos partenaires, nous y avons notamment déjà fait une réunion de travail pour notre projet de paquets « linuxedu ».

De quoi s’agit-il ?

Quasiment tous les serveurs des réseaux pédagogiques des établissements sont sous windows, ce n’est pas le cas pour les réseaux administratifs et des serveur web du rectorat qui sont sous Linux.

L’idée est de mettre à disposition des établissements un paquet logiciel pour linux qui automatise l’intégration d’une machine Linux dans le réseau et qui installe aussi toute une sélection de logiciels et ressources pédagogiques.

Ainsi, un élève ou un professeur, qu’il soit sous Linux ou Windows, utilisera le même compte, retrouvera ses propres documents et bénéficiera de la complémentarité des deux univers.

On a tendance à caricaturer le corps enseignant comme un bloc monolithique assez difficile à déplacer. Comment faites-vous pour arriver à convaincre les enseignants de « s’essayer au Libre » ? Abordez-vous le sujet en insistant sur la qualité technique (angle « open source ») ou en mettant plutôt l’accent sur le caractère éthique et social du logiciel libre (angle « free software ») ?


L’accès au code source importe peu à la très grande majorité des enseignants. Ce n’est tout simplement pas notre métier.

L’angle idéal est celui des ressources. Pouvoir récupérer une ressource pédagogique, la modifier, y adjoindre des éléments venant d’ailleurs, la redistribuer à nos élèves, à nos collègues c’est un aspect très important de notre travail. Cela implique d’avoir des formats ouverts, d’utiliser des logiciels librement distribuables, des ressources libres… Le libre est une condition nécessaire d’exercice forte de notre métier. D’ailleurs beaucoup d’enseignants développent des logiciels libres éducatifs.

Le monde propriétaire même s’il a des produits de qualité complique inutilement notre travail, pose des barrières à la transmission des connaissances à nos élèves, à la mutualisation de nos ressources : problèmes de formats qui ne sont pas intéropérables, de logiciels dont la mise à jour n’est pas automatique, dont on impose indirectement l’achat ou la copie illégale à nos élèves, problème de licence des ressources, difficulté d’interagir avec les développeurs… C’est une vision de l’éducation qui contraste quelque peu avec les valeurs de l’école de la République.

Cette découverte s’accompagne-t-elle de réelles migrations chez nos collègues, jusqu’à changer de système d’exploitation ?


On en observe de plus en plus. Dans tous les cas, la curiosité et l’envie sont très vives. Ce BarCamp est aussi destiné à accompagner celles et ceux qui souhaitent migrer.

Quelles sont vos relations avec la très dynamique association TouLibre ?


Excellentes ! Je suis d’ailleurs membre de Toulibre même si je participe plus souvent aux Qjelt. Ils nous ont beaucoup aidé lors de l’organisation de LinuxEdu Pride 2008, des journées TICE libres 2009 ainsi que pour La journée du libre pour l’éducation en partenariat avec les cinémas Utopia. Nous savons que nous pouvons compter sur eux dans le futur.

Le mercredi 7 octobre prochain aura lieu le premier « BarCamp TICE libres » au CRDP Midi-Pyrénées à Toulouse. Pourquoi une telle manifestation et quel en sera le programme ?


L’idée est de permettre aux collègues d’avoir une antenne du libre éducatif à leur disposition, de servir de point relais, de lieu d’innovation technique et pédagogique. Comme nous avons tous des centres d’intérêts variés et que nous voulons tous avancer, l’organisation sous forme de BarCamp s’est imposée.

Selon Wikipédia, Un BarCamp, c’est une rencontre, une non-conférence ouverte qui prend la forme d’ateliers-événements participatifs où le contenu est fourni par les participants qui doivent tous, à un titre ou à un autre, apporter quelque chose au Barcamp.

Tout le monde est invité à participer quelles que soient ses compétences techniques : on peut présenter un logiciel, un exemple d’activité utilisant les TICE, aborder des aspects techniques mais aussi une simple idée…

« BarCamp » c’est pour faire moderne ou bien cela cache une véritable originalité dans l’organisation et le déroulement de l’évènement ?


Un peu les deux j’avoue. J’ai l’impression que les programmes trop définis, trop minutés ont tendance a attirer moins de participants. L’idée de base est que nous avons tous des compétences, des connaissances et que nous souhaitons les donner et en recevoir. Partageons-les !

Outre TouLibre et LinuxÉdu, Toulouse accueille également le président d’Ubuntu-fr (Christophe Sauthier) et la présidente de Wikimedia France (Adrienne Alix). Est-ce un hasard ? Pourquoi Toulouse a-t-elle de telles bonnes dispositions pour le Libre ? Et pourquoi ne pas avoir encore organisé de RMLL ?


Je ne sais pas. Peut-être le confit de canard et le Gaillac ont-ils tendance à libérer ? À vérifier lors des RMLL à Toulouse 😉

Une dernière chose. Est-ce que le service rendu par le réseau Framasoft vous est utile. Et que nous suggéreriez-vous pour l’améliorer ?


Je suis venu au libre par l’approche « free software » et avec l’aide de Framasoft. Surtout continuez !




Mon Université m’offre ma licence Microsoft Windows

James Wheare - CC byLorsque vous vous rendez sur le site de Microsoft, vous pouvez lire ceci : « MSDN Academic Alliance (MSDNAA) est une offre logicielle destinée à l’enseignement supérieur. Les établissements ayant souscrit à MSDNAA bénéficient des logiciels Microsoft pour la pédagogie (salles de cours, de TP, libre-service pour les étudiants,…) incluant de nombreux produits tels que Windows Vista, Windows XP, Windows Server 2008, Visual Studio 2008, Virtual PC, Visio… Ces logiciels peuvent également être installés sur les machines personnelles des étudiants et enseignants chez eux ! Le tout sans payer les licences des produits. »

Un étudiant d’un de ces établissements peut donc installer sur sa machine personnelle l’offre logicielle contenu dans cet accord, en particulier le logiciel d’exploitation Windows. Mais que se passe-t-il s’il cet étudiant compte s’acheter un nouveau PC pendant son cursus universitaire ? Il ira comme tout le monde dans un magasin spécialisé et achètera un ordinateur avec, encore trop souvent, un Windows préinstallé dedans[1]. Or il n’a aucune raison de le payer puisque son établissement peut le lui fournir gratuitement suite justement aux termes de l’accord MSDNAA !

C’est ce léger « bug dans le système » que souhaite exploiter l’équipe Racketiciel, dans sa dernière campagne Mon Université m’offre ma licence Microsoft Windows.

L’objectif est non seulement d’informer les étudiants pour qu’ils ne se retrouvent pas à payer deux fois leur système d’exploitation, mais aussi de continuer à alerter l’opinion sur la question de la vente liée afin de maintenir la pression sur les constructeurs.

Soutenant cette opération, nous relayons bien volontiers l’appel à la communauté ci-dessous.

Pour les libristes

URL d’origine du document

25 septembre 2009 – Racketiciel.info

Cher(e) Linuxien(ne), cher(e) BSDiste,

Nous, libristes, avons besoin d’une concurrence saine sur les systèmes d’exploitation.

C’est pourquoi nous, équipe racketiciel, nous nous battons contre la situation actuelle où la vente du matériel informatique est subordonnée à celle de la licence des logiciels préinstallés.

Aujourd’hui, nous sommes en train de lancer une campagne mondiale qui devrait marquer un pas de plus dans ce combat, et nous avons besoin de votre aide à tous.

Les actions

Sur le terrain juridique, plusieurs procès ont obligé les constructeurs à rembourser celui qui n’avait pas l’usage des logiciels, en partie grâce au guide du remboursement et à notre équipe accompagnement. Toujours sur le terrain juridique, quelques procès, initiés par l’UFC Que Choisir ou par le Ministère Public, ont obligé les constructeurs à afficher le prix de Microsoft Windows préinstallé. Sur le terrain politique, plusieurs questions au gouvernement ont été présentées par des députés, grâce au précieux travail d’explication de quelques membres de la communauté du libre. Sur le terrain administratif, les contacts sont réguliers avec la DGCCRF.

Le résultat

Ces derniers temps, vous avez peut-être noté l’apparition d’étiquettes dans le rayon informatique de certains magasins, annonçant une possibilité de se faire rembourser Microsoft Windows auprès du constructeur. C’est sans doute en grande partie le résultat de toutes ces actions.

Pour autant, c’est encore totalement insuffisant : l’affichage du prix de la licence n’est pas effectif auprès de l’appareil.

Néanmoins, cette possibilité de remboursement, présente pour certains constructeurs seulement, est irréversible : tout retour en arrière de leur part mettrait trop fortement en lumière la question de la vente subordonnée. Nous entendons profiter de cette évolution irréversible pour mettre la pression d’une manière différente.

C’est l’heure du combat sur le terrain économique

Nous lançons une campagne mondiale :
« Mon Université m’offre ma licence Microsoft Windows »

Les grandes écoles et les universités mettent souvent les licences Microsoft Windows à la disposition de leurs étudiants, y compris sur leur ordinateur personnel. Or, en magasin, les étudiants déboursent tout de même le prix de la licence lors de l’achat de leur ordinateur.

Le but de la campagne est donc d’inciter un maximum d’étudiants dans le monde entier à se faire rembourser la licence (dite OEM) du système Microsoft Windows préinstallé puisqu’ils bénéficient de la licence obtenue via leur institution.

Pourquoi ce type de campagne ?

Pour les étudiants sous Microsoft Windows (et ils sont les plus nombreux), c’est toujours quelques dizaines d’euros de pris. Pour nous, libristes, qui pâtissons à plein de la vente subordonnée, c’est l’effet de masse qui nous intéresse en faisant appel aux étudiants sous Windows. La pression économique sera d’autant plus forte sur les constructeurs, et la pression politique sur l’administration permettra d’imposer la simplification des procédures de remboursement voire de passer à l’optionnalité que nous réclamons.

À terme, l’abolition de la vente subordonnée libérera une place économique pour des offres commerciales autour de GNU-Linux et des autres systèmes libres, avec, nous l’espérons, leur plus large diffusion.

Quel peut être votre rôle ?

Nous cherchons parmi vous des étudiants volontaires pour relayer dans vos facs et écoles respectives l’information sur cette campagne par voie d’affiches, de mails ou tout autre moyen qui vous paraîtra approprié.

Nous comptons sur votre aide sans laquelle cette campagne est inconcevable ! Merci de vous signaler à l’adresse msdnaa@racketiciel.info en indiquant, dans le sujet du message :
Nom_du_Gull/Dépt/Ville/Sigle_Fac_ou_école.

Dans le corps de message, mettez l’adresse complète de votre unité universitaire dans laquelle vous pensez pouvoir relayer l’info (plusieurs si c’est dans vos cordes) et votre email de contact (si différent de celui utilisé pour nous écrire).

Un grand merci !

L’équipe racketiciel.

Notes

[1] Crédit photo : James Wheare (Creative Commons By)




Rencontre avec Caroline d’Atabekian, présidente et cofondatrice de WebLettres

Pourquoi « Framasoft » ? me demande-t-on parfois. Quelle est sa genèse et la signification de ce nom étrange qui évoque tantôt Microsoft, tantôt Framatome.

Retour en arrière. Nous sommes en l’an 2000 dans un collège de Bobigny où une professeur de français et un professeur de mathématiques (votre serviteur) expérimentent ensemble l’usage pédagogique des nouvelles technologies, en direction notamment des élèves en difficulté à l’entrée en sixième. Comme il fallait bien donner un nom au projet, ce sera « Framanet » pour « FRAnçais et MAthématiques en IntraNet »[1].

Le prof de maths se rendit compte qu’avec le temps il avait accumulé une liste conséquente de logiciels libres et gratuits, régulièrement utilisés dans le cadre du projet, qu’il pouvait être intéressant de communiquer à ces collègues. Il décida d’ouvrir une sous-rubrique dédié sur le site web de Framanet : nom de code « Framasoft ». Plus tard, cette sous-rubrique devint site et nom de domaine à part entière, et le pingouin pris son envol…

Et la prof de français me direz-vous ? Elle n’a pas chômé non plus, loin de là, puisqu’elle est à l’initiative[2] de l’association WebLettres, dont le site est rapidement devenu un incontournable rendez-vous des professeurs de la discipline (Framasoft et WebLettres, deux projets d’envergure indirectement issus d’un collège classé ZEP de Seine-Saint-Denis, rien que pour cela l’histoire méritait aussi, je crois, d’être signalée).

Elle s’appelle Caroline d’Atabekian et je suis ravi (et un peu ému) de l’accueillir pour la première fois en ces lieux, à l’occasion de la sortie officielle de Vocabulettres, « une plate-forme d’exercices interactifs à partager » développée par ses soins, dont le caractère collaboratif est souligné par le choix de la licence Creative Commons By-Sa.

Entretien avec Caroline d’Atabekian

Bonjour Caroline, une petite présentation personnelle en quelques mots ?

Je suis professeur de français. J’ai fait mes débuts dans un collège du neuf-trois en 1997, à l’heure des balbutiements d’Internet. J’avais bien compris l’intérêt de mon ordinateur pour préparer mes cours mais il ne m’était pas venu à l’idée que je pouvais m’en servir avec les élèves. C’est un collègue de mathématiques qui m’a un jour ouvert la porte de la salle informatique du collège et m’a ouvert en même temps les yeux sur tout ce qu’on pouvait y faire. Il s’appelait Alexis Kauffmann.

Aujourd’hui j’enseigne toujours au collège pas loin d’une salle informatique, mais à Paris, et je suis présidente de WebLettres.

Alors justement, qu’est-ce que WebLettres ?

C’est une association loi 1901 de professeurs de lettres née en 2002 du regroupement d’une poignée de profs animant un site web pédagogique et qui ont décidé de fédérer leur énergie pour réaliser un grand portail à l’intention des collègues. On ne parlait pas encore de web 2.0 à l’époque.

Nous avons démarré sur quelques listes de discussion, un répertoire de liens relatifs aux programmes de français et un espace d’échange de fichiers de cours et séquences didactiques. Puis peu à peu, d’autres collègues nous ont rejoints, et nous avons créé de nouveaux services : groupes de travail, édition de livres, plateforme de blogs pour les classes…, toujours gratuits et sur la base du bénévolat.

Nos fidèles lecteurs connaissent bien Sésamath. Est-il pertinent ou abusif de dire que WebLettres est au français ce que Sésamath est aux mathématiques ?

C’est à la fois pertinent et abusif. C’est pertinent, dans la mesure où nos associations, avec celle des Clionautes en histoire-géographie, sont animées par un esprit commun, qui consiste à favoriser des échanges entre pairs, promouvoir l’intégration des TIC dans l’enseignement et parfois défendre un engagement pédagogique prononcé, tout cela selon une philosophie de service public, pour les profs mais aussi les élèves. Elles sont en outre fondées sur le même modèle, fait sur lequel nous avons d’ailleurs largement communiqué, ayant connu une histoire et un développement similaires marqués par trois étapes-clés successives : la mutualisation, le travail coopératif puis le travail collaboratif, même si ces étapes ont eu lieu plus ou moins tardivement, plus ou moins massivement[3].

Weblettres - Clionautes - Sésamath - Copyright Soph

C’est abusif, dans la mesure où Sésamath est de très loin l’association qui s’est le plus développée, notamment grâce au travail collaboratif qu’elle a entrepris très tôt et qui lui a permis de mener des projets éditoriaux d’envergure, imprimés ou numériques. Sésamath est plus nombreuse, plus connue et jouit d’une force de travail bien supérieure à la nôtre. Notre engagement dans le travail collaboratif est encore récent et timide (et surtout, pas encore très voyant !) mais il est réel. Nous avons notamment un projet d’édition de livrets d’activités TICE, qui est un projet commun aux trois associations et auquel participent tous les collègues qui ont répondu à notre appel à contributions. Cela dit, nous sommes connus de tous les professeurs de français, ce qui est satisfaisant pour nous et, pour donner un ordre de grandeur, nous recevons aux alentours de 300 000 visiteurs uniques par mois.

Vous sortez donc en cette nouvelle rentrée scolaire, le projet Vocabulettres. Pouvez-vous nous en dire plus ?

Vocabulettres est d’abord une plateforme d’exercices interactifs, essentiellement de vocabulaire. Elle propose des types d’exercices bien définis, s’inscrivant dans des corpus cohérents. Cela signifie que les exercices ne sont pas classés en fonction de la technique utilisée (exercices à trous, à listes, etc.) mais en fonction de leur objectif pédagogique (travail sur les synonymes, l’étymologie, etc.). Comme tous les services de WebLettres, elle est gratuite et en libre accès pour tous. Les élèves peuvent, de chez eux, y faire quelques exercices, les enseignants peuvent, en classe, y emmener leurs élèves. Mais ils peuvent aussi utiliser les outils de création proposés par Vocabulettres pour fabriquer leurs propres exercices, en fonction des cours qu’ils sont en train de faire et du niveau de leurs élèves. Ils peuvent même inscrire par lots leurs élèves et leur faire fabriquer eux-mêmes des exercices, destinés par exemples à la classe inférieure, ou à leurs camarades.

Weblettres - Vocabulettres - Copyright Soph

Chacun peut retrouver ses exercices dans sa zone de gestion, l’enseignant donne accès à ses élèves aux exercices de de son choix parmi ceux qu’il a créés. Mais il peut aussi, si l’exercice lui paraît abouti, proposer que celui-ci soit rendu public sur Vocabulettres, c’est-à-dire qu’il apparaisse sur le site, le rendant ainsi disponible à tous. Lorsque l’enseignant propose son travail à la publication, celui-ci est examiné par une équipe d’enseignants (c’est là que le travail collaboratif arrive, car tous les enseignants qui le désirent sont invités à faire partie de cette équipe, y compris – et même de préférence – ceux qui proposent leurs exercices à la publication) ; cette équipe vérifie, teste l’exercice, éventuellement le récrit pour l’harmoniser avec les exercices déjà existants puis valide sa publication. L’auteur conserve dans sa zone de gestion l’exercice original, tandis que la copie éventuellement modifiée est rendue publique.

Lorsque l’enseignant, ou l’élève d’ailleurs, propose son exercice à la publication, il doit accepter que celui-ci soit publié sous licence Creative Commons. Il ne peut pas ignorer cette étape, qui est un passage obligé pour la publication. L’explication est rédigée de manière à ce que les enjeux en soient facilement compris par les profs comme par les élèves. Cela peut être aussi l’occasion d’un exercice d’éducation civique.

Nous avons évidemment noté (avec grand plaisir) la présence de la licence Creative Commons By-Sa en bas du site officiel du projet. Est-ce un choix « militant » ou bien un choix « naturel » eu égard aux spécificités et objectifs du projet ?

Weblettres - Tryptique : Mutualisation - Copyright SophS’il y a un choix, un choix militant même, c’est celui de garantir la gratuité et l’égalité d’accès pour tous à ce travail qui est l’œuvre d’une communauté (même si, bien sûr, actuellement il y a encore peu d’auteurs, puisque nous venons tout juste de rendre public le projet !).

Cela étant décidé, la licence libre s’est imposée comme une nécessité. L’expérience de la mutualisation des cours et séquences didactiques a été une bonne leçon pour nous à cet égard.

Lorsque nous avons commencé, il s’agissait d’aider les collègues à partager leurs cours, en leur fournissant un espace de stockage public en ligne. C’était l’époque naïve où la soudaine liberté offerte par la technique nous submergeait, et la question des droits ne nous avait pas effleurés, n’ayant aucune vue d’avenir pour ces fichiers et surtout, aucune idée de l’ampleur que prendrait ce projet.

Weblettres - Tryptique : Coopération - Copyright SophC’est lorsque la pléthore de documents nous a poussés à faire des sélections, des classements et, en général, à retravailler les documents, donc à les modifier, que nous avons compris que rien ne serait possible tant que ce qui est mutualisé sur le site restait placé sous le sceau par défaut du copyright. Forts de cette expérience, nous avons cette fois sérieusement examiné les licences avant de nous plonger dans d’autres projets collectifs. Ainsi, Vocabulettres, mais aussi les Livrets TICE, sont-ils placés sous le signe de la licence libre.

Si les exercices créés dans Vocabulettres sont sous licence Creative Commons, qu’en est-il de la licence du programme Vocabulettres proprement dit ? Est-il lui aussi sous licence libre (GPL ou autre) ?

Il y a moins d’urgence pour nous de ce côté-là, bien sûr. Pour Vocabulettres, le problème est le même que pour le répertoire de liens : nous sommes très favorables à la libération de ces programmes (qui sont en pur PHP/MySQL) mais il nous est techniquement difficile d’en livrer les sources au téléchargement, pour les raisons banales que rencontrent bien des gens dans notre cas, à savoir :

  • cela nous demande un travail supplémentaire (et un temps précieux) d’isoler les sources ;
  • il s’agit de programmes en constante évolution, et nous n’avons pas les moyens (humains, en temps) de mettre à jour les versions téléchargeables successives.

Weblettres - Tryptique : Collaboration - Copyright SophIl le faudra pourtant, parce que j’imagine que des professeurs de langues, notamment, voire des professeurs à l’étranger, pourraient être tentés de créer leurs exercices sur WebLettres, que nous ne publierions pas parce que ce ne seront pas des exercices de français. Mais nous n’avons aucun programmeur chez WebLettres (Notre webmestre est saturé et, en ce qui concerne Vocabulettres, tout est fait maison par mes blanches mains sur mon temps libre), c’est le triste lot des professeurs de lettres qui, comme chacun sait, sont plus littéraires que programmeurs.

Il semblerait que ce soit la première fois que vous utilisiez explicitement une licence libre pour vos projets. Mais peut-on dire que, tel Monsieur Jourdain, WebLettres a, depuis ses origines, souvent fait du « libre » sans le savoir ?

Disons, sans se poser la question. Le problème, c’est que quand on ne se pose pas de question sur les droits de ce que l’on publie, on se retrouve à faire du copyright sans le vouloir !

Vous êtes l’auteur du logiciel Vocabulettres et du « CMS maison » sur lequel repose le site web de WebLettres, Php et MySql n’ont donc plus de secret pour vous. Pourquoi cet intérêt pour le développement informatique et quelles explications donneriez-vous à la raréfaction de votre sexe dans ce secteur ?

Le site a encore quelques mystères pour moi car notre webmestre, François Giroud, est repassé derrière moi, notamment pour le sécuriser, car j’avais laissé quelques trous.

Personnellement, je me suis mise à la programmation parce que j’avais besoin de créer pour mes élèves des pages dynamiques et que les outils alors à disposition me semblaient insuffisants (le premier étant, bien sûr, Hot Potatoes…).

Je ne parlerais pas de « raréfaction », car cela suppose une évolution croissante de cette rareté, ce qui n’est pas le cas à mon avis. Il y a peu de femmes programmeuses, mais il y en a de plus en plus. Comme dans bien d’autres milieux…

Un dernier mot en direction de la « communauté libriste » qui va vous lire ?

Eh bien puisque j’ai la parole sur Framasoft, je vais en profiter pour lancer cet appel : si quelqu’un veut bien s’occuper d’isoler les scripts de Vocabulettres et de mettre à jour les versions téléchargeables – voire même, de faire évoluer la plateforme au fur et à mesure des besoins qui s’expriment sur WebLettres (et ils sont nombreux à attendre sur la ToDoList !) – il sera le bienvenu, et Vocabulettres sera libérée.

Notes

[1] Qu’il me soit permis au passage de remercier Pierre Guillerm, alors principal du collège concerné, pour avoir cru en notre modeste projet en nous aidant à trouver les moyens nécessaires pour le développer.

[2] Caroline d’Atabekian est cofondatrice de Weblettres avec Jean-Eudes Gadenne.

[3] Les illustrations qui parsèment ce billet sont l’oeuvre de Soph’ et appartiennent à WebLettres.




La liberté ambigüe du paramétrage par défaut

Manuel Cernuda - CC byMon lycée a, depuis un certain temps déjà, opté pour un déploiement massif de la suite bureautique libre OpenOffice.org. Sauf que notre informaticien l’installe sur les postes en modifiant systématiquement l’option du format d’enregistrement « par défaut », substituant au format natif et ouvert ODF la famille de formats fermés bien connus de la suite Microsoft Office (le .DOC pour Word, le .XLS pour Excel et le .PPT pour Powerpoint).

Et lorsque je lui signifie, outré, mon mécontentement, il me répond qu’il convient de ne surtout pas perturber les enseignants, qui ont tous MS Office chez eux, et qui sont habitués à travailler dessus depuis des années (« Tu comprends, sinon ils vont rentrer à la maison avec leurs fichiers ODF dans leur clé, cliquer dessus pour ouvrir le document et… ça va être le bordel parce qu’aucune application ne sera trouvée par le système. Ils vont râler, m’assaillir de questions et c’est bibi qui assurera la hotline ! »).

Et c’est ainsi que l’on passe à côté de toute la problématique des formats (excellente porte d’entrée pour engager une discussion plus générale sur « le libre »). En tirant un peu le trait, on pourrait presque dire que l’on ne réalise finalement ici qu’une « fausse » migration, ou tout du moins que l’on s’est arrêté au milieu du chemin.

Fin de l’anecdote qui n’avait pour but que d’introduire le sujet (et la traduction) du jour : le paramétrage par défaut.

Lorsqu’on découvre un logiciel (ou carrément un système d’exploitation) pour la première fois, un certain nombre de choix ont été réalisés pour nous, afin, en théorie, de nous faciliter la tâche pour que nous soyons de suite opérationnels. Mais ces choix ne sont pas forcément neutres. D’abord parce que nous sommes tous différents (« l’utilisateur lambda » n’existe pas). Mais aussi, voire surtout, parce que nous savons fort bien qu’une forte majorité d’utilisateurs, pour de multiples raisons (inertie, crainte…) ne modifieront jamais ces options de démarrage.

Vous êtes un utilisateur désormais aguerri de GNU/Linux. Vous avez choisi votre distribution (Ubuntu, Mandriva, Fedora…), vous avez choisi votre environnement graphique (GNOME, KDE…), vous avez configuré le tout aux petits oignons en rivalisant d’esthétisme et d’ergonomie pour vous offrir un magnifique bureau personnalisé (illustration[1]). Vous naviguez sur un Firefox bourré d’extensions toutes plus utiles les unes que les autres eu égard à vos propres besoins et intérêts… Alors, félicitations, vous baignez dans l’univers culturel numérique de la richesse, de la diversité et de l’autonomie. Vous y êtes même tellement habitué que vous avez certainement oublié le nombre de paramétrages par défaut qu’il vous aura fallu lever pour arriver à cette situation qui est la vôtre aujourd’hui.

Parce que votre univers est malheureusement passablement éloigné de celui de Madame Michu (qui, je suis d’accord, n’existe pas non plus). Elle a acheté un ordinateur avec « par défaut » Windows à l’intérieur, dans lequel se trouvait « par défaut » Internet Explorer (page d’accueil Microsoft, Google ou FAI, inchangée), Outlook Express, Windows Media Player etc. et elle s’y tient. Elle s’y cramponne même, en résistant dur comme fer si jamais on s’en vient lui montrer, avec pourtant moultes précautions, qu’un « autre monde informatique est possible » (dans ce contexte là j’en arrive même parfois à me demander, un brin provocateur, si ce n’est pas « l’utilisateur par défaut » qu’il convient de paramétrer plutôt que ses logiciels !). C’est frustrant et dommage, parce que si il y a paramétrage par défaut, cela signifie également qu’il y a liberté de changer ces paramètres. Comme dirait l’autre, la liberté ne s’use que si l’on ne s’en sert pas…

Mais je m’égare, puisqu’il s’agissait juste de présenter l’article ci-dessous qui, bien que ne se souciant nullement des conséquences du paramétrage par défaut sur le logiciel libre, nous offre ici un exposé original et intéressant.

Remarque (à la lisière du troll) : C’est peut-être aussi là que réside le succès d’Ubuntu, dont la relative absence de choix à l’installation (un seul bureau, un seul logiciel par application, etc.) a grandement rassuré les nouveaux venus issus de Windows. De là à affirmer qu’Ubuntu est devenue « la distribution par défaut de l’OS GNU/Linux », il n’y a qu’un pas que je me garderais bien de franchir 😉

Le triomphe du « par défaut »

Triumph of the Default

Kevin Kelly – 22 juin 2009 – The Technium
(Traduction Framalang : Olivier et Julien R.)

Peu reconnu, le « par défaut » est l’une des plus grandes inventions de l’ère moderne. « Par défaut » est un concept technique introduit par l’informatique dans les années 1960 pour désigner les réglages pré-sélectionnés (comme par exemple dans « Ce programme accepte par défaut les dates au format jj/mm/aa, et non jj/mm/aaaa »). De nos jours, la notion de réglage par défaut dépasse le simple cadre de l’informatique et s’est répandue dans la vie de tous les jours. Aussi insignifiant que cela puisse paraître, l’idée de réglage par défaut est fondamentale pour « The Technium » (NdT : le livre qu’est en train de rédiger l’auteur dont cet article fait partie).

Difficile de concevoir aujourd’hui une époque où le « par défaut » n’existait pas. Mais le « par défaut » n’a gagné en popularité qu’à mesure que l’informatique s’est démocratisée ; c’est l’héritage de systèmes technologiques complexes. Le « par défaut » n’existait pas sous l’ère industrielle. À l’aube de l’ère moderne, quand les ordinateurs plantaient souvent et qu’entrer les variables était un vrai calvaire, une valeur par défaut était la valeur que le système s’assignait automatiquement si le programme échouait ou s’il était démarré pour la première fois. C’était une idée brillante. Sauf si l’utilisateur ou un programmeur prenait la peine de le modifier, le réglage par défaut régnait, assurant ainsi que le système hôte fonctionne. Chaque produit électronique et chaque logiciel était livré dans sa configuration par défaut. Les réglages par défaut répondent aux normes attendues par les acheteurs (par exemple la tension des appareils électriques aux États-Unis), ou à ce qu’ils attendent d’un produit (les sous-titres désactivés pour les films), ou encore aux questions de bon sens (anti-virus activé). La plupart du temps les réglages par défaut satisfont les clients, et ils ont maintenant envahi tout ce qui est personnalisable : automobiles, assurances, réseaux, téléphones, assurance maladie, cartes de crédit, etc.

En effet, chaque objet contenant un tant soit peu d’intelligence informatique (c’est à dire tout équipement moderne) est paramétré par défaut. Ces présélections sont autant de partis pris implantés dans le gadget, le système ou l’institution. Mais les réglages par défaut ne sont pas que des hypothèses silencieuses matérialisées dans tout objet manufacturé. Par exemple, tous les outils manuels sont faits, par défaut, pour les droitiers. Faire l’hypothèse que l’utilisateur sera droitier étant simplement normal, pas besoin d’en faire étalage. De même, la forme des outils est généralement faite pour des mains d’hommes. Mais ça ne se limite pas qu’aux outils : les premières automobiles étaient construites sur l’hypothèse que le conducteur serait un homme. Pour toute chose manufacturée, le constructeur doit faire des hypothèses sur ses clients potentiels et leurs motivations ; ces hypothèses trouvent naturellement leur place aussi dans tout ce qui est technologique. Plus le système est vaste, plus le constructeur doit faire des hypothèses. En examinant attentivement une infrastructure technologique particulière vous pouvez deviner les hypothèses cachées dans sa conception. Ainsi, on retrouve dans des domaines aussi variés que le réseau électrique, le système ferroviaire, les autoroutes ou l’enseignement certaines caractéristiques du citoyen américain : optimisme, importance de l’individu et penchant pour le changement.

Mais, alors que ces choix arbitraires, communs à toutes les technologies, sont à bien des égards semblables au concept de « défaut », ce n’est plus vrai aujourd’hui et ce pour une raison essentielle : les réglages par défaut sont des hypothèses qui peuvent être modifiées. Vous ne pouvez pas adapter des outils faits pour les droitiers à l’usage des gauchers. À l’époque, l’hypothèse que le conducteur était un homme se retrouvait dans la position du siège dans les automobiles. En changer n’était pas simple. Mais ce que l’on ne pouvait faire hier est désormais permis par la technologie actuelle. En effet presque tous les systèmes technologiques d’aujourd’hui ont en commun la facilité à être rebranchés, modifiés, reprogrammés, adaptés et changés pour convenir à de nouveaux usages ou à de nouveaux utilisateurs. Beaucoup (pas toutes) des hypothèses faites ne sont pas immuables et définitives. La multiplication des paramètres par défauts et leur modularité offre aux utilisateurs un vrai choix, s’ils le désirent. Les technologies peuvent être adaptées à vos préférences et optimisées pour mieux vous correspondre.

L’inconvénient de toutes cette personnalisation, cependant, est qu’on se retrouve un peu noyé sous le choix. Trop d’alternatives et pas assez de temps (sans parler de l’envie) de toutes les tester. Ne vous-êtes vous pas déjà retrouvé paralysé par l’indécision devant les 99 variétés de moutardes sur les étalages du supermarché, ou devant les 2 536 options de votre assurance santé, ou encore devant les 36 000 coupes de cheveux différentes pour votre avatar dans un monde virtuel ? Il existe une solution toute simple à cette sur-abondance délirante de choix : les paramètres par défaut. Les « défauts » vous permettent de choisir quand choisir. Votre avatar par défaut pourrait pas exemple être un avatar quelconque, un gamin en jean par exemple. Vous pouvez vous soucier de la personnalisation plus tard. C’est un peu un choix guidé. Ces milliers de variables, de vrais choix, peuvent être guidés en optant pour un choix par défaut intelligent, un choix fait à notre place, mais qui ne nous prive pas de notre liberté de le changer dans le futur, à notre convenance. Mes libertés ne sont pas restreintes, mais sont étalées dans le temps. Quand je me sens plus à l’aise, je peux revenir sur mes préférences pour mieux les adapter, en ajouter ou en retirer, en changer ou les personnaliser. Dans les systèmes par défaut bien pensés, je conserve toujours mon entière liberté, mais les choses me sont présentées de telle sorte que je peux prendre mon temps pour faire mes choix, au fur et à mesure et quand je me sens mieux à même de les faire.

Comparez maintenant cette sur-abondance de choix à ce que vous propose un marteau, une automobile ou le réseau téléphonique des années 1950. L’utilisation de ces outils vous était imposée. Les meilleurs ingénieurs ont planché des années pour proposer une conception qui s’adapte le mieux à la majorité, de nos jours encore, certains sont des chef-d’œuvre d’ingéniosité. Si ces objets et infrastructures étaient peu modulables, ils étaient remarquablement conçus pour être utilisés par la majorité des personnes. Peut-être qu’aujourd’hui vous ne personnalisez pas plus votre téléphone qu’il y a cinquante ans, mais la possibilité existe. Et les options disponibles sont toujours plus nombreuses. Cette myriade de choix possibles reflète la nature adaptative des téléphones portables et des réseaux. Les choix s’offrent à vous quand vous faites appel à eux, ce qui n’était pas possible quand toutes les décisions étaient prises pour vous.

Les paramètres par défaut ont fait leur apparition dans le monde complexe de l’informatique et des réseaux de communication, mais il n’est pas ridicule pour autant d’envisager leur utilisation pour les marteaux, les voitures, les chaussures, les poignées de portes, etc. En rendant ces objets personnalisables, en y injectant une pincée de puces informatiques et de matériaux intelligents, nous leur ouvrons le monde des paramètres par défaut. Imaginez le manche d’un marteau qui se moulerait automatiquement pour s’adapter à votre prise en main de gaucher, ou à la main d’une femme. On peut très bien envisager d’entrer son genre, son âge, son expertise ou son environnement de travail directement dans les petits neurones du marteau. Si un tel marteau existait, il serait livré avec des paramètres par défauts pré-programmés.

Mais les paramètres par défauts sont tenaces. De nombreuses études psychologiques ont montré que le petit effort supplémentaire demandé pour modifier les paramètres par défaut est souvent de trop et les utilisateurs s’en tiennent aux pré-réglages, malgré la liberté qui leur est offerte. Ils ne prennent pas la peine de régler l’heure sur leur appareil photo, le « 12:00 » entré par défaut continue de clignoter, ou encore ils ne s’embettent pas à changer le mot de passe temporaire qui leur est attribué. La dure vérité, n’importe quel ingénieur vous le confirmera, est que souvent les paramètres par défaut restent inchangés. Prenez n’importe quel objet, 98 options sur 100 seront celles préconfigurées en usine. Je reconnais que, moi-même, j’ai très rarement touché aux options qui m’étaient offertes, je m’en suis tenu aux paramètres par défaut. J’utilise un Macintosh depuis le début, voilà plus de 25 ans, et je découvre encore des paramètres par défaut et des préférences dont je n’avais jamais entendu parler. Du point de vue de l’ingénieur, cette inertie est un signe de réussite, cela signifie que les paramètres par défaut sont bien choisis. Leurs produits sont utilisés sans beaucoup de personnalisation et leurs systèmes ronronnent doucement.

Décider d’une valeur par défaut est synonyme de puissance et d’influence. Les paramètres par défaut ne sont pas qu’un outil pour aider les utilisateurs à apprivoiser leurs options, c’est aussi un levier puissant dont disposent les fabricants, ceux qui décident de ces valeurs, pour diriger le système. Les orientations profondes que traduisent ces valeurs par défaut façonnent l’usage que l’on fait du système. Même le degré de liberté qui vous est accordé, avec les choix occasionnels que l’on vous demande de faire, est primordial. Tout bon vendeur sait ça. Ils agencent magasins et sites Web pour canaliser vos décisions et ainsi augmenter leurs ventes. Disons que vous laissez des étudiants affamés choisir leur dessert en premier plutôt qu’en dernier, cet ordre par défaut a une influence énorme sur leur nutrition.

Chaque rouage d’une technologie complexe, du langage de programmation, à l’aspect de l’interface utilisateur, en passant par la sélection de périphériques, renferme d’innombrables paramètres par défaut. L’accès est-il anonyme ? Les intentions des utilisateurs sont-elles bonnes ou mauvaises ? Les paramètres par défaut encouragent-ils l’échange ou le secret ? Les règles devraient-elles expirer à une période donnée ou le renouvellement est-il tacite ? Avec quelle facilité peut-on revenir sur une décision ? Telle décision devrait-elle être activée par défaut ou l’utilisateur doit-il la valider lui-même ? Rien que la combinaison de quatre ou cinq choix par défaut engendre des centaines de possibilités.

Prenez deux infrastructures technologiques, disons deux réseaux d’ordinateurs basés sur le même matériel et sur les mêmes logiciels. L’expérience sur les deux réseaux peut être complètement différente selon les options par défaut imposées. Leur influence est telle qu’on peut presque parler d’effet papillon. En modifiant légèrement un paramètre par défaut, on peut transformer des réseaux gigantesques. Par exemple, la plupart des plans épargne retraite, comme le plan « Corporate 401k », demandent des mensualités très basses, en partie parce qu’ils proposent un choix phénoménal d’options. L’économiste/comportementaliste Richard Thaler rapporte des expériences où les épargnants amélioraient nettement leur épargne lorsque les options étaient sélectionnées par défaut (« choix guidé »). Chacun avait la possiblité de résilier leur programme quand il le désirait et ils étaient libres de modifier leur contrat quand bon leur semblait. Mais le simple fait de passer de « souscription » à « inscription automatique » changeait complètement l’intérêt du système. On peut prendre également l’exemple du don d’organe. Si on déclarait que chacun est donneur à moins qu’il n’émette le souhait contraire, le nombre d’organes donnés augmenterait largement.

Chaque paramètre par défaut est un levier pour façonner le déploiement d’une innovation. L’élaboration d’une infrastructure à l’échelle d’un continent, par exemple, comme le réseau électrique 110V aux États-Unis, peut s’imposer à mesure qu’elle reçoit le soutien d’autres infrastructures (comme les générateurs diesels ou les lignes d’assemblage dans les usines). Ainsi il peut obtenir le suffrage nécessaire pour s’imposer face à une technologie pré-existante, mais à chaque nœud du réseau électrique se cache un paramètre par défaut. Tous ces petits choix par défaut définissent la nature du réseau, ouvert et évolutif mais plus fragile ou fermé et plus sûr. Chaque paramètre par défaut est un levier permettant de façonner le réseau, s’il peut s’accroître facilement ou pas, s’il accepte les sources de puissance non-conventionnelle ou pas, s’il est centralisé ou décentralisé… La technologie définit les systèmes technologiques, mais c’est à nous d’en établir la nature.

Aucun système n’est neutre. Chacun a ses options naturels. On dompte les choix en cascade engendrés par l’accélération de la technologie par petites touches, en adoptant nos propres options afin de les faire tendre vers nos objectifs communs, ce qui a pour conséquence d’augmenter la diversité, la complexité, la spécialisation, la sensibilité et la beauté.

Le « par défaut » nous rappelle également une autre vérité. Par définition, le « par défaut » entre en jeu lorsque nous — utilisateur, consommateur ou citoyen — ne faisons rien. Mais ne rien faire n’est pas neutre, car cela entraîne une option par défaut. Ce qui signifie que « ne pas faire de choix » est un choix lui-même. Il n’y a rien de neutre, même, ou surtout, dans l’absence d’action. Malgré ce que certains veulent bien nous faire croire, la technologie n’est jamais neutre. Même quand vous ne choisissez pas ce que vous en faites, un choix est fait. Un système s’orientera dans une direction plutôt qu’une autre selon que l’on agit ou non sur lui. Le mieux que l’on puisse faire est de lui donner la direction qui va dans notre sens.

Notes

[1] Crédit photo : Manuel Cernuda (Creative Commons By-Sa)




Fracture et solidarité numériques, par Jean-Pierre Archambault

Ferdinand Reus - CC by-saRien de tel pour aborder la rentrée scolaire qu’un excellent article de synthèse de notre ami Jean-Pierre Archambault qui réunit ici deux de ses sujets favoris : le logiciel libre et la place de l’informatique à l’école.

Il est intéressant de noter que l’auteur a associé dans le titre les termes « fracture » et « solidarité », sachant bien que le logiciel, les contenus et les formats libres et ouverts apportent non seulement une réponse au premier mais développent et favorisent le second[1].

Un article un peu long pour un format blog mais qui vaut le coup ! Pour vous donner un ordre d’idée il correspond à deux cents messages Twitter que l’on parcourerait en enfilade 😉

Fracture et solidarité numériques

URL d’origine du document

Jean-Pierre Archambault – septembre 2009 – Association EPI
Licence Creative Commons By-Nd


Le thème de la fracture numérique est solidement installé dans le paysage des débats sociétaux. La nécessité de la réduire prend des allures de consensus : acceptons-en l’augure. Une raison de fond à cela : la place sans cesse croissante de l’informatique dans tous les secteurs de la société, et les enjeux qui y correspondent. La fracture numérique ce sont les inégalités d’accès aux réseaux, aux contenus entre le Nord et le Sud, ainsi qu’au sein des pays développés. Ce sont aussi les inégalités en terme de maîtrise conceptuelle du numérique. Nous examinerons ces problématiques. Le libre, désormais composante à part entière de l’industrie informatique, a permis de constituer au plan mondial un bien commun informatique, accessible à tous. Nous verrons donc pourquoi il est intrinsèquement lié à la lutte contre la fracture numérique, et donc à la solidarité numérique, avec son approche, transposable pour une part à la production des autres biens informationnels, ses réponses en matière de droit d’auteur. Comme le sont également les formats et les standards ouverts. Et nous rappellerons que dans la société de la connaissance, la « matière grise » et l’éducation jouent, on le sait, un rôle décisif.

Le numérique partout

Le numérique est partout, dans la vie de tous les jours, au domicile de chacun, avec l’ordinateur personnel et l’accès à Internet ; dans l’entreprise où des systèmes de contrôle informatisés font fonctionner les processus industriels. Ses métiers, et ceux des télécommunications, occupent une place importante dans les services. On ne compte plus les objets matériels qui sont remplis de puces électroniques. Il y a relativement, et en valeur absolue, de plus en plus de biens informationnels. C’est l’informatique, pour ne prendre que ces exemples, qui a récemment fait faire de très spectaculaires progrès à l’imagerie médicale et qui permet ceux de la génétique. Elle modifie progressivement, et de manière irréversible, notre manière de poser et de résoudre les questions dans quasiment toutes les sciences expérimentales ou théoriques qui ne peuvent se concevoir aujourd’hui sans ordinateurs et réseaux. Elle change la manière dont nous voyons le monde et dont nous nous voyons nous-mêmes. L’informatique s’invite aussi au Parlement, ainsi on s’en souvient, en 2006, pour la transposition de la directive européenne sur les Droits d’auteur et les droits voisins dans la société de l’information (DADVSI), suscitant des débats complexes où exercice de la citoyenneté rimait avec technicité et culture scientifique. Et plus récemment avec la « loi Hadopi ».

La fracture numérique

On imagine sans peine que pareille omniprésence de l’informatique signifie des enjeux forts, économiques notamment. Que tous ne soient pas sur un pied d’égalité, loin s’en faut, face aux profondes mutations que le numérique engendre ne saurait a priori surprendre. Cela vaut, à plus ou moins grande échelle, pour tous les pays. Il y a beaucoup de fractures : sanitaires, alimentaires… Culturelles aussi. Ainsi concernant la maîtrise de sa langue maternelle. Ainsi la fracture mathématique, qui serait bien plus grave encore s’il n’y avait pas un enseignement de culture générale mathématique tout au long de la scolarité. Si l’interrogation sur « la poule et l’oeuf » est éternelle, on peut penser qu’« il est certain que la fracture numérique résulte des fractures sociales produites par les inégalités sur les plans économique, politique, social, culturel, entre les hommes et les femmes, les générations, les zones géographiques, etc. »[2].

Un problème d’accès

La fracture numérique tend à être perçue, d’abord et surtout, comme un problème d’accès : les recherches sur Internet avec son moteur préféré ne laissent aucun doute à ce sujet. Il y a ceux pour qui il est possible, facile de disposer d’ordinateurs connectés au réseau mondial, et les autres. C’est vrai pour le monde en général, et la France en particulier. En juin 2008, présentant « ordi 2.0 », plan anti-fracture numérique, Éric Besson rappelait qu’« être privé d’ordinateur aujourd’hui pour les publics fragiles, c’est être privé d’accès à l’information, à la culture, à l’éducation, aux services publics, donc être exposé à un risque accru de marginalisation ». Un premier volet de son plan, qui confirmait la possibilité prévue par la loi de finances 2008, permettait aux entreprises de donner leurs ordinateurs inutiles, mais en état de marche, à leurs salariés, sans charges sociales ni fiscales. Un deuxième volet visait à favoriser la création d’une filière nationale de reconditionnement, de redistribution et de retraitement des ordinateurs, ainsi que la mise en place d’un « label de confiance », garantissant un matériel en état de fonctionnement et vendu à très bas prix.

La fracture numérique a une dimension géographique. De ce point de vue, la question de l’accès égal aux réseaux est primordiale. Une politique d’aménagement du territoire ne peut que s’en préoccuper. Avec l’objectif de « démocratiser le numérique en accélérant le déploiement des infrastructures », la décision 49 du Rapport de la Commission pour la libération de la croissance française, sous la présidence de Jacques Attali[3], consistait en la « garantie d’une couverture numérique optimale en 2011 ». La décision 51, « faciliter l’accès de tous au réseau numérique » correspondait à l’objectif de réduire les fractures numériques, dont il était dit qu’« elles recouvrent la fracture sociale ». Elle proposait d’« accélérer le taux d’équipement en ordinateurs dans les foyers et TPE/PME avec un objectif d’équipement de 85 % en 2012, au moyen notamment de donations des PC usagés, de soutiens spécifiques aux étudiants, et microcrédit social ».

Pour le World Wide Web consortium qui, le 28 mai 2008, lançait un groupe d’intérêt web mobile pour le développement social (MW4D), « les technologies mobiles peuvent ouvrir aux plus pauvres des accès à des services d’informations essentiels comme les soins de santé, l’éducation, les services administratifs »[4].

L’accès à Internet, un bien commun

Le problème de l’accès est bien réel. De l’accès à Internet, tel qu’il a été créé et a fonctionné jusqu’à maintenant, et qu’il faut préserver. En effet, Internet est, en lui-même, un bien commun accessible à tous, une ressource sur laquelle n’importe quel usager a des droits, sans avoir à obtenir de permission de qui que ce soit. Son architecture est neutre et ouverte. Le « réseau des réseaux » constitue un point d’appui solide dans la lutte contre la fracture numérique[5].

Internet repose sur des standards ouverts de formats de données (HTML pour écrire des pages web) et de protocoles de communication (TCP/IP, HTTP). Il fonctionne à base de logiciels libres : Apache, SendMail, Linux… Il est donc impossible de verrouiller le réseau par la pratique du secret. Les logiciels libres contribuent à construire une plate-forme neutre. Ils la protègent par des licences comme la GPL et la diffusion du code source, garantissant aux développeurs qu’elle le restera dans l’avenir.

Les logiciels et les contenus numériques

Si l’accent est mis, à juste titre, sur la nécessité de disposer d’un ordinateur pour accéder au monde du numérique[6], les discours sont en général plus « discrets » sur le système d’exploitation. Or, sans système d’exploitation, que les acheteurs ont encore trop souvent l’impression de ne pas payer même lorsqu’il est « propriétaire », pas de machine qui fonctionne.

La fracture numérique, c’est aussi les inégalités d’accès aux logiciels et aux contenus, les régimes de propriété intellectuelle qui entravent leur circulation, leur production. Il y a désormais deux informatiques qui coexistent : libre et propriétaire. Des contenus numériques sous copyright mais aussi sous licences Creative Commons. Ces approches diffèrent sensiblement, sont quasiment antinomiques. Le débat sur leurs « mérites » respectifs, et les choix à opérer, se situe de plain-pied dans la problématique de la fracture numérique. Il peut arriver qu’il en soit absent, les deux « protagonistes » n’étant pas explicitement nommés. Cela étant, la Conférence « Repenser la fracture numérique » de l’Association for Learning Technology, dans une vision multidimensionnelle de la fracture numérique, posait la question « Open or proprietary ? »[7]. Une question qui mérite effectivement d’être posée.

Ce fut le cas à l’Université d’été de Tunisie qui s’est déroulée à Hammamet, du 25 au 28 août 2008[8]. Organisée par le Fonds Mondial de Solidarité Numérique (FSN)[9] et par l’Association pour le Développement de l’Éducation en Afrique (ADEA), elle était consacrée au thème de « La solidarité numérique au service de l’enseignement ». À son programme figuraient notamment les usages du TBI (Tableau blanc interactif), la création de ressources pédagogiques par les enseignants « auto-producteurs » et le rôle des communautés d’enseignants, les problématiques de droits d’auteur. Un atelier, qui portait sur les ressources pédagogiques des disciplines scientifiques et techniques des lycées, a fait différentes propositions dont l’une essentielle aux yeux de ses participants, qui affirme que les logiciels et les ressources pédagogiques utilisés et produits doivent être libres. Les standards et les formats de données doivent être ouverts[10]. Trois raisons ont motivé cette proposition : les coûts, le caractère opérationnel de la production collaborative de contenus pédagogiques, et le fait que les modalités de réalisation et les réponses du libre en terme de propriété intellectuelle sont en phase avec la philosophie générale d’un projet de solidarité numérique, à savoir partage, coopération, échange.

Le projet RELI@, « Ressources en ligne pour institutrices africaines », est destiné à améliorer la qualité de l’enseignement dans les pays du Sud par l’utilisation des outils et contenus numériques. Il repose sur des logiciels et ressources libres. Il a tenu son premier atelier à Dakar, du 22 au 24 octobre 2008[11]. Un « Appel de Dakar » a été lancé pour la production panafricaine de ressources pédagogiques numériques libres.

L’Unesco prime le libre

En 2007, l’association Sésamath[12] a reçu le 3e prix UNESCO (sur 68 projets) sur l’usage des TICE[13]. Pour le jury, Sésamath est « un programme complet d’enseignement des mathématiques conçu par des spécialistes, des concepteurs et près de 300 professeurs de mathématiques ». Il a été récompensé « pour la qualité de ses supports pédagogiques et pour sa capacité démontrée à toucher un large public d’apprenants et d’enseignants ».

« Remerciant particulièrement la commission française pour l’UNESCO qui a soutenu officiellement sa candidature », l’association Sésamath a vu dans l’obtention de ce prix « l’ouverture d’une nouvelle ère pour son action, vers l’internationalisation et plus particulièrement encore vers l’aide au développement ». Elle a ajouté : « Que pourrait-il y avoir de plus gratifiant pour des professeurs de Mathématiques que de voir leurs productions coopératives libres (logiciels, manuels…) utilisées par le plus grand nombre et en particulier par les populations les plus défavorisées ? C’est vrai dans toute la Francophonie… mais de nombreuses pistes de traductions commencent aussi à voir le jour. »[14]

Les deux lauréats 2007 étaient le Consortium Claroline[15] et Curriki[16]. Claroline, représenté par l’Université Catholique de Louvain, en Belgique, fournit à quelque 900 établissements répartis dans 84 pays une plate-forme « open source », sous licence GPL, en 35 langues. Claroline offre une série d’outils pédagogiques interactifs et centrés sur l’apprenant. C’est un modèle de réseau et de communauté qui met en relation des apprenants, des enseignants et des développeurs du monde entier. Créée en 2004 par Sun Microsystems, Curriki est une communauté mondiale qui se consacre à l’éducation et à la formation. Elle a désormais le statut d’organisme à but non lucratif. Elle fournit un portail Internet, un ensemble d’outils et de services aux utilisateurs grâce auxquels chacun peut librement concevoir, regrouper, évaluer et enrichir les meilleurs programmes d’enseignement, ce qui permet de répondre aux besoins de toutes les classes d’âge et de toutes les disciplines. Curriki a ainsi créé une communauté très vivante composée d’enseignants, d’apprenants, de ministères de l’Éducation, d’établissements scolaires et d’organisations publiques et privées.

L’UNESCO a ainsi mis à l’honneur des démarches éducatives fondées sur le libre, logiciels et ressources.

Parmi les avantages du libre

Parmi les avantages du libre, bien connus, il y a des coûts nettement moins importants. Si libre ne signifie pas gratuit, on peut toujours se procurer une version gratuite d’un logiciel libre, notamment en le téléchargeant. Une fantastique perspective quand, organisée au niveau d’un pays, la diffusion d’un logiciel libre permet de le fournir gratuitement à tous, avec seulement des coûts de « logistique » pour la collectivité mais une économie de licences d’utilisation à n’en plus finir.

Partage-production collaborative-coopération sont des maîtres mots de la solidarité numérique qui supposent des modalités de propriété intellectuelle qui, non seulement, favorisent la circulation des ressources numériques et les contributions des uns et des autres mais, tout simplement l’autorisent. La réponse est du côté de la GPL et des Creative Commons.

L’on sait la profonde affinité entre libre et standards et formats ouverts. Or, par exemple, les documents produits par un traitement de texte lambda doivent pouvoir être lus par un traitement de texte bêta, et réciproquement. La coopération et l’échange sont à ce prix. Il s’agit là d’une question fondamentale de l’informatique et de la fracture numérique. Tout citoyen du monde doit pouvoir avoir accès à ses données, indépendamment du matériel et du logiciel qu’il utilise. De plus en plus de biens informationnels ont une version numérisée. L’enjeu est d’accéder au patrimoine culturel de l’humanité, de participer à sa production, d’être un acteur à part entière du partage et de la coopération.

Avec le libre, chaque communauté peut prendre en main la localisation/culturisation qui la concerne, connaissant ses propres besoins et ses propres codes culturels mieux que quiconque. Il y a donc, outre une plus grande liberté et un moindre impact des retours économiques, une plus grande efficacité dans le processus, en jouant sur la flexibilité naturelle des créations immatérielles pour les adapter à ses besoins et à son génie propre. C’est aussi plus généralement ce que permettent les « contenus libres », c’est-à-dire les ressources intellectuelles – artistiques, éducatives, techniques ou scientifiques – laissées par leurs créateurs en usage libre pour tous. Logiciels et contenus libres promeuvent, dans un cadre naturel de coopération entre égaux, l’indépendance et la diversité culturelle, l’intégration sans l’aliénation.

Les logiciels (et les ressources) libres, composante à part entière de l’industrie informatique, ne peuvent qu’avoir une place de choix dans la lutte contre la fracture numérique. Sans pour autant verser dans l’angélisme. Entre les grands groupes d’acteurs du libre (communautés de développeurs, entreprises, clients comme les collectivités), dont les motivations et ressorts sont divers, il existe des conflits et des contradictions. Des dérives sont possibles, comme des formes de travail gratuit. Mais au-delà des volontés des individus, il y a la logique profonde d’une façon efficace de produire des contenus de qualité[17].

L’accès à la culture informatique

Dans un texte de l’UNESCO, TIC dans l’éducation[18], il est dit que « l’utilisation des TIC dans et pour l’éducation est vue maintenant dans le monde entier comme une nécessité et une opportunité. ». Les grandes questions sur lesquelles l’UNESCO se concentre en tant « qu’expert et conseiller impartial » sont : « Comment peut-on employer les TIC pour accélérer le progrès vers l’éducation pour tous et durant toute la vie ? (…) En second lieu, les TIC, comme tous les outils, doivent être considérées en tant que telles, et être employées et adaptées pour servir des buts éducatifs. » Elle revendique que « l’initiation à l’informatique soit reconnue comme une compétence élémentaire dans les systèmes d’enseignement »[19].

Le numérique, ce sont des outils conceptuels, des abstractions, une discipline scientifique et technique en tant que telle. Au service des autres disciplines, comme le sont les mathématiques. L’ordinateur est une prothèse du cerveau, dont on se sert d’autant plus intelligemment qu’on en connaît l’« intelligence »[20]. La fracture numérique ne serait-elle pas aussi (d’abord ?) une fracture culturelle, qui ne concerne pas que le Sud ? D’ailleurs, ne parle-t-on pas fréquemment de l’« accès » à la culture ?

« L’utilisation d’un outil, si fréquente et diversifiée soit-elle, ne porte pas en elle-même les éléments qui permettent d’éclairer sa propre pratique. »[21] « Comment en effet procéder à une recherche d’information efficace lorsque l’on n’a aucune connaissance du mode de fonctionnement de l’instrument utilisé ? »[22] Or, une enquête menée auprès de 640 000 utilisateurs de l’internet en France en 2001 avait montré que 87 % d’entre eux ne savaient pas se servir d’un moteur de recherche[23]. « Depuis que "l’homo faber" fabrique des outils et s’en sert, une bonne intelligence de l’outil est considérée comme nécessaire pour une bonne utilisation, efficace, précise et raisonnée : plus on en sait quant aux possibilités de réglage et aux conditions d’utilisation mieux cela vaut, partout. Il n’y aurait que l’informatique qui échapperait à cette règle et où l’ignorance serait un avantage ! »[24].

Partout dans le monde, lutter véritablement contre la fracture numérique suppose de donner à tous les élèves les fondamentaux scientifiques du domaine[25]. L’objectif est la maîtrise de ces instruments intellectuels d’un type nouveau. Elle n’est pas vraiment aisée et nécessite des années d’apprentissage (pour un individu il faut environ 20 ans pour maîtriser l’ensemble des instruments et méthodes liés à l’exercice d’une pensée rationnelle). On voit mal comment la diffusion d’objets matériels permettrait en elle-même de raccourcir les délais d’apprentissage, comment on entrerait dans le monde du numérique, abstrait et conceptuel, sans en faire un objet d’étude.

À l’appui de cette nécessité d’enseignement en tant que tel, le fait que la fracture numérique peut se loger là où on ne l’attend pas. Ainsi pointe-t-on une fracture numérique qui émerge, non plus entre les particuliers, mais entre les entreprises, notamment les plus petites et les plus grandes[26]. D’un côté « les mieux loties, accompagnées d’une armée de consultants ou naturellement aguerries à ces sujets ». De l’autre « des centaines de milliers d’entreprises qui souhaitent ardemment tirer profit, dès maintenant, des outils à disposition mais qui butent sur la complexité technologique, les tarifications inadaptées, les offres sur ou sous dimensionnées sans parler des compétences inaccessibles et en voie de raréfaction ». En fait, on voit aujourd’hui émerger « une nouvelle e-aristocratie qui va à l’encontre de la promesse de démocratisation des bénéfices économiques des NTIC (productivité, économie, accessibilité) ».

Dans leur rapport sur l’économie de l’immatériel[27], Maurice Lévy et Jean-Pierre Jouyet soulignent que, dans l’économie de l’immatériel, « l’incapacité à maîtriser les TIC constituera (…) une nouvelle forme d’illettrisme, aussi dommageable que le fait de ne pas savoir lire et écrire ». Ils mettent en évidence les obstacles qui freinent l’adaptation de notre pays à l’économie de l’immatériel, notamment « notre manière de penser », invitant à changer un certain nombre de « nos réflexes collectifs fondés sur une économie essentiellement industrielle ».

La lutte contre la fracture numérique a bien d’abord une dimension éminemment culturelle. Il s’agit d’un enjeu éducatif majeur, de culture générale scientifique et technique pour tous. D’un défi aussi dont les réponses pour le relever se trouvent d’évidence dans les systèmes éducatifs, dont c’est une des raisons d’être.

Jean-Pierre Archambault
Chargé de mission au CNDP-CRDP de Paris

Notes

[1] Crédit photo : Ferdinand Reus (Creative Commons By-Sa)

[2] Les politiques de tous les bords, beaucoup d’institutions (Banque Mondiale et le G8, l’Union Européenne, l’UNESCO…) s’emparent de la problématique de la fracture numérique, avec l’objectif affirmé de la résorber. D’autres s’en inquiètent : « Dejà, le fait qu’une telle notion fasse l’objet d’un consensus aussi large, au sein de groupes sociaux qui s’opposent les uns aux autres, donne à penser qu’elle est scientifiquement fragile. ». Voir La fracture numérique existe-t-elle ?, Éric Guichard, INRIA – ENS.

[3] http://www.liberationdelacroissance.fr/files…

[4] http://www.sophianet.com/wtm_article47688.fr.htm

[5] On pourra se référer aux études de Yochai Benkler reprises par Lawrence Lessig dans son remarquable ouvrage L’avenir des idées, Presses universitaires de Lyon, 2005. Voir « Innover ou protéger ? un cyber-dilemme », Jean-Pierre Archambault, Médialog n°58.

[6] Mais, à trop privilégier dans le discours le nécessaire équipement de tous, il y a le risque de donner à croire que les intérêts des constructeurs ne sont pas loin, en arrière plan de la « noble » lutte contre la fracture numérique.

[7] http://thot.cursus.edu/rubrique.asp?no=27124

[8] http://www.tunisiait.com/article.php?article=2912

[9] ttp://www.dsf-fsn.org/cms/component/option…

[10] http://repta.net/repta/telechargements/Universite_Tunisie…

[11] Premier atelier RELI@ à Dakar : Appel de DAKAR pour la production panafricaine de ressources pédagogiques numériques libres.

[12] http://sesamath.net

[13] http://portal.unesco.org/fr…

[14] http://www.sesamath.net/blog…

[15] http://www.claroline.net/index.php?lang=fr

[16] http://www.curriki.org/xwiki/bin/view/Main/WebHome

[17] L’économie du logiciel libre, François Élie, Eyrolles, 2008.

[18] http://portal.unesco.org/ci/fr/ev.php-URL_ID=2929…

[19] http://portal.unesco.org/ci/fr/ev.php-URL_ID=4347…

[20] « Informatique et TIC : une vraie discipline ? », Jean-Pierre Archambault, Médialog n° 62,

[21] Ordinateur et système éducatif : quelques questions, in Utilisations de l’ordinateur dans l’enseignement secondaire, Jean-Michel Bérard, Inspecteur général de l’Éducation nationale, Hachette Éducation, 1993.

[22] « La nature du B2i lui permet-elle d’atteindre ses objectifs ? » Jean-François Cerisier, Les dossiers de l’ingénierie éducative n° 55, septembre 2006.

[23] http://barthes.ens.fr/atelier/theseEG/

[24] « Enseigner l’informatique », Maurice Nivat, membre correspondant de l’Académie des Sciences,

[25] Voir : Le bloc-notes de l’EPI, La formation à l’informatique et aux TIC au lycée / Proposition de programme / Seconde Première Terminale et « Quelle informatique enseigner au lycée ? », Gilles Dowek, professeur d’informatique à l’École Polytechnique, intervention à l’Académie des Sciences du 15 mars 2005.

[26] Une fracture numérique existe aussi entre les entreprises, Vincent Fournoux, Le Journal du Net du 31 juillet 2008.

[27] L’économie de l’immatériel – La croissance de demain, rapport de la commission sur l’économie de l’immatériel remis à Thierry Breton, Maurice Lévy, Jean-Pierre Jouyet, décembre 2006.