Ce que nous dit Windows Vista de l’Éducation nationale

Cave Canem - CC by-saRetournons le titre de mon billet du jour en mode interrogatif. Qu’est-ce que nous dit l’Éducation nationale de Windows Vista ?

Rien. Elle ne nous a strictement rien dit, et c’est bien là le problème.

Aujourd’hui, l’arrivée de Windows 7 vient refermer le chapitre du système d’exploitation précédent de Microsoft. On aurait cependant tort de ne pas tenter de tirer le bilan de cet épisode, en particulier au sein de l’Éducation nationale française. Parce qu’il se pourrait bien que cet (assourdissant) silence soit révélateur…

Petit retour en arrière. Windows Vista a vu officiellement le jour en janvier 2007. Et très vite, comme nous le rappelle Wikipédia, « de nombreuses critiques ont fusé concernant la faible compatibilité matérielle, le matériel minimum nécessaire, les mauvaises performances et le peu d’innovations depuis Windows XP ».

Un an plus tard paraissait en Angleterre un rapport, riche et détaillé, de la très sérieuse et officielle agence Becta, sur l’opportunité ou non d’utiliser Windows Vista et MS Office 2007 dans les écoles du pays[1].

Les arguments et conclusions de ce rapport étaient sans équivoque.

Pour rappel en voici quelques extraits (dont je vous laisse juge de leur actualité un an et demi plus tard) :

« Les nouvelles fonctionnalités de Microsoft Vista présentent certes un intérêt, mais ne justifient pas une implantation immédiate dans le domaine de l’éducation : les coûts seraient élevés et les avantages loin d’être évidents. »

« Alors qu’on estime à 66% le nombre de machines du parc informatique scolaire pouvant fonctionner avec Vista (d’après la définition de Microsoft), nous estimons quant à nous à 22% le nombre de machines répondant aux critères pour faire fonctionner Vista de manière correcte. »

« Le coût total du déploiement de Vista dans les écoles anglaises et galloises se situe autour de 175 millions de livres sterling (environ 230 millions d’euros). Si cette estimation n’inclut pas les cartes graphiques supplémentaires nécessaires au fonctionnement de l’interface Aero (ce qui augmenterait nettement le montant minimum) elle tient compte des mises à niveau matérielles nécessaires, du coût des licences, des tests ainsi que du coût de la configuration et du déploiement. Environ un tiers de cette somme est imputable au prix des licences Microsoft. »

« Les machines sous Vista pourraient ne fonctionner qu’avec une autre version d’une application voir même seulement avec des produits différents. Cela peut être source de confusion si le personnel ou les élèves doivent travailler avec les deux systèmes d’exploitation. Il pourrait aussi être nécessaire de dupliquer le travail pour certaines leçons ou pour certains projets pour les adapter à Windows Vista et Windows XP. »

« Nous suggérons que les nouvelles machines achetées avec Windows Vista pré-installé soient remises sous Windows XP en attendant que tout le réseau puisse être mis à jour. »

« une standardisation de fait (par l’utilisation généralisée de produits d’un même fournisseur) peut être néfaste pour la concurrence et le choix, ce qui revient à augmenter les coûts. De plus en plus, les gouvernements, les entreprises et le système d’éducation refusent de voir leurs informations contrôlées par un fournisseur unique. Il en résulte un mouvement qui tend à délaisser les formats de fichiers propriétaires pour s’intéresser aux nouveaux formats de fichiers, plus ouverts, sous le contrôle d’un organisme de normalisation efficace. »

« Si l’on n’intervient pas, ces évolutions vont créer, pour les utilisateurs béotiens, une vision de l’intéropérabilité des documents qui sera complexe et partisane, ce qui serait un échec de l’objectif initial d’aller vers des standards ouverts. Microsoft a une position dominante sur le segment des systèmes d’exploitation pour PC et cette position risque d’être renforcée par son approche actuelle des standards de documents ouverts. »

« Contrairement à d’autres secteurs ou la demande pour des solutions en logiciels libres est visible et croissante, les estimations dans le secteur éducatif montrent une demande faible, Becta est vu comme un facteur clé dans l’instauration de cette demande. »

« Au cours des douze prochains mois Becta prendra un certain nombre de mesures pour encourager un choix plus efficace dans le cadre d’un usage éducatif. Ce travail inclura la publication d’un programme de travail dont le but sera de :
– fournir plus d’informations sur le site de Becta sur ce qu’est un logiciel libre et quels sont ses avantages pour l’éducation en Grande-Bretagne
– compléter la base de recherche actuelle qui recense les usages des logiciels libres dans le secteur éducatif et identifier des déploiements modèles de logiciels libres. Cela engloberait également l’esquisse d’un tableau national des usages des logiciels libres dans les écoles et les universités
– travailler avec la communauté du logiciel libre pour établir un catalogue en ligne des logiciels libres appropriés pour l’usage dans les écoles de Grande-Bretagne. Parmi les informations disponibles on retrouvera les moyens d’obtenir une assistance dédiée à ces logiciels et comment contribuer à leur développement futur. Ce catalogue sera publié sous une licence Creative Commons afin que les fournisseurs puissent le modifier pour leur propre usage
– donner des indications aux sociétés de services en logiciels libres pour qu’elles puissent efficacement participer dans de nouvelles structures compétitives et pour qu’elles puissent proposer des logiciels libres via la structure de fournisseurs existante de Becta »

Si nous pouvons vous proposer ces citations directement en français c’est parce que nous avions décidé de traduire ce rapport dans son intégralité, annoncé en juin 2008 sur le Framablog sous la forme d’une question (dont on a malheureusement aujourd’hui la réponse) : Le débat sur Windows Vista et MS Office 2007 à l’école aura-t-il lieu ?

Et pourquoi avions-nous fait cet effort ? Parce que, Anne, ma sœur Anne, nous ne voyions justement rien de similaire venir en France.

Il y a peut-être eu des mémos internes, quelques craintes exprimées ça et là localement sur des sites académiques, et bien sûr de la perplexité chez certains profs d’en bas. Mais, à ma connaissance, aucune étude digne de ce nom, aucune recommandation ou mise en garde publiée publiquement sur les sites nationaux de l’Education nationale, à commencer par Educnet, le site portail des TICE.

Le ministère de la Défense peut qualifier, avec la diplomatie qui le caractérise (mais tout le monde aura compris), Windows Vista de système qui « manque de maturité » et préconiser l’usage des distributions GNU/Linux Mandriva et Ubuntu, la contagion interministérielle n’aura pas lieu du côté de la rue de Grenelle.

Qu’un Café Pédagogique, soutenu par Microsoft, demeure muet si ce n’est pour annoncer benoîtement la sortie de Vista et de ses mises à jour, c’est dommageable mais compréhensible (et c’est même certainement compris dans le prix du soutien), mais il en va tout autrement pour le ministère.

N’en allait-il pas de sa responsabilité de prévenir tous ses établissements scolaires et toutes les collectivités territoriales pourvoyeuses de nouveaux matériels (susceptibles de subir le phénomène de la vente liée), qu’il était au moins urgent d’attendre ? Attente qu’il aurait pu mettre à profit pour évaluer les alternatives libres et prendre enfin les décisions qui s’imposent (comme par exemple ce qui se fait dans le Canton de Genève).

Au lieu de cela un silence radio pour le moins étonnant. Et trois années de perdues pour le déploiement massif, assumé et coordonné du logiciel libre à l’école ! Avec en prime prolifération de Vista et passage à la caisse.

Étudiants, enseignants, parents d’élèves, contribuables, et plus généralement tous ceux désormais nombreux que le sujet intéresse, sont légitimement en droit de se demander pourquoi, afin que cette politique de l’autruche ne se reproduise plus.

Notes

[1] Crédit photo : Cave Canem (Creative Commons By-Sa)




Éducation et logiciel libre : le témoignage d’un lycéen

Chapendra - CC byDeux paradoxales caractéristiques des débats sur l’éducation (et l’éducation est un débat permanent). 1. Ceux qui parlent le plus fort et décident ne sont pas, ou plus, professeur. 2. On ne donne que très rarement la parole aux principaux concernés : les élèves.

Pour éviter qu’il en aille de même sur ce blog qui évoque souvent la situation du logiciel libre dans l’éducation, nous avons choisi d’interviewer l’élève « Vanaryon » (repéré sur le Web via son fort intéressant blog). Il est en classe de Première et habite quelque part dans le Finistère.

C’est le deuxième entretien lycéen du Framablog, et comme il avait été dit la première fois, cet élève ne représente (malheureusement) en rien l’ensemble des élèves. Ce serait même a priori plutôt une exception qui confirme la règle d’une insuffisante culture sur les sujets de prédilection qui nous préoccupent ici au quotidien.

Il me plairait qu’à l’avenir ce ne soit plus malgré l’école mais grâce à l’école que des Vanaryon se découvrent de telles sources d’intérêt, pour ne pas dire de telles passions. Histoire d’être plus encore rassuré sur la capacité de la nouvelle génération[1] à assurer la nécessaire relève.

Remarque : On a été agréablement surpris au passage de constater que notre Framakey a participé à son « initiation » au logiciel libre.

Entretien avec Vanaryon

Bonjour Vanaryon, peux-tu rapidement te présenter…

Bonjour à toi ! Je suis un lycéen actuellement en classe de première S (SVT). L’informatique et les logiciels libres me passionnent, ainsi que les technologies web. Je suis le secrétaire de la junior association PostPro, qui fait la promotion du logiciel libre dans le domaine de la création vidéo.

Quels logiciels libres utilises-tu au quotidien ?

Actuellement, je n’utilise presque plus de logiciels propriétaires : seulement Flash Player et les pilotes Nvidia pour ma carte graphique (sous Linux). Donc tout le reste est libre : je tourne sous une Ubuntu 9.04. Les logiciels libres que j’utilise le plus sont Gajim, Mozilla Firefox, Novell Evolution, Rhythmbox ou encore Gedit et Nautilus.

Sinon, quand je ne suis pas sur un poste Linux, j’ai toujours une Framakey sur moi 😉

Comment as-tu découvert les logiciels libres et en quoi te semblent-ils intéressants ?

Ça remonte à assez longtemps, au début collège je crois. Je devais être en 5ème. Je venais de m’abonner à la revue Science & Vie Junior, et dans les astuces informatique ils présentaient la Framakey. À partir de ça j’ai pu découvrir Firefox, Thunderbird et Abiword, pour m’ouvrir sur d’autres logiciels libres peu à peu (OpenOffice, Notepad++, ClamWin).

À l’époque, je ne voyais pas du tout l’avantage des logiciels libres de par la philosophie qu’il y avait derrière, mais plutôt parce-qu’ils étaient gratuits et que je les trouvais plus accessibles que les logiciels Microsoft (d’ailleurs je ne devais même pas savoir que c’était un logiciel libre à l’époque).

Au cours de ton parcours scolaire as-tu souvent rencontré des logiciels libres ? Y a-t-il des professeurs qui t’en ont parlé, qui les ont utilisés en classe avec vous ?

Oui, assez souvent (mais pas assez à mon goût !). J’ai tout de même remarqué une certaine évolution au fur et à mesure des années et des classes (en primaire, je me souviens que j’utilisais Microsoft Word, mais il n’y avait rien d’autre sur les postes !). Ensuite, au collège, je découvrais StarOffice, The GIMP, puis OpenOffice.org. Mais c’était tout, il n’y avait rien d’autre. Puis lorsque j’allais quitter le collège, Mozilla Firefox fut installé sur tous les postes du CDI. Enfin arriva mon lycée, que je sentais pro-Microsoft, de leur infrastructure en passant par leur site web. Mais il faisait quand même des efforts pour nous proposer quelques logiciels ouverts (VLC, The GIMP et OpenOffice.org puis Mozilla Firefox cette année).

Cependant, ce n’est pas encore ça… Pour donner un exemple concret, cette année ils viennent d’acheter des nouveaux ordinateurs et ils ont déployé Microsoft Office 2007 : résultat, les élèvent préfèrent l’utiliser à OpenOffice.org, alors que l’année dernière c’était OpenOffice.org qui était privilégié par rapport à Microsoft Office 2000.

Au collège, un professeur d’art plastique m’avait en effet parlé de VirtualDub, pour faire du montage vidéo. Elle m’avait dit « c’est un logiciel libre de droits ». Déjà on sent qu’elle connaissait un peu la chose !

Utilisé en classe, oui, surtout pour VLC, qui reste un incontournable pour lire tous les médias. Sinon, malheureusement, les professeurs ont tendance à nous montrer des documents visionnés avec Microsoft Powerpoint, Word, mais aussi Adobe Reader ou encore Internet Explorer (on a encore la version 6 là où je suis…).

Au cours de ton parcours scolaire as-tu souvent rencontré la « culture libre » ? Y a-t-il des professeurs qui t’ont parlé ou ont utilisés des ressources sous licences libres de type Creative Commons ?

Non, jamais. Et c’est ça qui m’effraie : tous les documents donnés par les professeurs portent en général la mention « photocopie interdite », ou encore des petits copyrights en bas pour certains. En tout cas ils n’ont jamais parlé de culture libre, et encore moins de logiciel libre.

Wikipédia et les enseignants : ils aiment, ils n’aiment pas, ils n’en parlent pas ?

Les enseignants disent toujours que Wikipédia est un outil qui doit se fier à d’autres sources, car ils ne le considèrent pas comme fiable ! Et pourtant… pour le Français, de nombreux articles sur la littérature française sont validés comme étant de qualité !

Cependant, je trouve que certains professeurs paraissent bien hostiles lorsqu’ils expliquent ce qu’est Wikipédia…

Penses-tu que les logiciels propriétaires comme Windows et MS Office (Word, Excel…) sont trop présents à l’école. Et si oui que proposerais-tu pour améliorer la situation ?

Assurément ! Ils sont beaucoup trop présents ! Bon, c’est vrai qu’il n’y a pas que les logiciels Microsoft qui sont propriétaires sur les machines de l’école, mais aussi plein d’autres (je pense en particulier à Anagène, une antiquité utilisée en SVT). Mais le problème avec les logiciels Microsoft, c’est qu’ils sont partout ! De la suite bureautique qui nous pond des formats incompréhensibles par des versions plus anciennes de MS Office ou aux autres suites bureautique (je pense à Office 2007 qui a causé de nombreux problèmes avec le docx et autres), au navigateur web complètement buggé et dépassé qu’est Internet Explorer 6, en passant carrément par le système Windows en lui même…

Mais déjà, les professeurs ne sont-ils pas un peu conditionnés aux softs made-in-Microsoft ? Je pense surtout aux licences gratuites de MS Office qu’ils reçoivent. Une petite anecdote : ça m’avais fait bien rire à l’époque, quand j’étais en 3ème, mon professeur d’SVT, pour dire Mozilla Firefox nous avait sorti Godzilla Firefox, et pensait que c’était le fameux monstre. Peut-être faisait-il une confusion avec le logo de Mozilla qui est un dinosaure ?

Pour améliorer la situation, déjà il faudrait sensibiliser les utilisateurs (aussi bien professeurs qu’élèves), et je pense vraiment qu’il n’y a que les gérants informatique de l’établissement qui peuvent changer la situation en bannissant Windows, et en préférant Linux, ou encore laisser libre aux utilisateurs de booter sur l’OS de leur choix. Mais le gros problème c’est que de très (trop) nombreux logiciel nécessaires à certains programmes scolaires ne tournent que sous Windows.

Sur ton blog, tu t’es récemment inquiété du choix de ton lycée pour la solution Microsoft Live@edu (cf ce billet blog). En quoi ce choix est-il un mauvais choix ?

Rha, si je sortais tout ce que je pense pour répondre à ta question, ça en ferait trop ! Déjà parce-que ça renforce le monopole de Microsoft dans l’éducation, et permet de sortir ses applications web de l’établissement, qui arrivent dans les foyers même des élèves/professeurs. Quand un truc marche pas sur la plateforme Windows Live, les profs nous demandent quel navigateur on utilise et nous recommandent Internet Explorer… Désolant…

Et puis, ce n’est pas une manière de faire que de proposer cette plateforme à ses élèves, surtout que nos données sortent de l’établissement, et arrivent dans un data-center suisse (si je me souviens bien). Et mon lycée n’a donné aucune fiche à signer l’autorisant à céder mes informations à un tiers (ici mon nom, mon prénom, mon établissement). Et puis ça conditionne encore les gens à utiliser le réseau MSN, les blogs Windows Live ou encore le service SkyDrive.

Pourquoi ne pas déployer un serveur à l’intérieur même du lycée, avec une plateforme comme Elgg, que je trouve bien mieux conçue et beaucoup plus accessible ? Mais surtout ouverte et décentralisée ! Elle permet les mêmes choses, voir plus. Alors pourquoi choisir en permanence Microsoft (ils ont des aides financières, c’est pas possible ?!) ?

iPod, iPhone, ça te fait rêver ?

Pas vraiment, en fait je n’ai (encore) aucun produit Apple chez moi ! Tout le monde a des iPods, je n’en ai pas, et franchement ça ne me donne pas envie. Je ne renie pas le fait que l’iPhone est superbement bien conçu, mais je ne suis pas forcément pour les smartphones, et encore moins si ce n’est pas basé sur une architecture libre.

Et puis, quand ça lit pas le Ogg, c’est pas intéressant 😉

Certains caricaturent les jeunes et leur usage d’internet qui se résumerait à MSN, Facebook, World of Warcraft et du copier/coller de Wikipédia. Qu’as-tu envie de dire à ces gens là ?

Eh bien j’ai envie de dire qu’ils ont raison et qu’ils ont tort. Raison parce-que c’est quand même le cas de pas mal de jeunes (Skyblogs, MSN et Facebook comme tu le dis et pis tant qu’à y être l’exposé venant directement de Wikipédia !). Mais il n’y a pas qu’eux, et heureusement ! C’est vrai que pas mal de gens voient l’Internet sous cet angle là, mais une autre partie le voit différemment.

Le truc qui m’avait bien fait rire, c’est quand j’avais demandé à un ami quel était son navigateur web : il m’a répondu « Ben… Google ! ». En fait il parlait de sa homepage, et son butineur arborait une jolie icône en « E » bleue. Un autre ami pensait que Internet Explorer, c’était Internet, et que Mozilla Firefox c’était pas le vrai Internet… (ça vole haut !). M’enfin bon, depuis il est passé quand même à Mozilla Firefox tout ça parce-qu’un site pour télécharger des voitures dans TrackMania ne marchait pas sous son IE.

Est-il difficile d’expliquer à ses camarades ce qu’est un logiciel libre ? Penses-tu que la diffusion de la pratique du piratage et la confusion libre/gratuit compliquent la situation ? Les as-tu senti concernés par le débat sur l’Hadopi ?

Très difficile ! J’ai converti un ami à Linux, c’est déjà pas mal, et sensibilisé plusieurs : mais certains continuent à dire logiciel gratuit pour logiciel libre ou encore logiciel libre pour logiciel gratuit. C’est sûr qu’au début ça peut porter à confusion, mais au moins ils sont sensibilisés. Et puis il y a encore les pro-Microsoft qui ne veulent même pas savoir ce qu’est un logiciel libre, et restent bornés à ce qu’ils connaissent/utilisent.

Oui, certes, cette confusion avec le piratage complique la situation, et, résultat les gens ont téléchargé illégalement sans limites pendant plusieurs années. Ce qui a entraîné le gouvernement à faire un peu n’importe quoi avec Hadopi (enfin, les maisons de disque à pousser le gouvernement à faire n’importe quoi). Malheureusement.

Justement, j’avais un ami qui disait, qu’au début l’Hadopi c’était génial, que les artistes devaient pouvoir vivre de leur métier et tout le blabla, là je ne le contredis pas quand à la rémunération des artistes, mais ce qu’il ne comprenait pas c’est que les musiciens n’auront pas beaucoup plus avec cette loi qui n’est que dans l’intérêt des maisons de disque ! En tout cas, maintenant que cette même personne a commencé à télécharger illégalement, elle pense tout le contraire. Comme quoi : « faites ce que je dis, mais pas ce que je fais ! »…

Je vois que tu es également développeur sur ton temps… libre avec le projet KOLoad. Peux-tu nous en dire davantage ? (et au passage pourquoi ce choix de la licence CeCILL ?)

Oui, j’ai commencé à apprendre le HTML/CSS il y a un an (je maîtrise parfaitement ces langages maintenant), et je me met au JavaScript et PHP peu à peu. C’est pourquoi l’été dernier, en même temps d’apprendre le PHP, je codais pour m’entraîner sur ce que je venais d’assimiler. Et puis je me suis dit que KOLoad pouvait être utile à la communauté, donc je l’ai publié. Et puis au lieu d’utiliser SkyDrive comme tout le monde au lycée, j’aurais mon KOLoad sur mon serveur 😉 Cependant, je tiens à préciser qu’il ne sera pas maintenu (je suis actuellement sur des projets plus important, comme Movim, qui a pour but de créer un réseau social libre et décentralisé basé sur XMPP !).

J’ai choisi la licence CeCILL, tout simplement, parce-que KOLoad est basé sur listr, un projet de navigateur de fichiers en PHP, qui était lui-même publié sous la licence CeCILL. Pour ne rien changer, je l’ai donc gardée. Cette licence me paraissait bonne pour le logiciel libre, donc je ne me suis pas amusé à changer !

Penses-tu que ce serait une bonne idée de créer un « cours d’informatique » comme cela se discute actuellement ? Et si oui pour quel niveau et pour quel contenu ?

Mhh, si tu parles de cours informatique à l’école, ça peut être utile à hauteur d’une heure toutes les 2 semaines par exemple, histoire de faire découvrir des alternatives, de sensibiliser les jeunes sur le libre (tant qu’à y être !). Et puis de nos jour, ne pas savoir utiliser correctement un ordinateur est assez problématique pour son futur métier.

Pour ce qui est du niveau, pourquoi ne pas avoir plusieurs groupes qui feraient, pour les plus expérimentés, des choses plus poussées (bon, j’imagine que ça irait pas jusqu’à la programmation quand même !). Mais le truc que j’aurais adoré en tant que lycéen, c’est justement une option « programmation » ! Inutile pour la section que je fait actuellement, mais passionnant ! 🙂

Comment vois-tu l’avenir du logiciel libre ?

Comme la devise de Framasoft le dit si bien : on a encore du boulot pour sensibiliser et promouvoir, mais on remarque tout de même une petite progression au fil des années.

Le truc qui me fait peur c’est l’ascension des applications web, à intérêt commercial (je pense aux services Google). Le code est fermé pour celles-ci, et on arrive dans l’impasse de la centralisation. À mon avis, la communauté du logiciel libre devrait s’activer dans les applications web décentralisées, puisque c’est l’avenir de l’informatique, malheureusement à mon avis… (Le futur Chrome OS souligne bien ça).

Bonne chance pour la suite de tes études 😉

Merci ! Il y a du pain sur la planche 🙂

Notes

[1] Crédit photo : Chapendra (Creative Commons By)




Quand la Francophonie soutient le logiciel libre en Afrique

En septembre 2006, la francophonie réunie à Bucarest par l’OIF proposait sur le site officiel de l’évènement un très intéressant article intitulé Le choix des logiciels libres, que nous avons reproduit ci-dessous.

Il n’est donc pas étonnant mais tout à fait réjouissant de les retrouver dans ce petit reportage réalisé à Niamey au Niger par TV5 Québec Canada.

« Cette formation, qui va durer une semaine, permettra à une trentaine de nigériens issus de différents secteurs d’activités, l’administration publique en général, le secteur de l’éducation, le secteur privé, de bénéficier d’une formation de pointe en environnement libre. »

—> La vidéo au format webm

Le choix des logiciels libres

URL d’origine du document

Conformément aux Conférences ministérielles sur la culture (Cotonou, 2001) et sur la société de l’information (Rabat, 2003), la Francophonie favorise le développement, la diffusion et l’usage de logiciels libres…

La Francophonie favorise le développement, la diffusion et l’usage de logiciels libres pour éviter que les pays en développement ne se trouvent en situation de dépendance technologique vis-à-vis d’un fournisseur.

La liberté de choix technologique défendue par la Francophonie vise à favoriser une appropriation réelle et maîtrisée des technologies. Mettre en commun le savoir, le faire évoluer librement, l’enrichir par une dynamique collaborative et répondre ainsi au besoin légitime de tous de participer pleinement à l’édification de la société de l’information sont le fondement même du concept des logiciels libres.

L’expression « logiciel libre » fait référence à la liberté pour les utilisateurs d’exécuter le programme, d’étudier son fonctionnement et de l’adapter à leurs besoins, de redistribuer des copies, d’améliorer le programme et de publier les améliorations pour en faire profiter toute la communauté. Le choix de l’utilisation de normes et de standards ouverts permet d’éviter des incompatibilités techniques pouvant conduire à des pertes de données publiques.

Il s’oppose à toute restriction des échanges et encourage la diversité d’expression. Beaucoup plus qu’une solution technique, il défend le libre accès aux savoirs. Grâce à leur faible coût d’opération et surtout aux principes de liberté et de partage qu’ils sous-tendent, les logiciels libres représentent une opportunité pour soutenir le développement durable des pays francophones du Sud.

L’OIF a donc soutenu l’organisation des Rencontres africaines du logiciel libre (respectivement du 4 au 7 octobre à Ouagadougou et du 19 au 21 octobre à Libreville). Les Rencontres mondiales 2005 sur les logiciels libres de Dijon (France, 5-9 juillet) ont également été soutenues, ainsi que le 7e Forum international du logiciel libre de Porto Alegre (Brésil, 19-22 avril 2006).

L’AUF, en partenariat avec l’Association francophone des utilisateurs de Linux et logiciels libres, a mis en place un réseau de centres Linux et logiciels libres fondé sur le développement et l’utilisation de solutions technologiques et pédagogiques ouvertes dans les pratiques d’enseignement, de recherche ou de communication. Ces centres sont basés à Antananarivo, Bamako, Chisinau, Dakar, Hanoi et Rabat.

L’Intif met en place des Laboratoires TIC (Labtic), véritables espaces collectifs mutualisés servant de cadre à la démultiplication des transferts de compétences au niveau national, en associant les acteurs des secteurs public, privé et associatif. Les Labtic permettent ainsi de faire des formations tout en créant un environnement matériel et logiciel permettant aux stagiaires de poursuivre et de consolider leurs acquis de manière continue. Ces actions de formation favorisent une appropriation technologique réelle qui peut servir de base à une industrie nationale numérique. En 2006, 15 laboratoires sont en place auprès de partenaires locaux dans les pays en développement : Bulgarie, Burkina Faso, Cameroun, Côte d’Ivoire, Gabon, Guinée, Laos, Madagascar, Mali, Maroc, Mauritanie, Niger, Sénégal, Togo, Vietnam.




Le logiciel libre est mort, longue vie à l’open source ?

Squacco - CC by-saVous n’êtes pas un familier du Framablog et de ses thèmes de prédilection ? Alors ce billet risque de vous sembler destiné à une chapelle de spécialistes, susceptibles et pointilleux, toujours prompts à s’enflammer pour d’obscures querelles de clochers[1] (autrement appelés trolls dans le milieu).

Or, c’est peut-être plus significatif que cela.

En effet, ceux qui découvrent « le logiciel libre », en ayant déjà eu du mal à saisir toute la finesse du concept, sont parfois étonnés de constater la présence d’une autre expression, qu’ils jugent de prime abord synonyme : « l’open source ».

Par exemple, l’Open World Forum 2009, qui se déroule en ce moment même à Paris, est ainsi présenté en accueil du site : « Au coeur de la révolution de l‘Open Source, l’Open World Forum 2009 permettra de cross-fertiliser les initiatives pour favoriser la croissance économique : Les logiciels libres au coeur de la relance économique ». Quant à son président, il évoque, rien que ça, un « Davos des logiciels libres et de l’innovation ouverte »[2].

Les deux expressions semblent ici interchangeables. Et pourtant, pour paraphraser Wikipédia : « La principale critique issue du Mouvement du Logiciel Libre (de Richard Stallman) est le fait que l’open source ne communique presque exclusivement que sur les caractéristiques techniques des logiciels (la liberté d’accès au fonctionnement du logiciel) en occultant les motivations premières dont elles sont issues, au risque de les perdre. Ils accusent l’open source d’être mû par une dynamique économique et commerciale, l’opposant au logiciel libre mû par des idéaux d’ordre philosophique et politique. »

Critique renforcée par cet article de Richard Stallman : Pourquoi l’« open source » passe à coté du problème que soulève le logiciel libre.

Avec cette grille de lecture, on pourrait reprendre l’exemple de l’Open World Forum et en conclure qu’il aurait été peut-être plus pertinent et cohérent de permuter les associations : « révolution du logiciel libre », « Davos de l’open source ».

Or le titre de mon billet laisse à penser que la donne a changé puisque l’un l’emporterait désormais clairement sur l’autre, jusqu’à prendre acte de sa disparition. C’est en tout cas la thèse de Matt Asay qui a réveillé les antagonismes dans un récent article intitulé justement : Free software is dead. Long live open source.

Réponse immédiate de Glyn Moody dans un autre article, qui est celui que nous avons choisi de traduire ci-dessous.

Parce que si le pragmatisme et le compromis ont leurs vertus, il serait dommage que le souci de « suivre le courant dominant » en vienne à sacrifier la liberté sur l’autel de l’open source.

Sans le logiciel libre, l’open source perdrait tout son sens

Without Free Software, Open Source Would Lose its Meaning

Glyn Moody – 28 septembre 2009 – LinuxJournal.com
(Traduction Framalang : Claude)

Je suis un grand fan des écrits de Matt Asay sur le logiciel libre. Il associe une fine intelligence analytique avec cette chose rare : une longue expérience de terrain dans le monde du business open source. Mais alors que j’attendais généralement avec intérêt la lecture de ses billets, je redoutais particulièrement l’apparition de celui qu’il, je le savais, écrirait un jour… car il aurait tort. Voilà, ce billet est maintenant écrit, et avec un titre pour le moins explicite : « Le logiciel libre est mort, longue vie à l’open source ».

Matt précise dans son premier paragraphe quel est le problème principal :

L’une des choses les plus exaltantes, à laquelle j’ai assisté pendant plus de dix années dans l’open source, est son adhésion progressive au pragmatisme. Par « pragmatisme », je ne veux pas dire « capitulation » au sens où l’open source en vienne à ressembler au monde propriétaire qu’il chercherait à remplacer. Plus précisément, je sous-entends que, plus l’open source suit le courant dominant (NdT : going mainstream), plus il apprend à faire des compromis : compromis qui le rendent plus fort, pas plus faible.

Quand j’ai interviewé Richard Stallman en 1999, voici ce qu’il avait à dire à ce sujet :

Si nous avons aujourd’hui un système d’exploitation entièrement libre, c’est grâce au Mouvent du Logiciel Libre qui affirmait que nous voulions un système d’exploitation entièrement libre, et non libre à 90%.

L’open source existe parce que des créateurs de programmes libres ont refusé tout compromis. Le « pragmatisme » exalté par Matt est une option pour l’open source uniquement parce que ceux qui firent tout le travail difficile de création du logiciel libre, ont refusé initialement toute compromission.

Il y a dix ans, Stallman stigmatisait les dangers de la compromission :

Si vous n’avez pas la liberté pour principe, vous trouverez toujours une bonne raison de faire une exception. Il y aura toujours des moments où, pour une raison ou pour une autre, vous trouverez un avantage pratique à faire une exception.

La compromission est une pente glissante : une fois que vous commencez à la descendre, il n’existe pas d’endroit précis où s’arrêter. C’est alors un bel instrument entre les mains d’un Microsoft : sa stratégie actuelle est de diluer le sens « d’open source », la classique stratégie « adopte, étend et étouffe » (NdT : « embrace, extend and extinguish »), jusqu’à ce qu’il devienne une nouvelle expression marketing à la mode, systématiquement employée , ayant perdu toute sa substance et au bout du compte sans réelle valeur.

Et alors ? pourriez-vous demander. Si, comme l’écrit Matt, toute la question est de « suivre le courant dominant », alors un telle dilution de la ligne séparant logiciel libre et non-libre n’est sûrement qu’un faible prix à payer pour parvenir à un usage plus large de l’open source. Ceci pourrait être vrai à court terme, mais je ne pense pas que ce soit une stratégie judicieuse à long terme, même d’un point de vue purement pragmatique.

Par exemple les compromissions actuelles, incluant le travail sur des technologies développées par Microsoft (dont elle pourrait détenir les brevets sous certaines conditions juridiques), signifient qu’en fin de compte les développeurs open source prennent des risques et fragilisent leur autonomie et pouvoir d’autodétermination futur.

Qui plus est, si le terme « open source » perd de sa valeur, de nombreux codeurs et utilisateurs deviendront désabusés et commenceront à l’abandonner. Ceux-ci trouveront le partage de plus en plus asymétrique, leurs contributions n’ayant que peu de retour en échange (ce qui pourrait très bien arriver aux sociétés Open Source utilisant la licence GNU/GPL si elles demandent, comme cela arrive de plus en plus souvent, aux contributeurs de céder leurs droits d’auteurs). De la même manière, les utilisateurs découvriront que certaines de ces nouvelles et « troubles » applications open source ne fournissent plus les bénéfices promis de contrôle, personnalisation et réduction du coût.

Or la question n’est pas de « suivre le courant dominant » mais, comme le rappelle Stallman, d’avoir la « liberté comme principe ». Diffuser du logiciel libre concerne la diffusion de logiciel libre pas la libération du logiciel : le programme n’est que le moyen, pas la fin. C’est ce que disait déjà Stallman, il y a dix ans :

Il y a des problèmes de liberté plus importants. Des problèmes de liberté dont tout le monde a entendu parlé et qui sont bien plus importants que cela : la liberté de parole, la liberté de la presse, la liberté de se réunir.

Mais pourquoi donc Stallman se préoccupe-t-il autant du logiciel libre ?

Je ne vois pas comment je pourrais faire quelque chose de plus important dans un autre domaine.

Stallman continue farouchement sa croisade pour la liberté par le biais du logiciel libre car, comme il le reconnaît humblement, c’est là qu’il peut apporter sa plus grande contribution.

Puique c’est cette absence de compromission qui caractérise sa manière de lutter pour la liberté, il est prêt à faire et dire des choses (NdT : comme d’accuser récemment Miguel de Icaza de traîtrise) que les gens du monde pragmatique de l’open source trouvent regrettables voire choquantes. Et comme Stallman contrarie ainsi leur souhait de « suivre le courant dominant », ils en éprouvent souvent un grand ressentiment à son égard. Mais ils oublient que les combattants de la liberté (puisque c’est ainsi que se définit Stallman lui-même ) ont toujours été si concentrés sur leurs objectifs essentiels, que les affaires triviales comme le confort ou les bonnes manières ont tendance à être mises de côté.

En fin de compte, la raison pour laquelle le logiciel libre ne peut se compromettre, est que toute compromission liée à la liberté se fait à nos dépends : il n’y a rien de libre à 50%. Comme nous l’apprend l’histoire, la liberté n’est pas obtenue en « suivant le courant dominant », mais par une infime minorité de monomaniaques têtus, souvent agaçants qui refusent toute compromission tant qu’ils n’ont pas eu ce qu’ils souhaitent. Chose merveilleuse, nous pouvons tous partager les libertés qu’ils ont gagnées, que nous les ayons ou pas aidé, que nous soyons ou pas à la hauteur de leurs exigences de rigueur.

De la même manière, sans leur obstination, leurs efforts constants et leurs éventuelles victoires, nous perdrions toutes ces libertés, car elles sont toutes temporaires et doivent être en permanence reconquises. En particulier, sans la question précise de l’intégrité du logiciel libre , l’open source se diluerait vite d’elle-même dans un courant inconsistant qui ne trouverait plus de sens.

Notes

[1] Crédit photo : Squacco (Creative Commons By-Sa)

[2] Davos de l’open source et/ou Porto Alegre du logiciel libre ? Telle pourrait d’ailleurs être l’ironique question ! Ou encore : Les RMLL sont au logiciel libre ce que l’Open World Forum est à l’open source !




Appel de soutien de la FSF à l’occasion des 25 ans du projet GNU

Appenz - CC byDans un récent entretien que nous avions traduit, Richard Stallman évoquait le fait d’être parfois marginalisé au sein d’une communauté qu’il a lui même contribué à construire.

Son regret ne concerne bien entendu pas l’efficience, la qualité et les succès toujours plus nombreux que remportent le logiciel libre. Mais celui de constater que certains en chemin minimisent voire écartent le mouvement social et éthique qui sous-tend à ses yeux le logiciel libre.

C’est l’historique et classique opposition entre « open source » et « free software ». Et il serait dommage que le premier phagocyte le second sous prétexte qu’il est bien plus politiquement correct.

Voici très grossièrement synthétisé pourquoi nous soutenons la Free Software Foundation, et ne manquons pas de traduire et relayer bon nombre de ses appels et communiqués[1].

25 ans de GNU – Soutenons la liberté du logiciel

25 years of GNU – support software freedom!

Peter Brown – 29 septembre 2009 – FSF.org
(Traduction Framalang : Quentin et Goofy)

Chers supporters du logiciel libre,

Demain s’achèvera une année de célébrations du 25ème anniversaire du projet GNU. Une célébration démarrée en trombe en septembre 2008 avec l’excellente vidéo de l’auteur et comédien Stephen Fry.

Aujourd’hui, nous célébrons le fait que nous avons passé le cap des 25 000 personnes inscrites à notre newsletter mensuelle, la Free Software Supporter, et nous remercions les 3 200 personnes qui ont rejoint la Free Software Foundation comme membres associés pour financer notre travail. Vous pouvez rejoindre leur rang tout de suite et arborer fièrement votre carte de membre en :

Je suis fier que la FSF ait autant d’activistes et de membres dévoués, qui chaque jour proclament leur soutien à notre cause et plaident pour une société libre.

Le mouvement du logiciel libre a passé une excellente année, et son importance sur le plan éthique est de plus en plus reconnue. Ensemble, nous combattons le fléau du logiciel propriétaire, des brevets logiciels, des DRM, et de l’informatique pleine de chausse-trappes, dans un effort pour construire un monde de logiciels libres où nous, les utilisateurs, nous serons libres.

« J’aurais pu gagner de l’argent (en rejoignant le monde des logiciels propriétaires), et peut-être pris du bon temps à écrire du code. Mais je savais qu’à la fin de ma carrière, j’aurais fait le bilan de ces années passées à ériger des murs entre les individus, et j’aurais eu le sentiment d’avoir gâché ma vie en rendant le monde pire qu’il n’aurait pu l’être. »

Richard Stallman, projet GNU.

Aidez-nous à finir en beauté cette année faste pour le GNU en devenant membre ou en effectuant un don, et merci pour votre soutien sans faille !

Notes

[1] Crédit photo : Appenz (Creative Commons By)




La liberté ambigüe du paramétrage par défaut

Manuel Cernuda - CC byMon lycée a, depuis un certain temps déjà, opté pour un déploiement massif de la suite bureautique libre OpenOffice.org. Sauf que notre informaticien l’installe sur les postes en modifiant systématiquement l’option du format d’enregistrement « par défaut », substituant au format natif et ouvert ODF la famille de formats fermés bien connus de la suite Microsoft Office (le .DOC pour Word, le .XLS pour Excel et le .PPT pour Powerpoint).

Et lorsque je lui signifie, outré, mon mécontentement, il me répond qu’il convient de ne surtout pas perturber les enseignants, qui ont tous MS Office chez eux, et qui sont habitués à travailler dessus depuis des années (« Tu comprends, sinon ils vont rentrer à la maison avec leurs fichiers ODF dans leur clé, cliquer dessus pour ouvrir le document et… ça va être le bordel parce qu’aucune application ne sera trouvée par le système. Ils vont râler, m’assaillir de questions et c’est bibi qui assurera la hotline ! »).

Et c’est ainsi que l’on passe à côté de toute la problématique des formats (excellente porte d’entrée pour engager une discussion plus générale sur « le libre »). En tirant un peu le trait, on pourrait presque dire que l’on ne réalise finalement ici qu’une « fausse » migration, ou tout du moins que l’on s’est arrêté au milieu du chemin.

Fin de l’anecdote qui n’avait pour but que d’introduire le sujet (et la traduction) du jour : le paramétrage par défaut.

Lorsqu’on découvre un logiciel (ou carrément un système d’exploitation) pour la première fois, un certain nombre de choix ont été réalisés pour nous, afin, en théorie, de nous faciliter la tâche pour que nous soyons de suite opérationnels. Mais ces choix ne sont pas forcément neutres. D’abord parce que nous sommes tous différents (« l’utilisateur lambda » n’existe pas). Mais aussi, voire surtout, parce que nous savons fort bien qu’une forte majorité d’utilisateurs, pour de multiples raisons (inertie, crainte…) ne modifieront jamais ces options de démarrage.

Vous êtes un utilisateur désormais aguerri de GNU/Linux. Vous avez choisi votre distribution (Ubuntu, Mandriva, Fedora…), vous avez choisi votre environnement graphique (GNOME, KDE…), vous avez configuré le tout aux petits oignons en rivalisant d’esthétisme et d’ergonomie pour vous offrir un magnifique bureau personnalisé (illustration[1]). Vous naviguez sur un Firefox bourré d’extensions toutes plus utiles les unes que les autres eu égard à vos propres besoins et intérêts… Alors, félicitations, vous baignez dans l’univers culturel numérique de la richesse, de la diversité et de l’autonomie. Vous y êtes même tellement habitué que vous avez certainement oublié le nombre de paramétrages par défaut qu’il vous aura fallu lever pour arriver à cette situation qui est la vôtre aujourd’hui.

Parce que votre univers est malheureusement passablement éloigné de celui de Madame Michu (qui, je suis d’accord, n’existe pas non plus). Elle a acheté un ordinateur avec « par défaut » Windows à l’intérieur, dans lequel se trouvait « par défaut » Internet Explorer (page d’accueil Microsoft, Google ou FAI, inchangée), Outlook Express, Windows Media Player etc. et elle s’y tient. Elle s’y cramponne même, en résistant dur comme fer si jamais on s’en vient lui montrer, avec pourtant moultes précautions, qu’un « autre monde informatique est possible » (dans ce contexte là j’en arrive même parfois à me demander, un brin provocateur, si ce n’est pas « l’utilisateur par défaut » qu’il convient de paramétrer plutôt que ses logiciels !). C’est frustrant et dommage, parce que si il y a paramétrage par défaut, cela signifie également qu’il y a liberté de changer ces paramètres. Comme dirait l’autre, la liberté ne s’use que si l’on ne s’en sert pas…

Mais je m’égare, puisqu’il s’agissait juste de présenter l’article ci-dessous qui, bien que ne se souciant nullement des conséquences du paramétrage par défaut sur le logiciel libre, nous offre ici un exposé original et intéressant.

Remarque (à la lisière du troll) : C’est peut-être aussi là que réside le succès d’Ubuntu, dont la relative absence de choix à l’installation (un seul bureau, un seul logiciel par application, etc.) a grandement rassuré les nouveaux venus issus de Windows. De là à affirmer qu’Ubuntu est devenue « la distribution par défaut de l’OS GNU/Linux », il n’y a qu’un pas que je me garderais bien de franchir 😉

Le triomphe du « par défaut »

Triumph of the Default

Kevin Kelly – 22 juin 2009 – The Technium
(Traduction Framalang : Olivier et Julien R.)

Peu reconnu, le « par défaut » est l’une des plus grandes inventions de l’ère moderne. « Par défaut » est un concept technique introduit par l’informatique dans les années 1960 pour désigner les réglages pré-sélectionnés (comme par exemple dans « Ce programme accepte par défaut les dates au format jj/mm/aa, et non jj/mm/aaaa »). De nos jours, la notion de réglage par défaut dépasse le simple cadre de l’informatique et s’est répandue dans la vie de tous les jours. Aussi insignifiant que cela puisse paraître, l’idée de réglage par défaut est fondamentale pour « The Technium » (NdT : le livre qu’est en train de rédiger l’auteur dont cet article fait partie).

Difficile de concevoir aujourd’hui une époque où le « par défaut » n’existait pas. Mais le « par défaut » n’a gagné en popularité qu’à mesure que l’informatique s’est démocratisée ; c’est l’héritage de systèmes technologiques complexes. Le « par défaut » n’existait pas sous l’ère industrielle. À l’aube de l’ère moderne, quand les ordinateurs plantaient souvent et qu’entrer les variables était un vrai calvaire, une valeur par défaut était la valeur que le système s’assignait automatiquement si le programme échouait ou s’il était démarré pour la première fois. C’était une idée brillante. Sauf si l’utilisateur ou un programmeur prenait la peine de le modifier, le réglage par défaut régnait, assurant ainsi que le système hôte fonctionne. Chaque produit électronique et chaque logiciel était livré dans sa configuration par défaut. Les réglages par défaut répondent aux normes attendues par les acheteurs (par exemple la tension des appareils électriques aux États-Unis), ou à ce qu’ils attendent d’un produit (les sous-titres désactivés pour les films), ou encore aux questions de bon sens (anti-virus activé). La plupart du temps les réglages par défaut satisfont les clients, et ils ont maintenant envahi tout ce qui est personnalisable : automobiles, assurances, réseaux, téléphones, assurance maladie, cartes de crédit, etc.

En effet, chaque objet contenant un tant soit peu d’intelligence informatique (c’est à dire tout équipement moderne) est paramétré par défaut. Ces présélections sont autant de partis pris implantés dans le gadget, le système ou l’institution. Mais les réglages par défaut ne sont pas que des hypothèses silencieuses matérialisées dans tout objet manufacturé. Par exemple, tous les outils manuels sont faits, par défaut, pour les droitiers. Faire l’hypothèse que l’utilisateur sera droitier étant simplement normal, pas besoin d’en faire étalage. De même, la forme des outils est généralement faite pour des mains d’hommes. Mais ça ne se limite pas qu’aux outils : les premières automobiles étaient construites sur l’hypothèse que le conducteur serait un homme. Pour toute chose manufacturée, le constructeur doit faire des hypothèses sur ses clients potentiels et leurs motivations ; ces hypothèses trouvent naturellement leur place aussi dans tout ce qui est technologique. Plus le système est vaste, plus le constructeur doit faire des hypothèses. En examinant attentivement une infrastructure technologique particulière vous pouvez deviner les hypothèses cachées dans sa conception. Ainsi, on retrouve dans des domaines aussi variés que le réseau électrique, le système ferroviaire, les autoroutes ou l’enseignement certaines caractéristiques du citoyen américain : optimisme, importance de l’individu et penchant pour le changement.

Mais, alors que ces choix arbitraires, communs à toutes les technologies, sont à bien des égards semblables au concept de « défaut », ce n’est plus vrai aujourd’hui et ce pour une raison essentielle : les réglages par défaut sont des hypothèses qui peuvent être modifiées. Vous ne pouvez pas adapter des outils faits pour les droitiers à l’usage des gauchers. À l’époque, l’hypothèse que le conducteur était un homme se retrouvait dans la position du siège dans les automobiles. En changer n’était pas simple. Mais ce que l’on ne pouvait faire hier est désormais permis par la technologie actuelle. En effet presque tous les systèmes technologiques d’aujourd’hui ont en commun la facilité à être rebranchés, modifiés, reprogrammés, adaptés et changés pour convenir à de nouveaux usages ou à de nouveaux utilisateurs. Beaucoup (pas toutes) des hypothèses faites ne sont pas immuables et définitives. La multiplication des paramètres par défauts et leur modularité offre aux utilisateurs un vrai choix, s’ils le désirent. Les technologies peuvent être adaptées à vos préférences et optimisées pour mieux vous correspondre.

L’inconvénient de toutes cette personnalisation, cependant, est qu’on se retrouve un peu noyé sous le choix. Trop d’alternatives et pas assez de temps (sans parler de l’envie) de toutes les tester. Ne vous-êtes vous pas déjà retrouvé paralysé par l’indécision devant les 99 variétés de moutardes sur les étalages du supermarché, ou devant les 2 536 options de votre assurance santé, ou encore devant les 36 000 coupes de cheveux différentes pour votre avatar dans un monde virtuel ? Il existe une solution toute simple à cette sur-abondance délirante de choix : les paramètres par défaut. Les « défauts » vous permettent de choisir quand choisir. Votre avatar par défaut pourrait pas exemple être un avatar quelconque, un gamin en jean par exemple. Vous pouvez vous soucier de la personnalisation plus tard. C’est un peu un choix guidé. Ces milliers de variables, de vrais choix, peuvent être guidés en optant pour un choix par défaut intelligent, un choix fait à notre place, mais qui ne nous prive pas de notre liberté de le changer dans le futur, à notre convenance. Mes libertés ne sont pas restreintes, mais sont étalées dans le temps. Quand je me sens plus à l’aise, je peux revenir sur mes préférences pour mieux les adapter, en ajouter ou en retirer, en changer ou les personnaliser. Dans les systèmes par défaut bien pensés, je conserve toujours mon entière liberté, mais les choses me sont présentées de telle sorte que je peux prendre mon temps pour faire mes choix, au fur et à mesure et quand je me sens mieux à même de les faire.

Comparez maintenant cette sur-abondance de choix à ce que vous propose un marteau, une automobile ou le réseau téléphonique des années 1950. L’utilisation de ces outils vous était imposée. Les meilleurs ingénieurs ont planché des années pour proposer une conception qui s’adapte le mieux à la majorité, de nos jours encore, certains sont des chef-d’œuvre d’ingéniosité. Si ces objets et infrastructures étaient peu modulables, ils étaient remarquablement conçus pour être utilisés par la majorité des personnes. Peut-être qu’aujourd’hui vous ne personnalisez pas plus votre téléphone qu’il y a cinquante ans, mais la possibilité existe. Et les options disponibles sont toujours plus nombreuses. Cette myriade de choix possibles reflète la nature adaptative des téléphones portables et des réseaux. Les choix s’offrent à vous quand vous faites appel à eux, ce qui n’était pas possible quand toutes les décisions étaient prises pour vous.

Les paramètres par défaut ont fait leur apparition dans le monde complexe de l’informatique et des réseaux de communication, mais il n’est pas ridicule pour autant d’envisager leur utilisation pour les marteaux, les voitures, les chaussures, les poignées de portes, etc. En rendant ces objets personnalisables, en y injectant une pincée de puces informatiques et de matériaux intelligents, nous leur ouvrons le monde des paramètres par défaut. Imaginez le manche d’un marteau qui se moulerait automatiquement pour s’adapter à votre prise en main de gaucher, ou à la main d’une femme. On peut très bien envisager d’entrer son genre, son âge, son expertise ou son environnement de travail directement dans les petits neurones du marteau. Si un tel marteau existait, il serait livré avec des paramètres par défauts pré-programmés.

Mais les paramètres par défauts sont tenaces. De nombreuses études psychologiques ont montré que le petit effort supplémentaire demandé pour modifier les paramètres par défaut est souvent de trop et les utilisateurs s’en tiennent aux pré-réglages, malgré la liberté qui leur est offerte. Ils ne prennent pas la peine de régler l’heure sur leur appareil photo, le « 12:00 » entré par défaut continue de clignoter, ou encore ils ne s’embettent pas à changer le mot de passe temporaire qui leur est attribué. La dure vérité, n’importe quel ingénieur vous le confirmera, est que souvent les paramètres par défaut restent inchangés. Prenez n’importe quel objet, 98 options sur 100 seront celles préconfigurées en usine. Je reconnais que, moi-même, j’ai très rarement touché aux options qui m’étaient offertes, je m’en suis tenu aux paramètres par défaut. J’utilise un Macintosh depuis le début, voilà plus de 25 ans, et je découvre encore des paramètres par défaut et des préférences dont je n’avais jamais entendu parler. Du point de vue de l’ingénieur, cette inertie est un signe de réussite, cela signifie que les paramètres par défaut sont bien choisis. Leurs produits sont utilisés sans beaucoup de personnalisation et leurs systèmes ronronnent doucement.

Décider d’une valeur par défaut est synonyme de puissance et d’influence. Les paramètres par défaut ne sont pas qu’un outil pour aider les utilisateurs à apprivoiser leurs options, c’est aussi un levier puissant dont disposent les fabricants, ceux qui décident de ces valeurs, pour diriger le système. Les orientations profondes que traduisent ces valeurs par défaut façonnent l’usage que l’on fait du système. Même le degré de liberté qui vous est accordé, avec les choix occasionnels que l’on vous demande de faire, est primordial. Tout bon vendeur sait ça. Ils agencent magasins et sites Web pour canaliser vos décisions et ainsi augmenter leurs ventes. Disons que vous laissez des étudiants affamés choisir leur dessert en premier plutôt qu’en dernier, cet ordre par défaut a une influence énorme sur leur nutrition.

Chaque rouage d’une technologie complexe, du langage de programmation, à l’aspect de l’interface utilisateur, en passant par la sélection de périphériques, renferme d’innombrables paramètres par défaut. L’accès est-il anonyme ? Les intentions des utilisateurs sont-elles bonnes ou mauvaises ? Les paramètres par défaut encouragent-ils l’échange ou le secret ? Les règles devraient-elles expirer à une période donnée ou le renouvellement est-il tacite ? Avec quelle facilité peut-on revenir sur une décision ? Telle décision devrait-elle être activée par défaut ou l’utilisateur doit-il la valider lui-même ? Rien que la combinaison de quatre ou cinq choix par défaut engendre des centaines de possibilités.

Prenez deux infrastructures technologiques, disons deux réseaux d’ordinateurs basés sur le même matériel et sur les mêmes logiciels. L’expérience sur les deux réseaux peut être complètement différente selon les options par défaut imposées. Leur influence est telle qu’on peut presque parler d’effet papillon. En modifiant légèrement un paramètre par défaut, on peut transformer des réseaux gigantesques. Par exemple, la plupart des plans épargne retraite, comme le plan « Corporate 401k », demandent des mensualités très basses, en partie parce qu’ils proposent un choix phénoménal d’options. L’économiste/comportementaliste Richard Thaler rapporte des expériences où les épargnants amélioraient nettement leur épargne lorsque les options étaient sélectionnées par défaut (« choix guidé »). Chacun avait la possiblité de résilier leur programme quand il le désirait et ils étaient libres de modifier leur contrat quand bon leur semblait. Mais le simple fait de passer de « souscription » à « inscription automatique » changeait complètement l’intérêt du système. On peut prendre également l’exemple du don d’organe. Si on déclarait que chacun est donneur à moins qu’il n’émette le souhait contraire, le nombre d’organes donnés augmenterait largement.

Chaque paramètre par défaut est un levier pour façonner le déploiement d’une innovation. L’élaboration d’une infrastructure à l’échelle d’un continent, par exemple, comme le réseau électrique 110V aux États-Unis, peut s’imposer à mesure qu’elle reçoit le soutien d’autres infrastructures (comme les générateurs diesels ou les lignes d’assemblage dans les usines). Ainsi il peut obtenir le suffrage nécessaire pour s’imposer face à une technologie pré-existante, mais à chaque nœud du réseau électrique se cache un paramètre par défaut. Tous ces petits choix par défaut définissent la nature du réseau, ouvert et évolutif mais plus fragile ou fermé et plus sûr. Chaque paramètre par défaut est un levier permettant de façonner le réseau, s’il peut s’accroître facilement ou pas, s’il accepte les sources de puissance non-conventionnelle ou pas, s’il est centralisé ou décentralisé… La technologie définit les systèmes technologiques, mais c’est à nous d’en établir la nature.

Aucun système n’est neutre. Chacun a ses options naturels. On dompte les choix en cascade engendrés par l’accélération de la technologie par petites touches, en adoptant nos propres options afin de les faire tendre vers nos objectifs communs, ce qui a pour conséquence d’augmenter la diversité, la complexité, la spécialisation, la sensibilité et la beauté.

Le « par défaut » nous rappelle également une autre vérité. Par définition, le « par défaut » entre en jeu lorsque nous — utilisateur, consommateur ou citoyen — ne faisons rien. Mais ne rien faire n’est pas neutre, car cela entraîne une option par défaut. Ce qui signifie que « ne pas faire de choix » est un choix lui-même. Il n’y a rien de neutre, même, ou surtout, dans l’absence d’action. Malgré ce que certains veulent bien nous faire croire, la technologie n’est jamais neutre. Même quand vous ne choisissez pas ce que vous en faites, un choix est fait. Un système s’orientera dans une direction plutôt qu’une autre selon que l’on agit ou non sur lui. Le mieux que l’on puisse faire est de lui donner la direction qui va dans notre sens.

Notes

[1] Crédit photo : Manuel Cernuda (Creative Commons By-Sa)




Fracture et solidarité numériques, par Jean-Pierre Archambault

Ferdinand Reus - CC by-saRien de tel pour aborder la rentrée scolaire qu’un excellent article de synthèse de notre ami Jean-Pierre Archambault qui réunit ici deux de ses sujets favoris : le logiciel libre et la place de l’informatique à l’école.

Il est intéressant de noter que l’auteur a associé dans le titre les termes « fracture » et « solidarité », sachant bien que le logiciel, les contenus et les formats libres et ouverts apportent non seulement une réponse au premier mais développent et favorisent le second[1].

Un article un peu long pour un format blog mais qui vaut le coup ! Pour vous donner un ordre d’idée il correspond à deux cents messages Twitter que l’on parcourerait en enfilade 😉

Fracture et solidarité numériques

URL d’origine du document

Jean-Pierre Archambault – septembre 2009 – Association EPI
Licence Creative Commons By-Nd


Le thème de la fracture numérique est solidement installé dans le paysage des débats sociétaux. La nécessité de la réduire prend des allures de consensus : acceptons-en l’augure. Une raison de fond à cela : la place sans cesse croissante de l’informatique dans tous les secteurs de la société, et les enjeux qui y correspondent. La fracture numérique ce sont les inégalités d’accès aux réseaux, aux contenus entre le Nord et le Sud, ainsi qu’au sein des pays développés. Ce sont aussi les inégalités en terme de maîtrise conceptuelle du numérique. Nous examinerons ces problématiques. Le libre, désormais composante à part entière de l’industrie informatique, a permis de constituer au plan mondial un bien commun informatique, accessible à tous. Nous verrons donc pourquoi il est intrinsèquement lié à la lutte contre la fracture numérique, et donc à la solidarité numérique, avec son approche, transposable pour une part à la production des autres biens informationnels, ses réponses en matière de droit d’auteur. Comme le sont également les formats et les standards ouverts. Et nous rappellerons que dans la société de la connaissance, la « matière grise » et l’éducation jouent, on le sait, un rôle décisif.

Le numérique partout

Le numérique est partout, dans la vie de tous les jours, au domicile de chacun, avec l’ordinateur personnel et l’accès à Internet ; dans l’entreprise où des systèmes de contrôle informatisés font fonctionner les processus industriels. Ses métiers, et ceux des télécommunications, occupent une place importante dans les services. On ne compte plus les objets matériels qui sont remplis de puces électroniques. Il y a relativement, et en valeur absolue, de plus en plus de biens informationnels. C’est l’informatique, pour ne prendre que ces exemples, qui a récemment fait faire de très spectaculaires progrès à l’imagerie médicale et qui permet ceux de la génétique. Elle modifie progressivement, et de manière irréversible, notre manière de poser et de résoudre les questions dans quasiment toutes les sciences expérimentales ou théoriques qui ne peuvent se concevoir aujourd’hui sans ordinateurs et réseaux. Elle change la manière dont nous voyons le monde et dont nous nous voyons nous-mêmes. L’informatique s’invite aussi au Parlement, ainsi on s’en souvient, en 2006, pour la transposition de la directive européenne sur les Droits d’auteur et les droits voisins dans la société de l’information (DADVSI), suscitant des débats complexes où exercice de la citoyenneté rimait avec technicité et culture scientifique. Et plus récemment avec la « loi Hadopi ».

La fracture numérique

On imagine sans peine que pareille omniprésence de l’informatique signifie des enjeux forts, économiques notamment. Que tous ne soient pas sur un pied d’égalité, loin s’en faut, face aux profondes mutations que le numérique engendre ne saurait a priori surprendre. Cela vaut, à plus ou moins grande échelle, pour tous les pays. Il y a beaucoup de fractures : sanitaires, alimentaires… Culturelles aussi. Ainsi concernant la maîtrise de sa langue maternelle. Ainsi la fracture mathématique, qui serait bien plus grave encore s’il n’y avait pas un enseignement de culture générale mathématique tout au long de la scolarité. Si l’interrogation sur « la poule et l’oeuf » est éternelle, on peut penser qu’« il est certain que la fracture numérique résulte des fractures sociales produites par les inégalités sur les plans économique, politique, social, culturel, entre les hommes et les femmes, les générations, les zones géographiques, etc. »[2].

Un problème d’accès

La fracture numérique tend à être perçue, d’abord et surtout, comme un problème d’accès : les recherches sur Internet avec son moteur préféré ne laissent aucun doute à ce sujet. Il y a ceux pour qui il est possible, facile de disposer d’ordinateurs connectés au réseau mondial, et les autres. C’est vrai pour le monde en général, et la France en particulier. En juin 2008, présentant « ordi 2.0 », plan anti-fracture numérique, Éric Besson rappelait qu’« être privé d’ordinateur aujourd’hui pour les publics fragiles, c’est être privé d’accès à l’information, à la culture, à l’éducation, aux services publics, donc être exposé à un risque accru de marginalisation ». Un premier volet de son plan, qui confirmait la possibilité prévue par la loi de finances 2008, permettait aux entreprises de donner leurs ordinateurs inutiles, mais en état de marche, à leurs salariés, sans charges sociales ni fiscales. Un deuxième volet visait à favoriser la création d’une filière nationale de reconditionnement, de redistribution et de retraitement des ordinateurs, ainsi que la mise en place d’un « label de confiance », garantissant un matériel en état de fonctionnement et vendu à très bas prix.

La fracture numérique a une dimension géographique. De ce point de vue, la question de l’accès égal aux réseaux est primordiale. Une politique d’aménagement du territoire ne peut que s’en préoccuper. Avec l’objectif de « démocratiser le numérique en accélérant le déploiement des infrastructures », la décision 49 du Rapport de la Commission pour la libération de la croissance française, sous la présidence de Jacques Attali[3], consistait en la « garantie d’une couverture numérique optimale en 2011 ». La décision 51, « faciliter l’accès de tous au réseau numérique » correspondait à l’objectif de réduire les fractures numériques, dont il était dit qu’« elles recouvrent la fracture sociale ». Elle proposait d’« accélérer le taux d’équipement en ordinateurs dans les foyers et TPE/PME avec un objectif d’équipement de 85 % en 2012, au moyen notamment de donations des PC usagés, de soutiens spécifiques aux étudiants, et microcrédit social ».

Pour le World Wide Web consortium qui, le 28 mai 2008, lançait un groupe d’intérêt web mobile pour le développement social (MW4D), « les technologies mobiles peuvent ouvrir aux plus pauvres des accès à des services d’informations essentiels comme les soins de santé, l’éducation, les services administratifs »[4].

L’accès à Internet, un bien commun

Le problème de l’accès est bien réel. De l’accès à Internet, tel qu’il a été créé et a fonctionné jusqu’à maintenant, et qu’il faut préserver. En effet, Internet est, en lui-même, un bien commun accessible à tous, une ressource sur laquelle n’importe quel usager a des droits, sans avoir à obtenir de permission de qui que ce soit. Son architecture est neutre et ouverte. Le « réseau des réseaux » constitue un point d’appui solide dans la lutte contre la fracture numérique[5].

Internet repose sur des standards ouverts de formats de données (HTML pour écrire des pages web) et de protocoles de communication (TCP/IP, HTTP). Il fonctionne à base de logiciels libres : Apache, SendMail, Linux… Il est donc impossible de verrouiller le réseau par la pratique du secret. Les logiciels libres contribuent à construire une plate-forme neutre. Ils la protègent par des licences comme la GPL et la diffusion du code source, garantissant aux développeurs qu’elle le restera dans l’avenir.

Les logiciels et les contenus numériques

Si l’accent est mis, à juste titre, sur la nécessité de disposer d’un ordinateur pour accéder au monde du numérique[6], les discours sont en général plus « discrets » sur le système d’exploitation. Or, sans système d’exploitation, que les acheteurs ont encore trop souvent l’impression de ne pas payer même lorsqu’il est « propriétaire », pas de machine qui fonctionne.

La fracture numérique, c’est aussi les inégalités d’accès aux logiciels et aux contenus, les régimes de propriété intellectuelle qui entravent leur circulation, leur production. Il y a désormais deux informatiques qui coexistent : libre et propriétaire. Des contenus numériques sous copyright mais aussi sous licences Creative Commons. Ces approches diffèrent sensiblement, sont quasiment antinomiques. Le débat sur leurs « mérites » respectifs, et les choix à opérer, se situe de plain-pied dans la problématique de la fracture numérique. Il peut arriver qu’il en soit absent, les deux « protagonistes » n’étant pas explicitement nommés. Cela étant, la Conférence « Repenser la fracture numérique » de l’Association for Learning Technology, dans une vision multidimensionnelle de la fracture numérique, posait la question « Open or proprietary ? »[7]. Une question qui mérite effectivement d’être posée.

Ce fut le cas à l’Université d’été de Tunisie qui s’est déroulée à Hammamet, du 25 au 28 août 2008[8]. Organisée par le Fonds Mondial de Solidarité Numérique (FSN)[9] et par l’Association pour le Développement de l’Éducation en Afrique (ADEA), elle était consacrée au thème de « La solidarité numérique au service de l’enseignement ». À son programme figuraient notamment les usages du TBI (Tableau blanc interactif), la création de ressources pédagogiques par les enseignants « auto-producteurs » et le rôle des communautés d’enseignants, les problématiques de droits d’auteur. Un atelier, qui portait sur les ressources pédagogiques des disciplines scientifiques et techniques des lycées, a fait différentes propositions dont l’une essentielle aux yeux de ses participants, qui affirme que les logiciels et les ressources pédagogiques utilisés et produits doivent être libres. Les standards et les formats de données doivent être ouverts[10]. Trois raisons ont motivé cette proposition : les coûts, le caractère opérationnel de la production collaborative de contenus pédagogiques, et le fait que les modalités de réalisation et les réponses du libre en terme de propriété intellectuelle sont en phase avec la philosophie générale d’un projet de solidarité numérique, à savoir partage, coopération, échange.

Le projet RELI@, « Ressources en ligne pour institutrices africaines », est destiné à améliorer la qualité de l’enseignement dans les pays du Sud par l’utilisation des outils et contenus numériques. Il repose sur des logiciels et ressources libres. Il a tenu son premier atelier à Dakar, du 22 au 24 octobre 2008[11]. Un « Appel de Dakar » a été lancé pour la production panafricaine de ressources pédagogiques numériques libres.

L’Unesco prime le libre

En 2007, l’association Sésamath[12] a reçu le 3e prix UNESCO (sur 68 projets) sur l’usage des TICE[13]. Pour le jury, Sésamath est « un programme complet d’enseignement des mathématiques conçu par des spécialistes, des concepteurs et près de 300 professeurs de mathématiques ». Il a été récompensé « pour la qualité de ses supports pédagogiques et pour sa capacité démontrée à toucher un large public d’apprenants et d’enseignants ».

« Remerciant particulièrement la commission française pour l’UNESCO qui a soutenu officiellement sa candidature », l’association Sésamath a vu dans l’obtention de ce prix « l’ouverture d’une nouvelle ère pour son action, vers l’internationalisation et plus particulièrement encore vers l’aide au développement ». Elle a ajouté : « Que pourrait-il y avoir de plus gratifiant pour des professeurs de Mathématiques que de voir leurs productions coopératives libres (logiciels, manuels…) utilisées par le plus grand nombre et en particulier par les populations les plus défavorisées ? C’est vrai dans toute la Francophonie… mais de nombreuses pistes de traductions commencent aussi à voir le jour. »[14]

Les deux lauréats 2007 étaient le Consortium Claroline[15] et Curriki[16]. Claroline, représenté par l’Université Catholique de Louvain, en Belgique, fournit à quelque 900 établissements répartis dans 84 pays une plate-forme « open source », sous licence GPL, en 35 langues. Claroline offre une série d’outils pédagogiques interactifs et centrés sur l’apprenant. C’est un modèle de réseau et de communauté qui met en relation des apprenants, des enseignants et des développeurs du monde entier. Créée en 2004 par Sun Microsystems, Curriki est une communauté mondiale qui se consacre à l’éducation et à la formation. Elle a désormais le statut d’organisme à but non lucratif. Elle fournit un portail Internet, un ensemble d’outils et de services aux utilisateurs grâce auxquels chacun peut librement concevoir, regrouper, évaluer et enrichir les meilleurs programmes d’enseignement, ce qui permet de répondre aux besoins de toutes les classes d’âge et de toutes les disciplines. Curriki a ainsi créé une communauté très vivante composée d’enseignants, d’apprenants, de ministères de l’Éducation, d’établissements scolaires et d’organisations publiques et privées.

L’UNESCO a ainsi mis à l’honneur des démarches éducatives fondées sur le libre, logiciels et ressources.

Parmi les avantages du libre

Parmi les avantages du libre, bien connus, il y a des coûts nettement moins importants. Si libre ne signifie pas gratuit, on peut toujours se procurer une version gratuite d’un logiciel libre, notamment en le téléchargeant. Une fantastique perspective quand, organisée au niveau d’un pays, la diffusion d’un logiciel libre permet de le fournir gratuitement à tous, avec seulement des coûts de « logistique » pour la collectivité mais une économie de licences d’utilisation à n’en plus finir.

Partage-production collaborative-coopération sont des maîtres mots de la solidarité numérique qui supposent des modalités de propriété intellectuelle qui, non seulement, favorisent la circulation des ressources numériques et les contributions des uns et des autres mais, tout simplement l’autorisent. La réponse est du côté de la GPL et des Creative Commons.

L’on sait la profonde affinité entre libre et standards et formats ouverts. Or, par exemple, les documents produits par un traitement de texte lambda doivent pouvoir être lus par un traitement de texte bêta, et réciproquement. La coopération et l’échange sont à ce prix. Il s’agit là d’une question fondamentale de l’informatique et de la fracture numérique. Tout citoyen du monde doit pouvoir avoir accès à ses données, indépendamment du matériel et du logiciel qu’il utilise. De plus en plus de biens informationnels ont une version numérisée. L’enjeu est d’accéder au patrimoine culturel de l’humanité, de participer à sa production, d’être un acteur à part entière du partage et de la coopération.

Avec le libre, chaque communauté peut prendre en main la localisation/culturisation qui la concerne, connaissant ses propres besoins et ses propres codes culturels mieux que quiconque. Il y a donc, outre une plus grande liberté et un moindre impact des retours économiques, une plus grande efficacité dans le processus, en jouant sur la flexibilité naturelle des créations immatérielles pour les adapter à ses besoins et à son génie propre. C’est aussi plus généralement ce que permettent les « contenus libres », c’est-à-dire les ressources intellectuelles – artistiques, éducatives, techniques ou scientifiques – laissées par leurs créateurs en usage libre pour tous. Logiciels et contenus libres promeuvent, dans un cadre naturel de coopération entre égaux, l’indépendance et la diversité culturelle, l’intégration sans l’aliénation.

Les logiciels (et les ressources) libres, composante à part entière de l’industrie informatique, ne peuvent qu’avoir une place de choix dans la lutte contre la fracture numérique. Sans pour autant verser dans l’angélisme. Entre les grands groupes d’acteurs du libre (communautés de développeurs, entreprises, clients comme les collectivités), dont les motivations et ressorts sont divers, il existe des conflits et des contradictions. Des dérives sont possibles, comme des formes de travail gratuit. Mais au-delà des volontés des individus, il y a la logique profonde d’une façon efficace de produire des contenus de qualité[17].

L’accès à la culture informatique

Dans un texte de l’UNESCO, TIC dans l’éducation[18], il est dit que « l’utilisation des TIC dans et pour l’éducation est vue maintenant dans le monde entier comme une nécessité et une opportunité. ». Les grandes questions sur lesquelles l’UNESCO se concentre en tant « qu’expert et conseiller impartial » sont : « Comment peut-on employer les TIC pour accélérer le progrès vers l’éducation pour tous et durant toute la vie ? (…) En second lieu, les TIC, comme tous les outils, doivent être considérées en tant que telles, et être employées et adaptées pour servir des buts éducatifs. » Elle revendique que « l’initiation à l’informatique soit reconnue comme une compétence élémentaire dans les systèmes d’enseignement »[19].

Le numérique, ce sont des outils conceptuels, des abstractions, une discipline scientifique et technique en tant que telle. Au service des autres disciplines, comme le sont les mathématiques. L’ordinateur est une prothèse du cerveau, dont on se sert d’autant plus intelligemment qu’on en connaît l’« intelligence »[20]. La fracture numérique ne serait-elle pas aussi (d’abord ?) une fracture culturelle, qui ne concerne pas que le Sud ? D’ailleurs, ne parle-t-on pas fréquemment de l’« accès » à la culture ?

« L’utilisation d’un outil, si fréquente et diversifiée soit-elle, ne porte pas en elle-même les éléments qui permettent d’éclairer sa propre pratique. »[21] « Comment en effet procéder à une recherche d’information efficace lorsque l’on n’a aucune connaissance du mode de fonctionnement de l’instrument utilisé ? »[22] Or, une enquête menée auprès de 640 000 utilisateurs de l’internet en France en 2001 avait montré que 87 % d’entre eux ne savaient pas se servir d’un moteur de recherche[23]. « Depuis que "l’homo faber" fabrique des outils et s’en sert, une bonne intelligence de l’outil est considérée comme nécessaire pour une bonne utilisation, efficace, précise et raisonnée : plus on en sait quant aux possibilités de réglage et aux conditions d’utilisation mieux cela vaut, partout. Il n’y aurait que l’informatique qui échapperait à cette règle et où l’ignorance serait un avantage ! »[24].

Partout dans le monde, lutter véritablement contre la fracture numérique suppose de donner à tous les élèves les fondamentaux scientifiques du domaine[25]. L’objectif est la maîtrise de ces instruments intellectuels d’un type nouveau. Elle n’est pas vraiment aisée et nécessite des années d’apprentissage (pour un individu il faut environ 20 ans pour maîtriser l’ensemble des instruments et méthodes liés à l’exercice d’une pensée rationnelle). On voit mal comment la diffusion d’objets matériels permettrait en elle-même de raccourcir les délais d’apprentissage, comment on entrerait dans le monde du numérique, abstrait et conceptuel, sans en faire un objet d’étude.

À l’appui de cette nécessité d’enseignement en tant que tel, le fait que la fracture numérique peut se loger là où on ne l’attend pas. Ainsi pointe-t-on une fracture numérique qui émerge, non plus entre les particuliers, mais entre les entreprises, notamment les plus petites et les plus grandes[26]. D’un côté « les mieux loties, accompagnées d’une armée de consultants ou naturellement aguerries à ces sujets ». De l’autre « des centaines de milliers d’entreprises qui souhaitent ardemment tirer profit, dès maintenant, des outils à disposition mais qui butent sur la complexité technologique, les tarifications inadaptées, les offres sur ou sous dimensionnées sans parler des compétences inaccessibles et en voie de raréfaction ». En fait, on voit aujourd’hui émerger « une nouvelle e-aristocratie qui va à l’encontre de la promesse de démocratisation des bénéfices économiques des NTIC (productivité, économie, accessibilité) ».

Dans leur rapport sur l’économie de l’immatériel[27], Maurice Lévy et Jean-Pierre Jouyet soulignent que, dans l’économie de l’immatériel, « l’incapacité à maîtriser les TIC constituera (…) une nouvelle forme d’illettrisme, aussi dommageable que le fait de ne pas savoir lire et écrire ». Ils mettent en évidence les obstacles qui freinent l’adaptation de notre pays à l’économie de l’immatériel, notamment « notre manière de penser », invitant à changer un certain nombre de « nos réflexes collectifs fondés sur une économie essentiellement industrielle ».

La lutte contre la fracture numérique a bien d’abord une dimension éminemment culturelle. Il s’agit d’un enjeu éducatif majeur, de culture générale scientifique et technique pour tous. D’un défi aussi dont les réponses pour le relever se trouvent d’évidence dans les systèmes éducatifs, dont c’est une des raisons d’être.

Jean-Pierre Archambault
Chargé de mission au CNDP-CRDP de Paris

Notes

[1] Crédit photo : Ferdinand Reus (Creative Commons By-Sa)

[2] Les politiques de tous les bords, beaucoup d’institutions (Banque Mondiale et le G8, l’Union Européenne, l’UNESCO…) s’emparent de la problématique de la fracture numérique, avec l’objectif affirmé de la résorber. D’autres s’en inquiètent : « Dejà, le fait qu’une telle notion fasse l’objet d’un consensus aussi large, au sein de groupes sociaux qui s’opposent les uns aux autres, donne à penser qu’elle est scientifiquement fragile. ». Voir La fracture numérique existe-t-elle ?, Éric Guichard, INRIA – ENS.

[3] http://www.liberationdelacroissance.fr/files…

[4] http://www.sophianet.com/wtm_article47688.fr.htm

[5] On pourra se référer aux études de Yochai Benkler reprises par Lawrence Lessig dans son remarquable ouvrage L’avenir des idées, Presses universitaires de Lyon, 2005. Voir « Innover ou protéger ? un cyber-dilemme », Jean-Pierre Archambault, Médialog n°58.

[6] Mais, à trop privilégier dans le discours le nécessaire équipement de tous, il y a le risque de donner à croire que les intérêts des constructeurs ne sont pas loin, en arrière plan de la « noble » lutte contre la fracture numérique.

[7] http://thot.cursus.edu/rubrique.asp?no=27124

[8] http://www.tunisiait.com/article.php?article=2912

[9] ttp://www.dsf-fsn.org/cms/component/option…

[10] http://repta.net/repta/telechargements/Universite_Tunisie…

[11] Premier atelier RELI@ à Dakar : Appel de DAKAR pour la production panafricaine de ressources pédagogiques numériques libres.

[12] http://sesamath.net

[13] http://portal.unesco.org/fr…

[14] http://www.sesamath.net/blog…

[15] http://www.claroline.net/index.php?lang=fr

[16] http://www.curriki.org/xwiki/bin/view/Main/WebHome

[17] L’économie du logiciel libre, François Élie, Eyrolles, 2008.

[18] http://portal.unesco.org/ci/fr/ev.php-URL_ID=2929…

[19] http://portal.unesco.org/ci/fr/ev.php-URL_ID=4347…

[20] « Informatique et TIC : une vraie discipline ? », Jean-Pierre Archambault, Médialog n° 62,

[21] Ordinateur et système éducatif : quelques questions, in Utilisations de l’ordinateur dans l’enseignement secondaire, Jean-Michel Bérard, Inspecteur général de l’Éducation nationale, Hachette Éducation, 1993.

[22] « La nature du B2i lui permet-elle d’atteindre ses objectifs ? » Jean-François Cerisier, Les dossiers de l’ingénierie éducative n° 55, septembre 2006.

[23] http://barthes.ens.fr/atelier/theseEG/

[24] « Enseigner l’informatique », Maurice Nivat, membre correspondant de l’Académie des Sciences,

[25] Voir : Le bloc-notes de l’EPI, La formation à l’informatique et aux TIC au lycée / Proposition de programme / Seconde Première Terminale et « Quelle informatique enseigner au lycée ? », Gilles Dowek, professeur d’informatique à l’École Polytechnique, intervention à l’Académie des Sciences du 15 mars 2005.

[26] Une fracture numérique existe aussi entre les entreprises, Vincent Fournoux, Le Journal du Net du 31 juillet 2008.

[27] L’économie de l’immatériel – La croissance de demain, rapport de la commission sur l’économie de l’immatériel remis à Thierry Breton, Maurice Lévy, Jean-Pierre Jouyet, décembre 2006.




De la contradiction d’avoir un iPhone

Mat Honan - CC byL’été dernier, me voici attablé à la terrasse d’un café, place de la Bastille, en compagnie de quelques membres influents de la blogosphère française. L’occasion d’évoquer Hadopi. Il allait de soit qu’ils étaient tous contre.

Un petit détail m’a frappé : ils étaient tous accompagnés de leur iPhone, qui d’ailleurs ne leur laissait que rarement plus de cinq minutes de répit. iPhone qui vers la fin de notre entretien est carrément devenu le sujet principal de conversation, lorsque le possesseur de je ne sais plus quelle toute nouvelle application issue de l’App Store a voulu en faire la démonstration aux autres[1].

Peut-on être un pourfendeur d’Hadopi et plus généralement un chaud défenseur des libertés numériques tout en possédant un iPhone ? Certes oui. Sauf que, comme vient nous le rappeler Bruno Kerouanton dans ce court et percutant article, nous sommes peut-être en situation de compromis, voire de compromission, avec quelques uns de nos idéaux, fussent-ils numériques[2].

Le paradoxe du citoyen consommateur

URL d’origine du document

Bruno Kerouanton – 14 septembre 2009 – Le Club des Vigilants
Licence Creative Commons By-Nc

Apple est loin d’être seule en cause mais le succès phénoménal de son iPhone illustre, à bien des égards, le paradoxe du citoyen consommateur contemporain.

D’un côté, il se dit écolo. De l’autre, il se jette sur un appareil dont la batterie est intégrée au téléphone, faisant de l’objet un produit jetable complexe à recycler.

D’un côté, il prône la liberté de téléchargement sur Internet, et le droit de dupliquer à l’infini films et œuvres musicales au grand dam des auteurs et de leurs ayants droit. De l’autre, il se précipite sur l’une des plateformes informatiques les plus verrouillées en termes de mesures anticopie.

D’un côté, il se méfie des monopoles. De l’autre, il utilise la plateforme de téléchargement AppStore qui centralise de manière obligatoire toute application disponible, préalablement soumise à la censure de l’éditeur californien.

D’un côté, il défend les logiciels libres et leur gratuité. De l’autre, il n’a jamais autant acheté de logiciels depuis la mise en place de l’AppStore.

D’un côté, il aime l’anonymat et le respect de la vie privée. De l’autre, il se rue sur l’iPhone qui est l’une des plateformes les plus intrusives, en termes de géolocalisation, mais également de suivi des habitudes d’utilisation et de consommation.

Le succès d’Apple tient à la technologie et à l’innovation. En offrant à ses clients un produit très en avance sur ses concurrents, en termes d’ergonomie et de fonctionnalités, ceux-ci sont prêts à en oublier les inconvénients, voire carrément à en occulter l’existence.

Ce comportement paradoxal doit être pris en compte dans le cadre de nouveaux enjeux sociétaux relatifs aux nouvelles technologies. Risques liés aux réseaux sociaux, difficulté de mise en application de réglementations de type Hadopi et bien d’autres thèmes d’actualité devraient être revus en tenant compte de cette surprenante tendance.

Notes

[1] Crédit photo : Mat Honan (Creative Commons By)

[2] Sur le même sujet on pourra aussi lire cet autre article du Framablog : iPhone 3G : tout ce qui brille n’est pas or.