Paul Ariès et le logiciel libre ont-ils des choses à se dire ?

Un internaute a eu l’idée de compiler les interventions de Paul Ariès (et uniquement celles-ci), lors de l’émission Ce soir ou jamais du 1er avril dernier consacrée à l’actualité économique : bouclier fiscal, taxe carbone. situation de la Grèce, etc. Vous trouverez cette vidéo à la fin du billet.

Montage oblige, il n’y a plus ni dialogue ni débat, et on mouche ainsi facilement l’autre invité qu’était Alain Madelin (ce qui, je le confesse, ne m’a pas dérangé). Mais j’ai néanmoins trouvé cela fort intéressant et parfois très proche de certains articles parus dans la rubrique « Hors-sujet ou presque » du Framablog, où il s’agit souvent, avec moult précautions, de voir un peu si le logiciel libre et sa culture sont solubles dans le politique, l’économique, l’écologique ou le social.

Paul Ariès était ainsi présenté sur le site de l’émission :

Paul Ariès est politologue, directeur du journal Le Sarkophage qui se veut un journal d’analyse critique de la politique de Nicolas Sarkozy, rédacteur au mensuel La Décroissance, collaborateur à Politis et organisateur du « Contre-Grenelle de l’Environnement ». Paul Ariès est considéré par ses adversaires comme par ses défenseurs comme « l’intellectuel de référence » du courant de la décroissance. Auteur d’une trentaine d’essais, il vient de publier « La simplicité volontaire contre le mythe de l’abondance » (La Découverte), et un pamphlet intitulé « Cohn Bendit, l’imposture » (Max Milo).

Extrait (autour de la 13e minute) :

On peut reprocher tout ce que l’on veut au système capitaliste et à cette société d’hyper-consommation, mais il faut reconnaître que c’est une société diablement efficace. Pourquoi ? Parce qu’elle sait susciter le désir et le rabattre ensuite sur la consommation de biens marchands. Or, comme le désir est illimité, on va désirer toujours plus de consommation.

Donc, si on veut être a la hauteur il ne s’agit pas de vouloir faire la même chose mais en moins. Il faut avoir un principe aussi fort à opposer. Et à mes yeux la seule chose aussi forte que l’on peut opposer au toujours plus, c’est la gratuité. Parce que la gratuité, on l’a chevillée au corps. C’est le souvenir du paradis perdu, c’est le sein maternel, c’est les relations amoureuses, amicales, associatives, c’est les services publics, c’est le bien commun.

Le bon combat pour les XXIe siècle, ce n’est pas de manifester pour l’augmentation du pouvoir d’achat, c’est de manifester pour la défense et l’extension de la sphère de la gratuité.

Sémantiquement parlant, on se méfie beaucoup sur ce blog et ailleurs de cette notion de « gratuité ». Alors j’ai eu envie d’en savoir plus et je suis tombé sur ce tout aussi intéressant article (issu du site du NPA) : La révolution par la gratuité de Paul Ariès.

Extrait :

Il ne peut y avoir de société de la gratuité sans culture de la gratuité, comme il n’existe pas de société marchande sans culture marchande. Les adversaires de la gratuité le disent beaucoup mieux que nous. John H. Exclusive est devenu aux Etats-Unis un des gourous de la pensée « anti-gratuité » en publiant Fuck them, they’re pirates (« Qu’ils aillent se faire foutre, ce sont des pirates »). Il y explique que le piratage existe parce que les enfants sont habitués à l’école à recopier des citations d’auteurs, à se prêter des disques, à regarder des vidéos ensemble, à emprunter gratuitement des livres dans les bibliothèques, etc. L’école (même américaine) ferait donc l’éducation à la gratuité.

Les milieux néoconservateurs proposent donc de développer une politique dite de la «gratuité-zéro» qui serait la réponse du pouvoir aux difficultés des industries « culturelles » confrontées au développement des échanges gratuits, via les systèmes « peer-to-peer ». La politique à promouvoir sera totalement à l’opposé et passera par la généralisation d’une culture de la (quasi)gratuité. Nous aurons besoin pour cela de nouvelles valeurs, de nouveaux rites, de nouveaux symboles, de nouvelles communications et technologies, etc. Puisque les objets sont ce qui médiatisent le rapport des humains à la nature quels devront être le nouveau type d’objets de la gratuité ?

L’invention d’une culture de la gratuité est donc un chantier considérable pour lequel nous avons besoin d’expérimenter des formules différentes mais on peut penser que l’école sera un relais essentiel pour développer une culture de la gratuité et apprendre le métier d’humain, et non plus celui de bon producteur et consommateur. Parions que la gratuité ayant des racines collectives et individuelles beaucoup plus profondes que la vénalité en cours, il ne faudrait pas très longtemps pour que raison et passion suivent…

Je ne sais pas ce que vous en penserez mais j’ai comme eu l’impression que l’auteur ignorait tout simplement l’existence du logiciel libre, qui n’est pas cité une seule fois dans ce long article.

Est-ce que la « gratuité » de Paul Ariès ne ressemble pas finalement à la « liberté » du logiciel libre (dont la gratuité n’est qu’une éventuelle conséquence) ? Cette liberté du logiciel libre n’est-elle pas plus forte, subversive, et au final plus pertinente et efficace pour étayer les arguments de Paul Ariès ?

Voici quelques unes des questions qui me sont donc venues en tête à la lecture du passage vidéo ci-dessous[1] :

—> La vidéo au format webm

Une vidéo qui fait écho, plus ou moins directement, aux billets suivants du Framablog :

Notes

[1] Merci à Dd pour la conversion de la vidéo au format Ogg sur Blip.tv.




À propos de la formation aux logiciels libres, par Jean-Pierre Archambault

Extra Ketchup - CC by-sa« Le libre est à la fois une réponse concrète à des problèmes concrets et un outil de réflexion pour penser les problématiques générales de l’immatériel et la connaissance », nous dit ici Jean-Pierre Archambault, qui n’en est pas à son premier article sur le Framablog.

C’est pourquoi la question de la formation aux logiciels libres est l’un des enjeux majeurs de l’éducation de demain[1].

Il s’agit bien entendu d’être capable de les utiliser. Mais bien au-delà il s’agit aussi et surtout de comprendre qu’ils s’inscrivent dans une culture. Une culture de la collaboration, de la création, de l’autonomie et du partage qui ne doit plus être absent du cursus scolaire de nos étudiants.

À propos de la formation aux logiciels libres

La question est souvent posée de savoir s’il y a une spécificité de la formation aux logiciels libres. La licence d’un programme n’est pas forcément choisie lors de son écriture. Un traitement de texte reste un traitement de texte. Et une procédure récursive n’est pas intrinsèquement copyleft ou copyright. Nous allons examiner la question du point de vue des logiciels, de la culture informatique, des méthodes organisationnelles de réalisation des logiciels libres, de la portée sociétale du libre et des besoins pédagogiques des enseignants.

Former aux outils logiciels

Qu’il faille former à Linux comme on forme à Unix, Mac OS X ou Vista va de soi. Idem pour OpenOffice, FireFox ou The Gimp. Ce sont des systèmes et des applications qu’il faut connaître pour s’en servir « intelligemment ». Mais un système d’exploitation, un traitement de texte ou un tableur sont des outils conceptuels compliqués et complexes de par les objets qu’ils traitent et la multitude de leurs fonctionnalités. Il faut veiller à ne pas entrer dans le tunnel sans fin de la formation à la version n d’un progiciel, puis n+1, d’un usager « presse-boutons ». On connaît ce genre de pratiques pour des produits propriétaires dont les versions défilent à grande vitesse, enrichies de fonctionnalités dont l’utilisateur lambda n’a pas nécessairement besoin. Mais qui peuvent présenter des avantages financiers et des rentes de situation pour des officines de formation. Il faut donc pouvoir s’appuyer sur une appropriation initiale des concepts généraux des traitements de texte, tableurs et gestionnaires de bases de données.

L’informatique, le numérique étant partout dans la société, la question posée est celle de la culture générale de l’homme, du travailleur et du citoyen du 21è siècle. Il s’agit là des trois missions fondamentales des systèmes éducatifs. Le libre, c’est le code source que l’on connaît. Et pas la « boîte noire » miraculeuse qui fait tout pour vous : curieuse d’ailleurs cette représentation mentale qu’ont certains de la prothèse du cerveau qu’est l’ordinateur, que l’on pourrait utiliser sans la connaître ni la comprendre. De ce point de vue, le libre s’inscrit pleinement dans la vision qui considère que les usagers de l’informatique doivent comprendre et maîtriser les outils conceptuels qu’ils utilisent. Les créateurs d’informatique aussi, bien évidemment.

Maurice Nivat nous invite opportunément à relire André Leroy Gourhan qui nous a appris que l’outil n’est rien sans le geste qui l’accompagne et l’idée que se fait l’utilisateur de l’outil de l’objet à façonner[2]. Et d’ajouter : « Ce qui était vrai de nos lointains ancêtres du Neanderthal, quand ils fabriquaient des lames de rasoir en taillant des silex est toujours vrai : l’apprentissage de l’outil ne peut se faire sans apprentissage du geste qui va avec ni sans compréhension du mode de fonctionnement de l’outil, de son action sur la matière travaillée, ni sans formation d’une idée précise de la puissance de l’outil et de ses limites ».

Enseigner l’informatique pour donner une culture générale

Il faut donc former à l’outil. Il faut donner une culture générale informatique à l’ « honnête homme » de notre époque. Or, si une option d’informatique générale a existé au lycée dans les années quatre-vingt, elle a été supprimée au début des années quatre-vingt-dix. La ligne pédagogique selon laquelle les apprentissages doivent se faire à travers les usages de l’outil informatique dans les différentes disciplines existantes, et cela suffit, l’avait emporté, pour des raisons diverses (elle prendra la forme du Brevet informatique et internet, le B2i). Une longue « traversée du désert » commençait. Pour autant, des voix se faisaient entendre. Elles disaient que l’informatique étant partout (dans les autres disciplines scolaires), elle devait être quelque part en particulier, à un moment donné, sous la forme d’une discipline scolaire en tant que telle car la seule utilisation d’un outil, matériel ou conceptuel, ne suffit pas pour le maîtriser.

Gérard Berry, qui avait intitulé sa leçon inaugurale au Collège de France « Pourquoi et comment le monde devient numérique »[3], déclarait dans une interview au journal Le Monde, le 15 avril 2009 : « Du point de vue de l’enseignement de l’informatique, la France rentre résolument dans le XXe siècle. »[4]. Il regrettait que l’« on confonde la notion de computer literacy avec celle de computer sciences ». Et il ajoutait : « Dans les établissements scolaires, on a fait le choix d’enseigner les usages. C’est très insuffisant. C’est la différence entre apprendre à conduire et comprendre comment marche une voiture. Les jeunes quittent le lycée sans connaissance de la science informatique. C’est une aberration ! » .

L’association EPI (Enseignement Public et Informatique) et le groupe ITIC de l’ASTI ont pris ces dernières années de nombreuses initiatives en faveur d’un enseignement de l’informatique au lycée sous la forme d’une discipline d’enseignement général : audiences auprès des autorités de la République, tables rondes, séminaires, textes divers, propositions de programmes scolaires pour le lycée…[5]. Un tel enseignement doit comporter des apprentissages corrrespondant aux grands domaines de la science informatique, à savoir l’algorithmique et la programmation, la théorie de l’information, les machines et leurs architectures, les réseaux, Internet, les bases de données.

Dans le cadre de la réforme du lycée, un enseignement de spécialité optionnel « Informatique et sciences du numérique » a été créé en Terminale S pour la rentrée 2012. Dans son discours devant le Conseil supérieur de l’Éducation, le 10 décembre 2009, s’exprimant sur cette réforme du lycée, Luc Chatel a notamment déclaré : « A l’heure de la société de l’information et de la connaissance, la France a besoin plus que jamais de compétences scientifiques en informatique. Aujourd’hui l’informatique représente 30 % de la recherche et développement dans le monde. Aujourd’hui l’informatique est partout. Nous ne pouvons pas manquer ce rendez-vous majeur et c’est la raison pour laquelle nous proposons en série S une spécialisation « informatique et sciences du numérique » »[6].

Tous ceux qui se sont prononcés en faveur d’une telle mesure se félicitent. Parmi ceux-ci, et ce n’est pas un hasard, figure l’APRIL (« Promouvoir et défendre le logiciel libre »). Dans un communiqué de presse, le 5 janvier 2010, l’association, rappelant qu’«elle a toujours été favorable à ce que l’informatique soit une composante à part entière de la culture générale scolaire de tous les élèves sous la forme notamment d’un enseignement d’une discipline scientifique et technique », souligne « cette première et importante avancée signe d’une certaine rupture »[7]. Elle mentionne que « l’expérience de ces dernières années a clairement montré que le B2i ne fonctionnait pas. Son échec prévisible tient notamment à des problèmes insolubles d’organisation, de coordination et de cohérence des contributions supposées et spontanées des disciplines enseignées. De plus ne sont pas explicitées les connaissances scientifiques et techniques correspondant aux compétences visées. »

Le rapport de la mission parlementaire de Jean-Michel Fourgous, député des Yvelines, sur la modernisation de l’école par le numérique, « Réussir l’école numérique », remis au Ministre de l’Éducation nationale Luc Chatel le 15 février dernier, va dans le même sens[8]. Il met en évidence la portée de cet enseignement de l’informatique : « En créant une matière Informatique et sciences du numérique en terminale, le gouvernement français ouvre enfin la voie de l’apprentissage du numérique et redonne à l’école son rôle d’éducateur. » Et rappelle qu’en définitive le B2i ne correspond pas aux enjeux car « il ne permet pas d’acquérir une culture informatique, permettant de comprendre les techniques sous-tendant le fonctionnement des divers outils numériques… ne prenant pas en compte les connaissances techniques de base nécessaires ».

Le libre, une science

Si le libre est une composante à part entière de l’informatique, il n’en comporte pas moins des spécificités, qui doivent donner lieu à des enseignements dédiés, notamment dans le Supérieur. Il existe une « science du logiciel libre ». Voir l’article de Roberto Di Cosmo auquel nous nous référons ci-après[9].

Si les collaborations avec des partenaires dispersés géographiquement ne datent pas d’aujourd’hui, avec Internet la situation a radicalement changé. La question est posée de savoir sur quels principes scientifiques se fondent des projets comme Wikipédia ou Linux, exemples extrêmes de travail massivement collaboratif. Et de savoir comment en améliorer la stabilité et la fiabilité. Dans le développement du noyau Linux, chaque erreur, ou chaque fonction manquante ou obsolète, peut entraîner des dysfonctionnements majeurs rendant l’ensemble inutilisable. Malgré tout, le « phénomène Linux » a abouti à des versions de plus en plus complètes, fonctionnelles et stables. En fait, le succès des logiciels libres de qualité reposent sur des approches méthodologiques très structurées. L’organisation modulaire du code source, la sélection sévère des contributions et l’existence d’un noyau central de développeurs s’assurant de la cohérence de l’ensemble jouent un rôle essentiel dans la réussite de Linux. Mais la taille atteinte par Linux est telle que l’on est aux limites de ce qui peut être maîtrisé en s’appuyant sur les capacités organisationnelles des communautés. Les logiciels libres sont donc devenus un champ d’étude à part entière pour les informaticiens. Il faut résoudre des questions scientifiques (par exemple, comment gérer rapidement la modification d’un appel de fonction résultant de l’ajout, du changement ou de la suppression d’un paramètre ?). Le projet Coccinelle a fourni une contribution majeure en introduisant la notion de « patch sémantique ». Le projet Mancoosi vise à développer des algorithmes efficaces pour permettre aux utilisateurs d’exprimer leurs préférences lors de mises à jour et d’obtenir des installations personnalisées.

Toutes ces actions de recherche se traduiront dans des enseignements universitaires, pour le libre mais aussi l’informatique en général.

Penser l’immatériel

Dans leur rapport sur l’économie de l’immatériel, Maurice Lévy et Jean-Pierre Jouyet attirent l’attention sur le fait que, dans cette économie, « l’incapacité à maîtriser les TIC constituera (…) une nouvelle forme d’illettrisme, aussi dommageable que le fait de ne pas savoir lire et écrire ». Ils mettent en évidence les obstacles qui freinent l’adaptation de notre pays à l’économie de l’immatériel, notamment « notre manière de penser », invitant à changer un certain nombre de « nos réflexes collectifs fondés sur une économie essentiellement industrielle »[10]. Il faut former à l’informatique.

John Sulston, prix Nobel de médecine, évoquant en décembre 2002 dans les colonnes du Monde Diplomatique les risques de privatisation du génome humain, disait que « les données de base doivent être accessibles à tous, pour que chacun puisse les interpréter, les modifier et les transmettre, à l’instar du modèle de l’open source pour les logiciels ». Il existe une transférabilité de l’approche du libre à la réalisation et la mise à disposition des biens informationnels en général. On a pu le constater à l’occasion des vifs débats qui ont accompagné la transposition par le Parlement en 2006 de la directive européenne sur les Droits d’auteur et les droits voisins dans la société de l’information (DADVSI), ou plus récemment avec la loi Hadopi. Le libre, ses approches et ses méthodes, ses façons efficaces de produire des biens de connaissance qui relèvent du paradigme de la recherche scientifique, ses modèles économiques et ses réponses en termes de propriété intellectuelle, est omniprésent dans les problématiques de l’immatériel. Il faut former à l’informatique libre. Les élèves et les étudiants, travailleurs et citoyens d’aujourd’hui ou de demain, doivent en avoir entendu parler lors de leur scolarité et de leurs études. Le libre est à la fois une réponse concrète à des problèmes concrets et un outil de réflexion pour penser les problématiques générales de l’immatériel et la connaissance.


Production collaborative de ressources pédagogiques

La création de logiciels libres est un travail collaboratif : cette manière de créer du savoir à plusieurs est particulièrement importante si nous voulons préparer les plus jeunes à entrer dans une société du savoir partagé. Certains d’entre eux seront enseignants. Les enseignants ont besoin de documents, de contenus pédagogiques. Pour se former et pour enseigner. Et ils sont bien placés pour les concevoir et les produire eux-mêmes. L’on sait la transférabilité de l’approche du logiciel libre à la réalisation des contenus pédagogiques. Tout le monde, ou presque, connaît les réalisations remarquables de l’association Sésamath[11], « vaisseau-amiral » de la production collaborative de ressources pédagogiques libres, qui a obtenu un prix spécial de l’UNESCO.

Et il faut attacher une licence à un contenu produit. Les Creative Commons sont de mieux en mieux connues mais il reste du chemin à parcourir. Il faut faire connaître leurs modalités juridiques au service de l’objectif général, clairement exprimé, de favoriser la diffusion et l’accès pour tous aux oeuvres de l’esprit, en conciliant les droits légitimes des auteurs et des usagers. Creative Commons renverse le principe de l’autorisation obligatoire. Il permet à l’auteur d’autoriser par avance, et non au coup par coup, certains usages et d’en informer le public. Il est autorisé d’autoriser. C’est incontournable à l’heure d’Internet et du numérique car, sinon, toute vie intellectuelle serait impossible si l’on ne pouvait parler librement des oeuvres et s’il fallait, pour la moindre citation, demander l’autorisation à l’auteur ou à ses héritiers.

Que de nombreux autres enseignants, à la manière de Sésamath, fabriquent des contenus libres dans des démarches de mutualisation et de coopération est une raison supplémentaire de former au libre.

Jean-Pierre Archambault
CNDP-CRDP de Paris, coordonnateur du pôle de compétences logiciels libres du SCEREN

Notes

[1] Extra Ketchup (Creative Commons By-Sa)

[2] « L’informatique, science de l’outil », Maurice Nivat (à paraître dans EpiNet 124) http://www.epi.asso.fr/

[3] Leçon inaugurale le 17 janvier 2008, Cours Séminaires du Collège de France, par Gérard Berry titulaire de la chaire d’innovation technologique Liliane Bettencourt http://www.college-de-france.fr/default/EN/all/inn_tec2007/

[4] « Gérard Berry : L’informatique est une science », de Christian Bonrepaux dans le Cahier Éducation du Monde daté du 16 avril 2009. http://www.lemonde.fr/societe/article/2009/04/15/gerard-berry-l-informatique-est-une-science_1181041_3224.html

[5] $http://www.epi.asso.fr/blocnote/blocsom.htm#itic On pourra aussi se référer, pour les élèves à partir de l’école primaire, à la version francaise de « Computer Science Unplugged » : http://interstices.info/jcms/c_47072/enseigner-et-apprendre-les-sciences-informatiques-a-l-ecole

[6] http://www.education.gouv.fr/cid49972/reforme-du-lycee-discours-devant-le-conseil-superieur-de-l-education.html

[7] http://www.epi.asso.fr/revue/docu/d1001a.htm

[8] http://www.reussirlecolenumerique.fr/

[9] « La science du logiciel libre », Roberto Di Cosmo, La Recherche n°436, décembre 2009 – Professeur à l’Université Paris 7, Roberto Di Cosmo « porte » le projet de centre de recherche sur le logiciel libre de l’INRIA.

[10] Rapport remis à Thierry Breton en décembre 2006.

[11] http://www.sesamath.net




Mark Shuttleworth d’Ubuntu n’est pas motivé par la haine de Microsoft

Ubuntu - Nouveau LogoC’est non seulement une habitude mais l’une des nombreuses originalités de la célèbre distribution GNU/Linux : tous les six mois Ubuntu sort sa nouvelle version, qui, faisant de plus en plus d’adeptes, est logiquement de plus en plus attendue.

La prochaine version 10.04 LTS[1] se prénomme Lucid Lynx et est prévue pour le mois prochain. Elle promet beaucoup. Mais elle promet aussi d’être l’amie des trolls 😉

Il faut dire que lorsque l’on occupe la place enviée et reconnue qui est la sienne dans la communauté (notoriété grand public incluse), on s’expose inévitablement à des critiques. Mais il faut également reconnaître qu’un certain nombre d’annonces récentes ont pu parfois jeter le trouble, en particulier chez ceux qui sont moins attachés à l’open source qu’au logiciel libre.

De là à craindre que Canonical, la société créée par Mark Shuttleworth pour développer et soutenir Ubuntu, se transforme en une sorte de nouveau Microsoft, il n’y a qu’un pas que nous ne franchirons certainement pas.

Se contentant de lister quelque éléments selon lui sujets à caution, c’est un pas que n’a cependant pas hésité à franchir un dénommé Alan Lord sur son blog, dans un court et lapidaire billet intitulé explicitement Is Canonical Becoming The New Microsoft?[2].

Et cela n’a évidemment pas loupé, le billet a généré très rapidement une centaine de commentaires divers et variés, nécessairement orientés par ce titre choc.

Le journaliste Sam Varghese a alors jugé bon de contacter Mark Shuttleworth pour avoir son avis dans un article publié sur le site iTWire que vous proposons traduit ci-dessous[3].

PS : Notons que dans l’intervalle, Ubuntu a également révélé sa nouvelle charte graphique et son nouveau logo (ci-dessus). Personnellement j’aime bien, même si je note la disparition apparente du slogan « Linux for Human Beings », qui était peut-être maladroit mais avait le mérite d’évoquer Linux. La confusion entre les deux ou l’aspiration de l’un par l’autre risquent de se faire plus grande encore.

Mark Shuttleworth : « Ma motivation, ce n’est pas la haine de Microsoft. »

I’m not driven by Microsoft hatred: Shuttleworth

Sam Varghese – 15 février 2010 – iTWire
(Traduction Framalang : Don Rico et Simon Descarpentries)

Mark Shuttleworth, fondateur et directeur général de la société Canonical, déclare que s’il a créé sa distribution GNU/Linux Ubuntu, ce n’est en aucun cas par animosité envers Microsoft.

Il a répondu aux questions d’ITWire concernant un récent billet de blog dont l’auteur accusait Canonical de devenir le nouveau Microsoft.

« J’admire plusieurs des accomplissements de Microsoft. J’estime qu’il est tout aussi détestable de diaboliser les employés d’une entreprise que des gens pour leur couleur de peau, leur nationalité ou toute autre particularité » explique Shuttleworth.

« Microsoft se livre toutefois à d’inacceptables abus de position dominante, et je suis fier qu’Ubuntu offre au monde un réel choix entre la servitude continue et la liberté utile, sûre et authentique. »

« Cela dit, mon rôle n’est pas de punir Microsoft, ni de les haïr ; je suis là pour proposer une meilleure voie, si je le peux. Ce sera dur, mais nous le pouvons. Et, dans les cas où nous partageons une cause commune, je travaille volontiers avec Microsoft. Il est possible que ce soit difficile à concevoir pour ceux qui pensent que la vie est plus facile à appréhender si on a un ennemi pour justifier sa cause, mais à mon sens ce comportement conduit au sectarisme, nuit aux résultats et nous empêche de corriger les erreurs du passé. »

Dans son billet, l’auteur énumérait les raisons pour lesquelles Ubuntu devenait d’après lui le nouveau Microsoft : l’intégration de Mono par défaut, la création d’Ubuntu One (un outil propriétaire de stockage en ligne), le retrait de GIMP et d’autres logiciels de la distribution, le passage à Yahoo! comme moteur de recherche par défaut, une enquête visant à savoir quelles applications propriétaires devaient être incluses dans les dépôts d’Ubuntu, et enfin, la nomination de Matt Asay au poste de PDG.

Sans entrer dans les détails concernant chacun de ces points, Shuttleworth indique cependant que « toutes les questions abordées dans le billet que vous mentionnez ont été consciencieusement débattues sur des forums publics. Les gens de chez Canonical et les animateurs de la communauté Ubuntu y ont, je crois, présenté nos intentions sans faux-semblant. »

« Chacune de nos décisions affectant nos utilisateurs auront leurs détracteurs et leur partisans, » a-t-il ajouté, « mais c’est notre volonté de maintenir le cap face au changement qui confère à notre plateforme son dynamisme et sa pertinence, et nous ne nous soustrairons pas à cette responsabilité. »

Shuttleworth explique que son objectif personnel, ainsi que celui de tous ses collaborateurs chez Canonical, est d’apporter les avantages du logiciel libre au plus grand nombre. « C’est ce qui est au cœur de notre motivation, et à maintes reprises nous avons dû employer des chemins détournés pour rester cohérents avec ce principe. »

Il précise que la grande majorité du travail produit par Canonical est mis à la disposition de tous sous licence libre. « Y compris des éléments de nature éminemment stratégique, tel que Launchpad, qui est publié sous une licence compatible avec les réflexions les plus récentes concernant les services internet libres. Nos réalisations propriétaires n’impliquent jamais qu’il faille installer des outils fermés de Canonical dans Ubuntu, se limitent à des services réseau, permettent de promouvoir tout le reste, et restent totalement optionnelles pour les utilisateurs d’Ubuntu. C’est une pratique que l’on retrouve sur d’autres plateformes. »

En conclusion, Mark Shuttleworth affirme être très fier de ce qu’apporte Canonical à la communauté du logiciel libre. « Si nous rencontrons autant de succès que je le souhaite, alors le monde aura pour la première fois une plateforme de qualité professionnelle disponible gratuitement pour tous. Ce qui n’est pas le cas avec les acteurs dominants du marché Linux. Je me consacre corps et âme à ce but, et j’apprécie énormément de partager cette cause avec des milliers d’autres au sein de la communauté Ubuntu. »

« Travailler en partenariat avec Yahoo! n’a jamais, à ma connaissance, induit la moindre négociation avec Microsoft. Et nous n’accepterons pas les conditions de Microsoft en matière de licence de propriété intellectuelle, comme le fit Novell. En revanche, si nous pouvons collaborer de façon constructive avec Microsoft, Oracle ou IBM, lesquels incluent une grande quantité de code propriétaire dans leurs produits, il est certain que nous nous engagerons de façon ouverte et de bonne foi. Je suis convaincu que nous le ferons avec le soutien sans faille des responsables de la communauté Ubuntu. »

Notes

[1] Une version LTS (pour « Long Term Support ») garantit aux utilisateurs, constructeurs et assembleurs, une maintenance et un suivi sur plusieurs années.

[2] On notera qu’Alan Lord a fait depuis amende honorable.

[3] Edit : Alan Lord est intervenu dans les commentaires ci-dessous, en nous signalant notamment la mise au point suivante concernant l’article du journaliste : Sam Varghese Got It Wrong?.




Rapport Fourgous : Le communiqué de l’April et les propositions de l’AFUL

Torres21 - CC by-saNous avons déjà par deux fois évoqué le rapport de la mission parlementaire du député Jean-Michel Fourgous sur la modernisation de l’école par le numérique. D’abord en extrayant les passages qui touchent de près ou de loin le logiciel libre et sa culture, et ensuite en demandant à François Elie de nous en faire une lecture critique.

Nous vous proposons ci-dessous, et l’une après l’autre, les réactions de l’April et de l’AFUL que nous avons malicieusement choisi de réunir ici dans un même billet.

Dans son communiqué, l’April prend acte de certaines avancées tout en regrettant la timidité des mesures préconisées. L’Aful quant à elle se veut constructive en faisant état de douze propositions, non pas pour « réussir l’école numérique » mais, nuance, pour « réussir le numérique à l’école »[1].

April / Rapport Fourgous : une reconnaissance partielle des apports fondamentaux du libre à l’éducation

URL d’origine du document

Paris, le 4 mars 2010. Communiqué de presse.

L’April se félicite que certaines de ses positions soient reprises dans le rapport de la mission parlementaire de Jean-Michel Fourgous[2] sur la modernisation de l’école par le numérique mais regrette qu’après avoir montré que le logiciel libre est une approche privilégiée pour réussir l’école numérique, il ne propose aucune mesure concrète pour tirer parti de cette opportunité.

Le rapport de la mission parlementaire de Jean-Michel Fourgous, député des Yvelines, sur la modernisation de l’école par le numérique a été remis le 15 février 2010 au Ministre de l’Éducation nationale Luc Chatel.

L’April en tant qu’observateur attentif de l’évolution de l’usage et de l’enseignement de l’informatique dans le système éducatif[3] a contribué à cette mission[4] dans le cadre de la consultation préalable. Elle se félicite de la prise en compte, même partielle, de sa contribution mais regrette que le logiciel libre ne soit cité que marginalement et ne fasse l’objet d’aucune mesure concrète alors qu’il est un élément central des solutions possibles.

Le rapport précise que le libre permet, entre autres de lutter contre la fracture numérique mais aussi qu’il favorise l’apprentissage des fonctionnalités plus que des outils. Il est également précisé que « en apprenant à utiliser des fonctionnalités plus que des outils, le libre habitue les élèves à la pluralité, à la diversité »[5].

Nous retrouvons là les positions défendues par l’April. Selon Benoît Sibaud, vice-président : « Notre association est, en matière éducative, attachée à la formation d’utilisateurs autonomes, éclairés et responsables. Nous considérons que les logiciels libres constituent, de par la transparence technologique qui les définit et les valeurs de partage qui les fondent, l’un des leviers les plus précieux à la disposition de la communauté enseignante pour l’enseignement à et par l’informatique ».

Plus loin l’accent sur les « pratiques coopératives et collaboratives » des enseignants est mis. À nouveau le rapport préconise de « favoriser le développement de ressources libres »[6]. De nombreuses structures encadrant la mutualisation de ressources pédagogiques libres entre enseignants existent déjà. Citons Sésamath, EducOOo[7], Scideralle[8] ou encore Ofset[9]. Le rapport fait explicitement référence à l’April par la voix de Benoît Sibaud : « Les enseignants devraient ainsi être incités à partager leurs travaux en protégeant ceux-ci par l’emploi de licences de libre diffusion du type Creative CommonsBySA, GNU Free Documentation License ou Licence Art Libre ».

L’April regrette cependant que ces points n’aient pas été davantage pris en compte dans la liste des priorités définies par la mission et que le libre ne soit cité que marginalement. Il est préconisé de généraliser les manuels numériques sans se préoccuper de la façon dont les enseignants pourraient se les approprier. Pour faire sienne une ressource pédagogique, un enseignant doit pouvoir justement l’adapter à son public, à sa situation pédagogique et à ses pratiques. Les manuels numériques actuels ne le permettent pas, ils sont vendus dans des formats rarement modifiables voire l’interdisent sur le plan légal. Il est regrettable que le rapport n’incite pas à encourager de façon institutionnelle des regroupements d’enseignants tels Sésamath[10] qui ont justement déjà produit des manuels numériques libres de mathématiques reconnus pour leur qualité pédagogique[11]. À la place un fonds de développement à seule destination d’éditeurs privés semble préconisé.

Sur le plan de l’exception pédagogique, l’April regrette de ne voir aucune mesure claire destinée à mettre un terme à l’insécurité juridique qui fait partie du métier d’enseignant. Il est certes préconisé de créer (en urgence) cette exception dans le système juridique du droit d’auteur alors qu’il suffirait dans un premier temps de favoriser la mutualisation entre professionnels de l’éducation et le développement de ressources libres. Concernant le B2i, le rapport va dans le sens des conclusions de l’April[12] ?et de nombreux autres acteurs comme l’EPI et le groupe ITIC-ASTI[13] car : « le B2i ne prend pas en compte ni la capacité à pouvoir se former tout au long de la vie, ni les connaissances techniques de base nécessaires pour comprendre les outils numériques ». L’April ne peut que se réjouir de voir mentionné que « La mise en place d’une matière informatique est une nécessité dans une société où tout fonctionne via le numérique »[14].

Enfin concernant les tableaux numériques interactifs (TNI), « la France comptera 50 000 TNI en 2010 »[15] le rapport n’évoque pas les problèmes d’interopérabilité. Chaque fabriquant de tableau développe son propre format qui ne peut être utilisé qu’avec leurs propres logiciels. Ces formats sont propriétaires et fermés et empêchent donc toute mutualisation avec des professeurs utilisant d’autres marques. En cas de mutation dans un autre établissement, tout le travail réalisé par le professeur peut être tout simplement inutilisable si le fabricant n’est plus le même. Il conviendrait donc de définir un cahier des charges national afin d’élaborer un format commun et interopérable pour les ressources utilisant les TNI. Rappelons que sous l’impulsion du BECTA[16] britannique un format de fichier ouvert destiné aux applications de type TNI a été publié[17]. Ce format est endossé par le projet European Schoolnet dont est d’ailleurs membre le Ministère de l’Éducation Nationale. Plusieurs fabricants de TNI ayant accepté de prendre en charge ce format, il nous semble ainsi naturel que son intégration soit requise dans les appels d’offre à venir.

En vertu des points mentionnés ci-dessus, l’April appelle le gouvernement à enfin mettre en place une véritable politique publique d’utilisation des logiciels, ressources libres et formats ouverts dans l’éducation. C’est là une opportunité à saisir dans l’intérêt des élèves et de l’école numérique. Enfin, l’April rappelle la nécessité forte de mettre en place un enseignement de l’informatique en tant que tel dès le Collège.

AFUL / Douze propositions pour l’école à l’ère numérique

URL d’origine du document

Suite à la publication du rapport FOURGOUS « Réussir l’école numérique », l’AFUL, l’ADULLACT et SCIDERALLE font douze propositions pour « Réussir le numérique à l’école ».

Le rapport Fourgous, dense, riche et touffu, semble hésiter entre une école numérique fondée sur le collaboratif et la richesse de ressources partagées d’une part, et d’autre part une école numérique qui serait le marché tout trouvé d’une industrie du numérique en mal de clients.

« Il y aura deux manières de rater l’école numérique : ne pas réussir à intégrer le numérique dans les situations d’enseignement, réduire le système éducatif à n’être qu’un client pour des industries numériques. Nous devons craindre davantage ce second danger » François Élie.

Nous vous invitons donc à découvrir nos propositions et à en discuter sur la liste dédiée à l’usage des logiciels libres dans l’éducation du groupe de travail Éducation de l’AFUL.

Douze propositions pour « réussir le numérique à l’école » :

  1. Liberté – Les logiciels et les ressources numériques acquises, développées ou produites avec participation de fonds publics doivent être placées sous licence libre et disponibles dans un format ouvert afin de permettre leur libre partage : les utiliser, étudier, modifier, redistribuer librement.
  2. Égalité – Avant de viser des solutions dites innovantes, il faut privilégier l’équipement et la disponibilité des ressources pour le plus grand nombre, par la mutualisation et des mécanismes de péréquation.
  3. Fraternité – Le travail collaboratif entre les élèves, les professeurs, les associations partenaires de l’école et tous les acteurs de l’éducation, en particulier les collectivités, doit être encouragé et soutenu.
  4. Un observatoire permanent composé de spécialistes de la mesure est chargé d’évaluer en continu et avec précision les impacts de tel ou tel usage lié au numérique dans les domaines scolaire et para-scolaire.
  5. La mise en œuvre de dispositifs TICE efficaces ou innovants est prise en compte dans l’évolution de la carrière des enseignants.
  6. Les Inspections sont chargées dans toutes les matières d’organiser, de maintenir et de faire croître le recensement, la production collaborative et l’indexation de contenus libres, avec des enseignants volontaires rémunérés pour ce travail. Les éditeurs (privés ou non) peuvent évidemment utiliser ce fonds pour proposer des manuels scolaires. Le modèle de Sésamath peut être une piste à suivre.
  7. Les collectivités et l’État conjuguent leurs efforts pour mutualiser leurs ressources et faire produire et maintenir un patrimoine de logiciels libres d’usage administratif et pédagogique à destination des 70 000 écoles et établissements scolaires français, par souci d’efficience, d’interopérabilité et d’égalité républicaine.
  8. L’école numérique s’appuie pour le développement et la maintenance de ses infrastructures matérielles, logicielles et documentaires, ainsi que pour la formation continue et l’accompagnement des enseignants, sur un réseau structuré de Centres de Ressources Informatiques.
  9. Les possibilités offertes par les nouvelles technologies dans le domaine du travail asynchrone ou distant sont explorées pour faciliter la liaison école-famille et améliorer les liens entre l’école et les élèves ne pouvant s’y rendre.
  10. L’informatique devient une discipline à part entière, dont l’enseignement obligatoire dès le primaire est réalisé par des professeurs ayant le diplôme requis dans cette spécialité ou ayant bénéficié d’une formation qualifiante. La gestion des compétences, l’accompagnement des enseignants et la formation initiale et continue font l’objet du plus grand soin.
  11. Afin de garantir l’égalité des chances, les collectivités et l’État mutualisent leurs efforts pour offrir un vaste support en ligne gratuit à l’échelle nationale, animé par des professeurs nommés dans la 31e académie : l’académie en ligne. Ces professeurs sont formés au tutorat en ligne.
  12. Les activités de production en ligne des élèves (écriture dans Wikipédia, site web, blog…) peuvent être intégrées dans un portfolio qui leur est proposé.

Ces douze propositions au format PDF.

Notes

[1] Crédit photo : Torres21 (Creative Commons By-Sa)

[2] Pour le consulter: http://www.reussirlecolenumerique.fr/. Voir aussi Libres extraits du rapport Fourgous sur la modernisation de l’école par le numérique (par A. Kauffmann), Rapport Fourgous – Notes de lecture de François Elie et Douze propositions pour l’école à l’ère numérique

[3] Voir notamment Jean Louis Gagnaire interpelle le ministère de l’éducation nationale à propos de la plateforme SIALLE, Audition de l’April à la mission e-educ, site du groupe de travail éducation de l’April

[4] Former les citoyens de demain : lettre de l’April à Jean-Michel Fourgous

[5] Réussir l’école numérique – Rapport de la mission parlementaire de Jean-Michel Fourgous, député des Yvelines, sur la modernisation de l’école par le numérique, page 259

[6] Réussir l’école numérique – Rapport de la mission parlementaire de Jean-Michel Fourgous, député des Yvelines, sur la modernisation de l’école par le numérique, Page 285

[7] EducOOo.org «  L’association EducOOo a pour vocation d’aider à la mutualisation de ressources éducatives libres autour de la suite bureautique OpenOffice.org. Elle encadre aussi le développement d’OOo4kids qui est une version d’OpenOffice.org spécialement adaptée pour les élèves de l’enseignement primaire voire début du secondaire »

[8] Scideralle, issue du projet AbulÉdu, Scideralle se fixe pour mission de soutenir et promouvoir des projets visant à fournir à tout public des logiciels et ressources libres pour l’éducation

[9] Ofset a été créée pour développer des logiciels libres éducatifs et des ressources afférentes pour le système GNU

[10] Sesamath.net « L’association Sésamath a pour vocation essentielle de mettre à disposition de tous des ressources pédagogiques et des outils professionnels utilisés pour l’enseignement des Mathématiques via Internet. »

[11] Les manuels Sésamath ont été préfacés par une Inspectrice Générale de l’Éducation Nationale de mathématiques

[12] Option « Informatique et sciences du numérique » au lycée : une première avancée avant un mouvement de fond ?

[13] http://www.epi.asso.fr/revue/docu/d0912a.htm

[14] Réussir l’école numérique – Rapport de la mission parlementaire de Jean-Michel Fourgous, député des Yvelines, sur la modernisation de l’école par le numérique, page 189.

[15] Réussir l’école numérique – Rapport de la mission parlementaire de Jean-Michel Fourgous, député des Yvelines, sur la modernisation de l’école par le numérique, page 72.

[16] Le BECTA est l’équivalent de la SDTICE en Grande-Bretagne : http://www.becta.org.uk/

[17] Le format "Interactive Witheboard Common File Format" (IWBCF) dont on peut d’ores et déjà télécharger les spécifications sur la page BECTA de SourceForge




L’ACTA en l’état ne passera pas par moi !

Raïssa Bandou - CC by« Depuis le printemps 2008, l’Union européenne, les États-Unis, le Japon, le Canada, la Corée du Sud, l’Australie ainsi qu’un certain nombre d’autres pays négocient secrètement un accord commercial destiné à lutter contre la contrefaçon (Anti-Counterfeinting Trade Agreement ou ACTA). Suite à des fuites de documents confidentiels, il apparaît clairement que l’un des buts principaux de ce traité est de forcer les pays signataires à mettre en place des mesures de répression de partage d’œuvre sur Internet sous la forme de riposte graduée et de filtrage du Net.

Alors que d’importants débats ont lieu sur la nécessité d’adapter le droit d’auteur à l’ère numérique, ce traité cherche à contourner les processus démocratiques afin d’imposer, par la généralisation de mesures répressives, un régime juridique fondamentalement dépassé. »

Ainsi s’ouvre la rubrique ACTA du site de La Quadrature du Net qui nous demande aujourd’hui d’écrire à nos représentants pour appuyer une initiative de quatre eurodéputés s’opposant à l’accord.

Sur le fond comme dans la forme, cet accord s’apparente à un pur scandale. Ces petites négociations entre amis seraient passées comme une lettre à la poste il y a à peine plus de dix ans. Mais aujourd’hui il y a un caillou dans les souliers de ceux qui estiment bon de garder le secret[1]. Un caillou imprévu qui s’appelle Internet. Raison de plus pour eux de le museler et pour nous de résister…

Pour évoquer cela nous avons choisi de traduire un article de Cory Doctorow qui résume bien la (triste) situation et comment nous pouvons tous ensemble tenter d’y remédier.

ACTA et le Web : quand le copyright s’installe en douce

Copyright Undercover: ACTA & the Web

Cory Doctorow – 17 février 2010 – InternetEvolution.com
(Traduction Framalang : Tinou, Psychoslave, Barbidule, Goofy et Don Rico)

Introduction

Le septième round de négociations secrètes sur l’ACAC (Accord commercial anti-contrefaçon, en anglais ACTA) s’est achevé le mois dernier à Guadalajara (Mexique). Le silence radio sur ces négociations est quasi-total : tels les kremlinologues de l’ère soviétique, nous devons nous contenter d’interpréter les maigres indices qui transpirent au-delà des portes closes.

Voici ce que nous savons : l’idée que des traités fondamentaux sur le droit d’auteur puissent être négociés secrètement est en train de perdre du terrain partout dans le monde. Les législateurs des pays participant aux négociations exigent que ce processus soit ouvert à la presse, aux activistes et au public.

Pour leur répondre, les négociateurs soutiennent — de manière surprenante — que le traité ne modifiera en rien les lois de leur pays, et que seuls les autres états devront faire évoluer leur droit (comme tous ces pays ont des législations foncièrement divergentes en matière de droits d’auteur, quelqu’un ment forcément. Je parie qu’il mentent tous).

Nous connaissons enfin l’attitude des promoteurs de l’ACAC à l’égard du débat public : au cours de la terne « réunion publique » tenue avant que les négociations ne débutent, une activiste a été expulsée pour avoir ébruité sur Twitter un compte-rendu des promesses faites verbalement par les intervenants à la tribune. Alors qu’on l’emmenait, elle a été huée par les lobbyistes qui peuvent participer à ce traité dont sont exclus les simples citoyens.

Cette situation embarrasse toutes les parties concernées, mettant à nu une attitude pro-capitaliste dont l’intérêt dépasse largement le cadre du copyright. Cela doit cesser. Nous verrons dans cet article comment nous en sommes arrivés là, et ce que vous pouvez faire pour mettre un terme à cette menace.

Comment en sommes-nous arrivés là ?

Un peu d’histoire, pour ceux à qui les épisodes sous-médiatisés précédents auraient échappé : les traités internationaux sur le droit d’auteur émanent à l’origine d’une agence des Nations Unies appelé l’OMPI, l’Organisation Mondiale de la Propriété Intellectuelle. Au départ, il s’agissait d’une agence privée créée pour servir de bras armé aux grandes « industries de la propriété intellectuelle » (musique, films, produits pharmaceutiques, télévision, etc.). Elle a pris forme en tant que consortium d’industries du privé, puis a ultérieurement gagné une légitimité lors de son intégration à l’ONU.

La prise en compte par l’ONU a donné un pouvoir énorme aux intérêts privés qui ont fondé l’OMPI, mais dans le même temps cela signifiait qu’ils devaient suivre les règles de l’ONU, c’est-à-dire que les organismes non-gouvernementaux et la presse était autorisés à assister aux négociations, à en rendre compte et même à y participer. Au début des années 2000, le groupement d’intérêt public Knowledge Ecology International a commencé à embrigader d’autres organisations pour suivre les actions de l’OMPI.

Ah, au fait, j’étais l’un des délégués qui a rejoint cette vague, au nom de l’Electronic Frontier Foundation. Les militants présents à l’OMPI ont tué dans l’œuf le traité en cours de négociation, le Traité de Télédiffusion, et l’ont remplacé par un autre destiné à aider les personnes aveugles et handicapées, les archivistes et les éducateurs. Pas vraiment les actions prioritaires pour les grosses multinationales du divertissement.

Ils ont donc déplacé leurs forums. Depuis 2006, divers pays riches — les États-Unis, le Canada, le Japon, l’Union Européenne, l’Australie et d’autres – ont tenu une série de séances de rédaction de traité en comité privé, sous le sceau de la non-divulgation.

Tout secret connu de deux personnes ou plus finit toujours par s’éventer, aussi de nombreuses divulgations nous donnent-elles un aperçu du chapitre « Internet » du traité, où des dispositions ont été prises sur la gouvernance et les restrictions imposées au réseau mondial. Lisez donc la suite.

Ce qu’a fait l’ACAC jusqu’ici

Arrêtons-nous un instant pour parler des concepts de copyright, d’Internet, et de gouvernance. Historiquement, les lois sur le copyright ont été écrites par et au bénéfice des prestataires de l’industrie du divertissement. Les règles du copyright n’ont pas été pensées pour contrôler de façon appropriée un quelconque autre domaine: on n’essaie pas de caser des morceaux du code du travail, des lois sur la finance, l’éducation, la santé ou les campagnes électorales dans le système du copyright.

Mais dès que vous transférez ces activités à Internet, le copyright devient la première méthode de contrôle, faisant autorité sur tout. Il est impossible de faire quoi que ce soit sur Internet sans faire de copie (vous venez de créer entre 5 et 50 copies de cet article rien qu’en suivant le lien qui vous y a amené). Et comme le copyright régit la copie, toute règle qui touche à la copie touchera également à ces domaines.

Et c’est bien ce qui dérange dans le secret qui entoure l’ACAC, même quand on ne se préoccuppe pas de copyright, d’utilisation équitable (NdT : « fair use »), ou de tout autre sujet biscornu.

Divers brouillons de l’ACAC ont inclus l’obligation pour les FAI d’espionner leurs clients et d’interdire quoi que ce soit qui ressemble à une violation de copyright. (Cela signifie-t-il qu’on vous empêchera d’enregistrer une publicité trompeuse ou mensongère et de l’envoyer à votre député ?) L’ACAC a également soutenu la fouille des supports multimédia aux postes frontières pour y chercher des infractions au copyright (Les secrets professionnels de votre ordinateur portable, les données clients confidentielles, des correspondances personnelles, votre testament, vos coordonnées bancaires et les photos de vos enfants prenant leur bain pourraient être fouillées et copiées la prochaine fois que vous partez en voyage d’affaires).

L’ACAC a en outre appelé à la création de procédures simplifiées pour couper l’accès à Internet d’un foyer entier si l’un de ses membres est accusé d’une infraction (ainsi, votre épouse perdra la capacité de contacter par e-mail un praticien gériatre au sujet de la santé de grand-papa si votre enfant est soupçonné d’avoir téléchargé trop de fichiers par poste-à-poste (P2P).

Ce n’est pas tout, mais ce sont là quelques exemples des propositions principales des sommets secrets de l’ACAC.

Ce qui a eu lieu à Mexico et pourquoi vous devriez vous y intéresser

Je pense par ailleurs que toutes les ébauches de l’ACAC sont également mauvaises pour le copyright et les créations qu’il protège. Je suis l’un des nombreux artistes qui gagnent leur vie en ligne, et qui profitent d’un Internet libre et ouvert. Mes livres sont disponibles au téléchargement gratuit le jour même où mes éditeurs le mettent en rayon. Mon premier roman pour jeunes adultes – Little Brother (NdT : « Petit Frère ») – a atteint le classement des meilleurs ventes du New York Times grâce à cette stratégie.

Mais même si vous vous fichez éperdument de la musique, des films, des jeux ou des livres, vous devez prêter attention à l’ACAC.

Ceci dit, le fait est que nous ne savons presque rien de la façon dont s’est déroulée la septième réunion. Elle a assez mal démarré : lors d’une réunion d’information publique, les organisateurs de l’ACAC ont tenté de faire signer à l’assistance un accord de non-divulgation (lors d’une réunion publique !), et ont ensuite fait sortir une activiste qui ébruitait des notes sur les éléments publiés — elle a été évincée manu militari sous les huées des lobbyistes présents, outrés que le public puisse assister à la réunion.

Pendant la réunion, des membres de diverses représentations parlementaires de par le monde se sont levés au sein de leur institution, et ont exigé de prendre connaissance des détails du traité qui était négocié par le département du commerce de leur pays, sans la supervision de leur sénat ni de leur parlement. Les législateurs de toute l’Europe, les membres des parlements canadien et australien, et les représentants du Congrès des États-Unis se sont vu opposer un silence de marbre et de vagues garanties.

Ces assurances étant les seules informations publiques visibles que nous ayons sur la question, elles méritent notre attention : l’Union Européenne, les États-Unis et le Canada ont tous affirmé que rien dans l’ACAC n’aura d’impact sur le droit national dont les représentants élus sont responsables.

Au lieu de cela, ils prétendent que l’ACAC ne fait qu’incarner les lois nationales dans un accord international, ce qui dans les faits oblige tout le monde à s’aligner sur les lois existantes.

Cette absurdité — pourquoi négocier un traité qui ne changerait rien ? — devient encore plus ridicule lorsque l’on considère que l’Union Européenne, le Canada et les États-Unis ont des règles de droit d’auteur différentes et incompatibles sur les questions en discussion à l’ACAC. Il est littéralement impossible pour l’ACAC de parvenir à un ensemble de règles qui n’entraînerait pas de modifications pour tout le monde.

Ce que l’avenir nous réserve – et ce que vous pouvez faire

Certes, nous pourrions tous constater par nous-mêmes ce qui a été proposé, si seulement l’ACAC était ouvert au public, comme tous les autres traités sur le copyright mondial le sont depuis l’avènement d’Internet.

Là encore, voici une série de déclarations contradictoires sur lesquelles nous creuser la tête : le délégué en chef du commerce États-Unien dit que le secret est une condition requise par les partenaires des États-Unis. Or, la déclaration sur la confidentialité qui a été divulguée provient clairement des États-Unis. De nombreux États de l’UE sont sur le point de lancer un appel officiel pour la transparence de l’ACAC.

Pour ma part, je parie sur les États-Unis. L’industrie mondiale du divertissement a plus d’emprise là-bas que dans toute autre nation, et l’administration Obama est allée jusqu’à nier la loi sur la liberté de l’information (NdT « Freedom of Information Act ») pour le traité en prétextant des raisons de sécurité nationale. (Oui, la sécurité nationale ! Ceci est un traité de droit d’auteur, pas une liste des codes de lancement de missiles.) Et le Bureau du Représentant État-Unien au Commerce (ndt : « United States Trade Representative », USTR) a déclaré clairement que l’administration Obama prévoit de ratifier l’ACAC par décret, sans la faire passer par le Congrès.

Le prochain sommet de l’ACAC se déroulera en Nouvelle-Zélande en avril, et les militants se préparent pour la bataille. En Nouvelle-Zélande, les opposants au copyright (NdT : « copyfighters ») sont aguerris et prêts à en découdre, ayant récemment repoussé le règlement 92A qui aurait permis aux producteurs de cinéma et de musique de couper l’accès à Internet sur simple accusation — sans preuve — de violation de copyright.

Impliquez-vous. Appelez votre sénateur, votre député, votre euro-député. Dites-leur que vous voulez que l’ACTA soit négocié de façon ouverte, avec la participation du public et de la presse.

Refusez que des règles affectant les moindres recoins de votre vie en ligne soient décidées en douce par ceux qui ne défendent que les intérêts de leur portefeuille.

Cory Doctorow
Militant de l’Internet, blogueur – Co-rédacteur en chef de Boing Boing

Notes

[1] Crédit photo : Raïssa Bandou (Creative Commons By)




Rapport Fourgous – Notes de lecture de François Elie

François ElieFrançois Elie est co-fondateur et président de l’Adullact[1] ainsi que vice-président de l’Aful[2], professeur agrégé de philosophie et élu de la ville et de l’agglomération d’Angoulème dont il a été longtemps en charge des nouvelles technologies.


Vous comprendrez alors aisément pourquoi lorsqu’a été mis en ligne le rapport Fourgous Réussir l’école numérique[3] (dont nous avons publié ici-même quelques libres extraits), nous lui avons demandé son avis, qui a pris la forme d’une note de lecture que nous vous proposons ci-dessous.


François Elie est également l’auteur du livre Économie du logiciel libre[4] dont la première phrase annonce la couleur : « Cet ouvrage s’adresse à ceux qui font, vendent, utilisent ou achètent du logiciel libre, c’est-à-dire tôt ou tard… à tout le monde ».


Et puis l’on se souvient de sa lettre aux candidats à l’élection présidentielle de 2007[5]. Elle reste plus que jamais d’actualité. Mais nous en sommes déjà à mi-mandat et le constat est là. « En vous demandant de prendre la mesure des enjeux du développement du logiciel libre pour la France, j’écris ces mots en tremblant: l’avenir en effet nous jugera. Ceux qui pouvaient agir et ne l’auront pas fait porteront une lourde responsabilité devant l’histoire ».


Le rapport Fourgous est une belle occasion d’agir, a fortiori si l’on prend ces quelques notes en considération.

Remarque : Vous pouvez également voir sur le Framablog cette interview de François Elie réalisée par Intelli’n TV à l’occasion de la sortie de son livre.

Notes de lecture du rapport Fourgous par François Elie

Précaution


Même si je suis un geek, très loin d’être un technophobe, je crois pour d’assez fortes raisons comme Alain que « l’enseignement doit être résolument retardataire »[6] (relire les Propos sur l’éducation). On ne commence pas par la fin !

Pour ce qui nous occupe, ce qu’il faut craindre, ce sont les séductions du numérique. Apprendre le clavier avant de savoir écrire ? Non ! L’école doit éclairer et exercer l’esprit. Elle doit nous rendre libres, et non nous habituer/enchaîner à telle ou telle interface. Alors on aurait peut-être du parler de l’école à l’ère du numérique. Mais cela n’a pas d’importance si ce n’est qu’affaire de mots. Disons qu’il faut vraiment craindre l’école numérisée.

Le numérique ?


Je n’ai pas vu que le rapport définisse le numérique. En philosophie nous avons tendance à nous méfier des fausses évidences. Le numérique, tout le monde saist ce que c’est ! Pas si sûr. Alors je développe un instant. Car au fait, c’est quoi le numérique ?


La codification digitale de l’information sur des supports informatiques a deux conséquences énormes.


La première conséquence : là où l’imprimerie avait édifié une interface de pouvoir entre celui qui écrit et celui qui lit, l’internet rend à chacun le pouvoir d’écrire. L’école à l’ère du numérique n’est pas une école où l’on apprend surtout à lire, mais une école où l’on apprend aussi à écrire.

Le rapport le mentionne, 41% des jeunes ont un blog. Pensera-t-on à l’inclure dans leur e-portfolio ? Apprend-on aux enfants à écrire dans Wikipédia? Est-ce le pays qui a fait naître l’Encyclopédie de Diderot (et où Arago a racheté le brevet du daguerréotype pour le donner au monde) doit aider au financement de Wikipédia ? Mais je pose peut-être de mauvaises questions. Le rapport mentionne la création, la participation, comme ingrédient et adjuvant des enseignements, sans doute. L’école numérique peut être plus enthousiasmante: elle peut être le lieu où l’on accède au savoir, où l’on apprend à le produire et à le partager.


La seconde conséquence : dans le monde du numérique, copier n’est pas reproduire[7]. La diffusion du savoir peut se faire à coût marginal nul.

Cela change tout (ou devrait tout changer) de la façon dont l’école se situe par rapport aux éditeurs de contenu. Cela bouscule les systèmes juridiques, les modèles économiques. On sent comme une hésitation dans le rapport sur ce point. J’y reviendrai.

Sur le contexte

Analogie avec l’arrivée de la télévision – J’appartiens à la génération qui a vu se développer la télévision: on ne s’en est pas servi ou si peu ou si mal à l’école. Il y aurait eu là un instrument formidable pour accompagner la massification. Il y avait là aussi une menace terrible. L’école n’a pas réussi à en faire un instrument, sans doute faut-il le regretter. Elle a su résister à s’en faire l’instrument. Il faut s’en féliciter. Il y aura deux manières de rater l’école numérique : ne pas réussir à intégrer le numérique dans les situations d’enseignement, réduire le système éducatif à n’être qu’un client pour des industries numériques. Nous devons craindre davantage ce second danger.


Souvenir

La France qui était un géant de l’informatique est devenue un nain. Elle a retardé par exemple son entrée de plain pied dans l’internet grâce/à cause du minitel. Il me semble qu’il faut considérer cela comme un élément de contexte. Parmi les freins: notre aptitude à nous tirer des balles dans le pied, à ne pas voir nos atouts. Que serait une ligne Maginot numérique ?


Sur la méthode. Il est toujours important de regarder ce qui se fait ailleurs. mais attention à « l’herbe est toujours plus verte ailleurs ». Il faut aussi regarder ici, d’ailleurs. Regarder ailleurs ce qu’on nous envie! On s’extasie à l’étranger sur le développement du logiciel libre en France et sur Sésamath (Serons-nous les derniers à nous en apercevoir, et à miser vraiment, réellement sur nos atouts, pas sur ceux que nous envions aux autres). Et puis on ne gagne pas les guerres avec les armes de la précédente.

Comment ne pas partager le diagnostic du rapport ?

  • En France, l’orientation ressemble trop à une sélection par l’échec.
  • « L’impact du milieu socio-économique de l’élève a en France une très forte influence sur ses résultats scolaires ». Autrefois on disait « l’ascenseur social est cassé ».
  • « La France fait partie des pays dans lesquels l’écart de performance entre les élèves est le plus important, même s’il y a peu d’élèves brillants et une forte proportion d’élèves très faibles ». Ce que je réponds à des amis qui me demandent si le niveau baisse: « non, l’écart se creuse ».
  • Le discours tenu sur les enseignants et sur l’école est catastrophique. La (dernière) priorité du rapport: « médiatiser les enjeux du numérique en valorisant le travail des enseignants ».
  • « 97% des enseignants sont équipés d’un ordinateur à leur domicile et si 94% l’utilisent pour la préparation de leurs cours, seuls 12% des enseignants utilisent les Tice dans un quart de leurs cours ». On les décourage ou quoi ? Pourquoi feraient-ils davantage ? Ils seraient mieux notés, mieux payés, mieux considérés ?

Il me semble qu’il faut fixer des objectifs, évaluer. Comment mesurer si les mesures préconisées ont été efficaces ? Finalement, plutôt que d’expérimenter sans évaluer, je me demande s’il ne suffirait pas parfois de seulement mesurer… On gagnerait du temps !


On mentionne l’Académie en ligne. Dispose-t-on d’une évaluation de ses premiers résultats ?

Sur le rapport, dans son ensemble

Ce n’est pas toujours très lisible, trop d’items, où l’on trouve mélangés des détails d’équipement et des principes. Sans doute la loi du genre.


J’ai tendance à penser qu’il faut réfléchir aux buts avant de réfléchir aux moyens. J’observe que le rapport commence par mesurer que le haut débit n’est pas assez utilisé en France et l’on y parle d’abord « équipement ». Revenons aux fondamentaux: aux frontons de nos écoles figure la devise de la République: liberté, égalité, fraternité. Regardons comment le numérique pourrait aider l’école à redevenir ou rester l’école.


  • La liberté – Je la vois dans les logiciels libres, et dans les ressources libres. Nous sommes le pays des Lumières. C’est là que le monde nous attend. Le rapport l’évoque, mais très timidement.

  • L’égalité – Le rapport ne s’indigne pas assez de ce qu’introduit actuellement le numérique à l’école: l’inégalité! Entre les collectivités de rattachement, entre les écoles, entre les classes, entre les élèves. Il n’y a pas besoin de développer en détail. On lutte contre la fracture numérique en grattant la plaie. Equiper c’est bien, rétablir l’égalité c’est mieux!

  • La fraternité – Il faut encourager le travail collaboratif, la coopération, la coopétition, les formes de communication asynchrones et distantes, la production d’un patrimoine commun de ressources. Entre les élèves évidemment, entre les enseignants sans doute, mais aussi et surtout entre tous les acteurs (en particulier ceux qui financent, et qui peuvent massivement mutualiser).

Mesure 2 – Tableau numérique interactif

Je suis un peu surpris que dans un rapport d’un tel niveau on préconise en mesure 2 le déploiement d’un outil particulier.


D’autant que les videoprojecteurs intègrent désormais cette fonction[8] ! Mais pas exactement au même prix…


Ces matériels doivent être interopérables ! Actuellement ce n’est pas le cas. Il y a des établissements avec des TBI de plusieurs marques différentes, incompatibles et a fortiori non interopérables.

Mon inquiétude générale


Mon inquiétude, c’est que l’école soit vue après ce rapport par les industriels comme un simple marché pour leurs produits. L’école vaut mieux que cela. Oui au « serious game » ! Mais par exemple le critère d’évaluation ne sera pas la santé de l’industrie du serious game, mais le progrès des élèves. Si l’on voulait faire du serious game libre, avec des systèmes-auteurs à libre disposition ce serait possible! Mais est-ce cela que l’on veut ?


Je vais prendre un exemple plus parlant.

À propos des handicapés

La situation des personnes handicapées en matière de nouvelles technologies est alarmante. Oui, les nouvelles technologies sont un formidable instrument d’accessibilité. Mais à quel prix ? Dans cette niche les marchands ne sont pas exactement des philanthropes. Vous savez combien coûte un système mécanique pour tourner les pages d’un livre ? Est-ce qu’il serait utile de financer un système de visio-conférence libre ? Vous imaginez les conséquences pour le développement du télétravail ? Le frein, ce n’est pas l’usage des outils, c’est le coût exhorbitant des outils ! Il faut choisir entre promouvoir les usages et promouvoir les outils.


Promouvoir vraiment les usages (et l’économie qui va avec) c’est libérer les outils !


Plutôt que d’aider les gens à se payer des logiciels… libérons les logiciels. L’économie autour des usages est plus rentable que le commerce sur les outils.

Sur l’enseignement de l’informatique

C’est une très bonne chose ! Au sein du groupe ITIC[9], j’ai suivi ce dossier. C’est une chose qui me tient à coeur. Mais s’est-on demandé pourquoi cet enseignement n’existait pas, avait été supprimé ?


Il faut aller au bout des choses: créer une inspection d’informatique, proposer un concours, avec une certification ouverte à la VAE[10]. Tout cela est bel et bon.


L’enjeu de fond reste toujours quand même : faut-il enseigner à utiliser ou à maîtriser. Je ne suis pas rassuré sur ce point. Faut-il enseigner à « maîtriser l’utilisation » ? La Finlande, c’est le pays où sont nés Linux et Nokia. Excusez du peu. Il faut croire qu’ils ont du chercher à vraiment comprendre comment ça marchait !

Sur l’enseignement des langues

Sur les langues j’ai écrit[11] l’an dernier à tous les départements, toutes les régions, au ministère, pour leur dire qu’il serait intelligent d’investir dans le développement d’LLSOLL[12], le labo de langue libre qu’avait commencé la ville de Genève.


Je suis un peu désabusé, même si j’observe qu’en matière de langues on met le paquet dans la réforme de la seconde (avec une inquiétude sur l’enseignement de l’allemand, mais c’est une autre histoire…).

Naïveté ?

Le logiciel qui renforce l’estime de soi « bravo, continue ». Les enfants ne sont pas dupes… Pour parler philosophie, disons que le désir de reconnaissance d’un sujet n’est pas exactement le désir d’être reconnu par un objet.

ADNE


L’idée d’une structure de coordination nationale est-elle une bonne idée ? Cela me rappelle la formule de Clémenceau : « Quand on veut enterrer un problème, on crée une commission ».


Va pour l’Agence pour l’Accompagnement au Développement du Numérique dans l’Education (ADNE). La vraie question c’est: que devra-t-elle faire ?


Ce serait l’occasion pour faire du collaboratif entre acteurs de l’école, pour donner l’exemple : on n’enseigne que ce qu’on est !

Opportunité pour le soutien scolaire

Accompagnement à la scolarité. Il faut impliquer les enseignants, en profiter pour transformer les relations avec les élèves. Sinon les élèves iront chercher tous chercher ailleurs.


Il manque une offre logicielle de qualité en la matière ? Il faut faire développer, la mettre en libre et distribuer partout. Il y a 70.000 établissements scolaires. On paie 1 fois le développement en amont et on économise 70.000 licences. Cela devrait s’appeler de l’efficience non ?

À moins que l’on se prépare à faire payer 70.000 fois ceci, et 70.000 cela.

Les ENT

Le développement des ENT[13] a été un poème… On aurait voulu qu’ils ne se développent pas ou le plus lentement possible qu’on ne s’y serait pas pris autrement. Passons…


Au lieu de se mettre autour d’une table et de financer en mutualisant un système libre qui puisse 1) être déployé vite et bien et 2) être maintenu correctement partout, on a laissé chacun se débrouiller, et on y est encore…


La région Ile de France vient de notifier un marché pour un ENT libre. I had a dream…

Mesure 27 – Développer un ENT spécifique pour le premier degré aux fonctionnalités adaptées, en particulier cahier de textes, et de liaison, pour la relation école-familles.

Si les enseignants doivent rentrer leurs notes, pourquoi l’Institution ne développerait pas en libre (ou ne racheterait pas un logiciel de notes pour le mettre sous licence libre), pour une ergonomie commune.

La forge de l’Adullact[14] l’accueillera avec plaisir.

À propos du haut débit


C’est très bien de mettre du très haut débit partout. Mais il faudra aller au bout de la démarche. Est-ce que cela va nous conduire à nous déplacer… pour avoir tout à disposition, comme dans le télétravail, qui existe déjà: on se déplace… pour télétravailler ! Le rapport le mentionne : le temps et le lieu de l’école vont devoir changer. Décidement le haut débit pour tous, ça touche à tout !


L’école numérique ce n’est pas l’école + le haut débit…

Mesure 14 – Exception pédagogique

Comme suppléant de Bernard Lang au Conseil Supérieur de la Propriété Littéraire et Artistisque[15], je crains que voter une exception pédagogique en urgence ne soit une contradiction dans les termes. Le test en trois étapes peut-il passer ?


Il y a pourtant une solution simple et très rapide à mettre en place : miser vraiment sur les ressources libres et ouvertes (logiciels et ressources documentaires).

Sur le pilotage

Je n’ai pas compris le but. Ou alors il n’est pas lisible. Mutualisation ?

Dommage qu’il ne soit pas question des développements logiciels d’ENT (à partir de la souche de Dijon par exemple[16]).

Mesure 23 – Favoriser les ressources libres et la mise à disposition de ressources non payantes


À première vue c’est formidable. Mais la mesure précédente, la 22, est un fonds pour soutenir l’édition propriétaire. Doit-on comprendre alors que l’on va encourager/favoriser les ressources libres… sans argent.

Pourtant elles sont comme les logiciels : elle sont gratuites une fois qu’elles ont été payées… Dire (tandis qu’on finance par ailleurs les marchands) à ceux qui produisent bénévolement un patrimoine libre avec le souci du bien commun « Bravo, merci, continuez », ce n’est pas vraiment les y encourager !

Le collaboratif

Sésamath est présenté comme une référence (son influence sur d’autres associations professionnnelles dans d’autres matières que les mathématiques en atteste assez). Le rapport encourage-t-il l’Institution à promouvoir à grande échelle cette exception française ? Et dans toutes les matières ?


Il y a comme une hésitation dans le rapport. Il faudrait que les enseignants collaborent, coopèrent, surtout pour se former. Le fait qu’ils aillent jusqu’à produire des contenus, et les plus adaptés, semble un peu embêtant…


Comment dire aux enseignants: collaborez, tandis que les contenus et les logiciels s’achèteraient ailleurs. Ca va forcément clocher quelque part.

Mutualisation : qui paie ?

Une certitude: ce sont les collectivités qui paieront. Habituellement c’est celui qui paie qui finalement décide. (C’est celui met la pièce dans le juke-box qui choisit la musique).


Il y a deux scénarios possibles:


  • Mutualisation tous azimuts: on rétablit et on assure l’égalité en pariant sur les ressources logicielles et documentaires libres et ouvertes (ENT, visio-conférences, laboratoires de langue, forges de développement de ressources, outils d’administration, etc.)

  • Pas de mutualisation, les régions, départements et communes riches s’équipent richement et le fossé se creuse.

Dans les deux cas l’industrie du numérique se développera… mais dans le second cas l’école numérique sera une autre école.

Priorité forges de développement : ce qu’il faudrait bâtir

Le rapport parle de la mise en place de plate-formes collaboratives. Plus que des lieux de rencontre, ce sont des lieux de production: les places de marchés sont là, pas ailleurs !

C’est là que se produisent les ressources (logicielles et documentaires).


Conclusion:


Pourvu qu’on ne soit pas en train de passer à côté d’une opportunité formidable, en se trompant sur ce qu’est l’Economie Numérique. On risque de déplacer un modèle de l’édition (d’outils et de contenus) qui est totalement inadapté, et qui va se fonder sur des modèles instables et transitoires. Cela fera peut-être la fortune de quelques habiles, mais l’école en tirera-t-elle bénéfice? C’est ce que je saurais dire…


Ce que j’espère ? Que les collectivités, qui vont payer, aillent vers la mutualisation, pour produire ensemble des resssources libres. Mais je ne sais pas si ce choix sera fait, car il n’est pas simple d’organiser cette mutualisation et d’inventer. Mais à coup sûr nous aurions là une école à donner au monde !


De toutes manières, nous aurons l’école numérique que nous méritons.

Notes

[1] Association des Développeurs et des Utilisateurs de Logiciels Libres pour l’Administration et les Collectivités Territoriales : http://adullact.org et http://adullact.net

[2] Association Francophone des Utilisateurs de Logiciels Libres : http://aful.org

[3] Le rapport Fourgous dans son intégralité + brochure de synthèse

[4] Économie du logiciel libre – François Elie – Éditions Eyrolles – Novembre 2008

[5] Lettre aux candidats à l’élection présidentielle de 2007 – François Elie – Février 2007

[6] Voir cette formule reprise par André Maurois

[7] Pour le dire d’un mot: pour reproduire une automobile dans le monde réel, il faut en construire une; mais copier une ressource numérique ou un logiciel n’est pas le reconstruire, c’est le copier, et la copie du logiciel fonctionne aussi, et le livre est en deux exemplaires! Il est évident qu’on ne peut pas penser l’articulation de la production et de la diffusion des objets numériques comme dans le monde de choses !

[8] Voir Deux nouveaux vidéoprojecteurs « révolutionnaires» présentés au Bett 2010

[9] Groupe de travail ITIC au sein de l’ASTI

[10] VAE pour la Validation des Acquis de l’Expérience

[11] La lettre au sujet de la mutualisation du projet LLSOLL

[12] LLSOLL (Laboratoire de langues en Standards Ouverts et Logiciels Libres)

[13] ENT pour Espace numérique de travail

[14] Forge Adullact

[15] Conseil supérieur de la propriété littéraire et artistique

[16] Le projet Eole




Les industriels lorgnent le futur grand plan numérique de Luc Chatel – Mediapart

llawliet - CC byReprise du second article de l’enquête de Mediapart sur l’école à l’ère numérique, introduite dans un précédent billet.

« Derrière le ministre de l’éducation, l’ancien secrétaire d’État à l’industrie n’est pas très loin », nous dit Louise Fessard.

Et Microsoft non plus[1].

Mais la journaliste a eu la bonne idée d’en décrypter la présence et l’influence en s’appuyant, une fois n’est pas coutume, sur de nombreux articles de ce blog (cf notes de bas de page). Inutile de vous dire que cette reconnaissance nous honore quand bien même la situation évoquée mérite toujours d’être mise à jour en faveur du Libre.

Remarque : Cet article a été publié juste avant la sortie du rapport Fourgous désormais disponible.

Les industriels lorgnent le futur grand plan numérique de Luc Chatel

Louise Fessard – 8 février 2010 – Mediapart
(avec son aimable autorisation)

URL d’origine du document

En visite au Bett, le salon mondial du numérique éducatif à Londres, le 17 janvier, le ministre de l’éducation, Luc Chatel, a réaffirmé sa volonté de lancer un grand plan numérique pour l’école « dans le cours du premier trimestre 2010 ». Près de 7.000 communes de moins de 2.000 habitants ont déjà bénéficié de subventions de 10.000 euros pour équiper leur école dans le cadre du plan écoles numériques rurales.

Devant une rangée d’industriels français du numérique, il a confirmé la possibilité d’utiliser une partie du grand emprunt à cette fin. Car derrière le ministre de l’éducation, l’ancien secrétaire d’État à l’industrie n’est pas très loin. « Ce sont des réservoirs, des perspectives de croissance très importants que d’avoir des pouvoirs publics qui investissent de manière durable dans ce secteur », lance ainsi Luc Chatel (cf vidéo).

En moyenne, l’école française ne dispose que d’un ordinateur pour 12 élèves (contre un pour 6 en Grande-Bretagne) et moins de 30.000 tableaux blancs interactifs (contre 470.000 en Grande-Bretagne)[2]. Plus préoccupant, il existe une grande disparité d’équipement entre les territoires : un rapport de la Cour des comptes révélait en décembre 2008 que, dans les écoles primaires, le taux d’équipement allait d’« un ordinateur pour 5 élèves à un pour 138 élèves » selon les communes.

La faute à une absence de politique nationale : ce sont les collectivités territoriales (commune pour les écoles, département pour les collèges, région pour les lycées) qui financent ordinateurs, logiciels, connexion au réseau. « C’est bien de venir voir les innovations, se désolait un principal de collège rencontré au salon professionnel Educatice en novembre 2008, mais budgétairement on n’a pas la maîtrise, c’est le conseil général qui décide. »

Aussi le plan écoles numériques rurales, qui a laissé aux écoles candidates le choix des solutions informatiques tout en assurant un financement étatique, a-t-il fait mouche parmi les petites communes[3]. Devant l’afflux des candidatures, Luc Chatel a dû débloquer 17 millions d’euros supplémentaires, en plus de l’enveloppe initiale de 50 millions. « Le fait que l’Etat prenne en charge ce dispositif peut éviter un accroissement des inégalités », se réjouit Gilles Moindrot, secrétaire général du SNUipp, le principal syndicat des professeurs des écoles.

Privilégier ressources et formation

Le matériel n’est pas « forcément le nerf de la guerre », a souligné Luc Chatel le 17 janvier, jugeant en revanche « absolument capitales la question des ressources pédagogiques et la question de la formation »[4]. Le député (UMP) des Yvelines, Jean-Michel Fourgous, doit rendre son rapport sur les technologies de l’information et de la communication pour l’enseignement (TICE) à Luc Chatel le 15 février. « Si on ne veut pas renouveler les échecs des grands plans informatiques précédents, il faut abandonner l’histoire du 80% pour l’équipement / 20% pour la formation, et passer au 50/50 », explique-t-il.

Les industriels ont déjà largement investi le terrain : les grands groupes ne se contentent plus de vendre du matériel ou des logiciels, ils offrent aux enseignants des espaces d’échange, des forums, des ressources pédagogiques, des formations pour utiliser leur technologie. « Il faut comprendre qu’accrocher une boîte noire au mur, ça n’apporte pas grand-chose, explique Emmanuel Pasquier, directeur général de la société Promethean, leader des tableaux blancs interactifs (TBI) en Europe. Il faut faire un très gros travail avec la communauté éducative et mettre en place un écosystème autour du TBI qui comprenne les tableaux interactifs, les boîtiers d’évaluation, les ardoises mais aussi des logiciels d’aide à la création pédagogique, la formation et l’accompagnement continu des enseignants. » La communauté virtuelle Promethean Planet revendique ainsi plus de 500.000 enseignants dans le monde.

Microsoft « à l’assaut du monde de l’éducation »

Microsoft France a choisi de multiplier les partenariats avec le monde associatif enseignant, en adaptant son programme international « Partners in learning »[5], actif dans une centaine de pays, au contexte français : « Nous apportons un support technologique et financier aux initiatives des enseignants, mais notre plus grosse valeur ajoutée, c’est la mise en réseau entre enseignants », explique Thierry de Vulpillières[6], directeur des partenariats éducation. Microsoft vient ainsi en aide à des projets peu reconnus et relayés par l’institution scolaire. En toute discrétion, se gardant bien de placarder son logo à tout-va.

L’entreprise américaine a ainsi participé à la refonte de la plateforme Internet du Café pédagogique[7], le site d’actualité pédagogique de référence avec ses 222.000 abonnés, « qui craquait de partout », mais se contente d’y animer un forum sur une opération commerciale « Microsoft Office 2007 gratuit pour les enseignants ». Elle a aussi développé une offre de formations à cette suite bureautique et à son « espace de travail numérique » par l’intermédiaire de Projetice[8], une association d’enseignants créée en 2006.

« Au départ, différents enseignants ressentaient comme un manque l’absence d’associations sur les Tice dans le paysage français, raconte Thierry de Vulpillières. Ils sont venus me voir et j’ai participé au financement de la création de l’association. » Une association qui se dit « indépendante » mais vit en partie des commandes commerciales de Microsoft. « Au côté de celles d’Orange, de Texas Instrument, Smart, etc. », nuance Thierry de Vulpillières.

C’est encore Microsoft qui est à l’origine de la tenue du premier forum des enseignants innovants à Rennes en 2008, que l’entreprise finance à hauteur de 30%[9]. « En 2007, Microsoft avait, avec l’Unesco, organisé au Louvre le forum européen des enseignants innovants, raconte Thierry de Vulpillières. J’ai impliqué des enseignants français et ils se sont dit qu’ils allaient organiser quelque chose au niveau national pour récompenser l’innovation pédagogique. »

Microsoft emploie aussi des méthodes plus classiques et massives. Depuis juin 2008, les enseignants peuvent télécharger et installer gratuitement Office 2007 à leur domicile. Pour mener cet « assaut du monde de l’éducation » (voir doc joint), Microsoft et l’agence de communication Infoflash ont créé un site Web spécifique et envoyé des centaines de courriers nominatifs aux enseignants (120.000 aux enseignants et personnels de collège en juin 2008 puis une seconde vague de 350.000, visant aussi les instituteurs, en novembre 2008)[10]. Une performance récompensée en 2009 par l’obtention du grand prix « acquisition et fidélisation clients » du Club des directeurs marketing et communication des TIC (Cmit)[11].

« Un potentiel de 50.000 emplois »

Théoriquement, selon l’accord-cadre signé entre l’éducation nationale et Microsoft en 2003, l’offre n’est pas à proprement parler gratuite puisqu’elle doit être compensée par l’achat de licences par les établissements scolaires. Microsoft « autorise la duplication des logiciels Microsoft Office sur des postes de travail personnel dans la stricte limitation du nombre de licences déployées pour usage professionnel », précise l’avenant signé en 2006 (doc joint). Mais dans les faits, tout enseignant peut télécharger gratuitement Office, même si son établissement n’a pas acheté de licence à Microsoft.

Ce type d’opération est régulièrement dénoncé sur la Toile par des enseignants adeptes du libre comme Jean Peyratout. « Les industriels, et notamment Microsoft, ont une attitude extrêmement offensive mais ils font leur métier, c’est normal, estime cet instituteur de Pessac (Gironde). C’est plutôt du côté des prescripteurs qu’est le problème. »

Même analyse d’Alexis Kauffmann, enseignant de mathématiques, actuellement à Rome, qui dénonce sur son blog « l’influence disproportionnée de Microsoft à l’école ». « Je reproche surtout au ministère de l’éducation de laisser Microsoft rentrer comme dans du beurre dans le système éducatif français, faute d’avoir pris une position volontariste vis-à-vis du logiciel libre, explique-t-il. Alors qu’en Grande-Bretagne, le Becta (l’agence britannique en charge des Tice) n’hésite pas à rédiger de longs rapports[12] déconseillant l’adoption des nouvelles versions de Windows et MS Office en milieu scolaire tout en invitant à découvrir leurs alternatives libres que sont GNU/Linux et OpenOffice. »

Conscient de cette dépendance, Jean-Michel Fourgous propose qu’une partie du grand emprunt aille à « la formation, la simplification des ressources pédagogiques, la clarification du rôle des collectivités locales et une meilleure coordination des acteurs ». « Je pense qu’il y a un potentiel de 50.000 emplois dans les Tice dans les années à venir, prévoit-il. Il faut inciter nos chercheurs français à travailler sur tous les services Tice car il va y avoir une explosion dans ce domaine. »




Google, Apple et l’inexorable déclin de l’empire Microsoft

Seanmcgrath - CC byQuel est le dénominateur commun des récents évènements qui ont défrayé la chronique du Web ? L’absence de Microsoft.

On peut à juste titre critiquer Google, et son jeu du chat et de la souris avec nos données personnelles. Dernier exemple en date : Google Buzz.
On peut en faire de même avec Apple, qui prend un malin plaisir à enfermer les utilisateurs dans son écosystème. Dernier exemple en date : l’iPad.

Il n’empêche que ces deux géants innovent en permanence et se détachent chaque jour un peu plus d’un Microsoft visiblement trop lourd pour suivre le rythme[1].

C’est ce que nous rappelle Glyn Moody dans ce très intéressant article qui vient piocher dans la toute fraîche actualité des arguments de son édifiante conclusion.

Il note au passage que contrairement à Microsoft, Google (beaucoup) et Apple (avec parcimonie) utilisent des technologies open source. Ceci participe aussi à expliquer cela.

Il s’est passé quelque chose, mais où est passé Microsoft ?

Something Happened: Where’s Microsoft?

Glyn Moody – 15 février 2010 – ComputerWorld.uk
(Traduction Framalang : Goofy)

Vous en avez probablement entendu parler, la semaine dernière il y a eu tout un pataquès à propos de Google Buzz et de ses conséquences sur le respect de la vie privée. Et voici ce que Google a répondu :

Nous avons bien reçu votre réaction, cinq sur cinq, et depuis que nous avons lancé Google Buzz il y a quatre jours, nous avons travaillé 24h sur 24 pour dissiper les inquiétudes que vous avez exprimées. Aujourd’hui, nous voulons vous informer que nous avons fait ces derniers jours une quantité de modifications en tenant compte des réactions que nous avons reçues.

D’abord, l’ajout automatique des contact suivis. Avec Google Buzz, nous avons voulu faire en sorte que les premiers pas soient aussi rapides et aisés que possible, et donc nous ne voulions pas que vous ayez à reconstruire manuellement votre réseau social depuis zéro. Cependant, beaucoup de gens voulaient juste essayer Google Buzz pour voir en quoi il pouvait leur être utile, et ils n’ont pas été contents de voir qu’ils avaient déjà une liste de contacts suivis. Ce qui a soulevé une énorme vague de protestations et incité les gens à penser que Buzz affichait automatiquement et de façon publique ceux qu’ils suivaient, avant même d’avoir créé un profil.

Jeudi dernier, nous avons entendu dire que les gens trouvaient que la case à cocher pour choisir de ne pas afficher publiquement telle ou telle information était difficile à trouver, nous avons aussitôt rendu cette option nettement plus repérable. Mais ce n’était évidemment pas suffisant. Donc, à partir de cette semaine, au lieu d’un modèle autosuiveur, avec lequel Buzz vous donne automatiquement à suivre des gens avec lesquels vous échangez le plus sur le chat ou par email, nous nous orientons vers un modèle autosuggestif. Vous ne serez pas voué à suivre quiconque avant d’avoir parcouru les suggestions et cliqué sur « Suivez les contacts sélectionnés et commencez à utiliser Buzz ».

Le plus intéressant dans cette histoire c’est que 1. Google aurait pu prévoir un problème aussi évident et crucial et 2. ils ont réagi non pas une mais deux fois en quelques jours à peine. C’est ce qui s’appelle vivre à l’heure d’Internet, et démontre à quel point les choses ont changé depuis le « bon vieux temps » – disons il y a quelques années – où les erreurs pouvaient mariner plusieurs mois dans un logiciel avant qu’on prenne la peine de s’en occuper.

Mais ce n’est pas le seul évènement qui s’est produit la semaine dernière. Relativement masquée par l’excitation autour de Buzz, voici une autre annonce de Google :

Nous avons le projet de réaliser un réseau à large bande ultra-rapide dans quelques localités tests aux États-Unis. Nous fournirons un accès à Internet par fibre optique à 1 gigabit par seconde, soit cent fois plus rapide que ce que connaissent aujourd’hui la plupart des Américains connectés. Nous avons l’intention de procurer ce service à un prix concurrentiel à au moins 50 000 personnes, et potentiellement jusqu’à 500 000.

Notre objectif est d’expérimenter de nouvelles façons d’aider chacun à accéder à un Internet plus rapide et meilleur. Voici en particulier ce que nous avons en tête :

Les applications du futur : nous voulons voir ce que les développeurs et les utilisateurs peuvent faire avec des vitesses ultra-rapides, que ce soit des applications révolutionnaires ou des services utilisant beaucoup de bande passante, ou d’autres usages que nous ne pouvons même pas encore imaginer.

Nouvelles techniques de déploiement : nous testerons de nouvelles façons de construire des réseaux de fibre optique, et pour aider à l’information et au support de déploiement partout ailleurs, nous partagerons avec le monde entier les leçons que nous en aurons tirées.

Le choix et l’ouverture : nous allons organiser un réseau en « accès ouvert », qui donnera aux usagers le choix parmi de multiples prestataires de services. Et en cohérence avec nos engagements passés, nous allons gérer notre réseau d’une façon ouverte, non-discriminatoire et transparente.

Google a démarré, souvenez-vous, comme un projet expérimental sur la recherche : en arriver à déployer chez un-demi million d’utilisateurs finaux des connexions par fibre optique à 1 gigabit, voilà qui en dit long sur le chemin parcouru par Google. Tout aussi impressionnante dans le même genre, l’irruption de Google dans monde des mobiles avec Android. Là encore, le lien avec le moteur de recherche n’est peut-être pas évident à première vue, mais tout cela revient à essayer de prédire le futur en l’inventant : Google veut s’assurer que quel que soit le chemin que prendra le développement d’Internet, il sera bien placé pour en bénéficier, que ce soit par la fibre à débit ultrarapide ou par des objets intelligents et communicants que l’on glisse dans sa poche.

Google n’est pas la seule entreprise qui se réinvente elle-même en permanence. C’est peut-être Apple qui en donne l’exemple le plus frappant, c’était pourtant loin d’être prévisible il y a quelques années. Mais au lieu de disparaître, l’entreprise Apple a colonisé la niche lucrative des produits informatiques sophistiqués, en particulier les portables, et a fini par remodeler non seulement elle-même mais aussi deux marchés tout entiers.

Le premier a été celui de la musique numérique, qui se développait bien mollement sous les attaques répétées d’une industrie du disque à courte vue, qui pensait pouvoir conserver le rôle qu’elle jouait dans le monde de l’analogique, celui d’intermédiaire obligé entre les artistes et leur public. En utilisant ses pouvoirs quasi hypnotiques, Steve Jobs s’est arrangé pour faire avaler à l’industrie du disque le lot iTunes + iPod, et la musique numérique a décollé comme jamais auparavant pour toucher l’ensemble de la population.

Tout aussi significative a été la décision de Jobs d’entrer dans le monde des téléphones portables. Le iPhone a redéfini ce que devait être un smartphone aujourd’hui, et a accéléré la convergence croissante entre l’ordinateur et le téléphone. Beaucoup pensent qu’avec son iPad Apple est sur le point de transformer la publication numérique aussi radicalement qu’il a déjà bouleversé la musique numérique.

Quoi que vous pensiez de ces récents évènements, une chose est parfaitement claire : pas un seul des événements les plus excitants du monde de l’informatique – Buzz, le réseau par fibre à 1 gigabit, le iPad, Android et tout le reste – n’est venu de chez Microsoft. La façon dont Google et Apple ont complètement masqué les nouveautés de Microsoft pendant des mois est sans précédent, et je pense, représente un tournant décisif.

Parce que nous assistons à la fin du règne de Microsoft en tant que roi de l’informatique – sans fracas, mais avec un petit gémissement. Bien sûr, Microsoft ne va pas disparaître – je m’attends vraiment à ce qu’il soit là encore pour des décennies, et qu’il distribue de jolis dividendes à ses actionnaires – mais Microsoft sera tout simplement dépourvu d’intérêt dans tous les domaines-clés.

Ils se sont plantés en beauté sur le marché de la recherche en ligne ; mais, d’une façon plus générale, je ne connais pas un seul service en ligne lancé par Microsoft qui ait eu un impact quelconque. Et ça n’est pas mieux côté mobile : bien que Windows Mobile ait encore des parts de marché pour des raisons historiques, je pense que personne, nulle part, ne se lève le matin en se disant « Aujourd’hui il faut que je m’achète un Windows Mobile », comme le font manifestement les gens qui ont envie d’un iPhone d’Apple ou d’un des derniers modèles sous Android comme Droid de Motorola ou Hero de HTC (même moi j’ai acheté ce dernier modèle il y a quelques mois).

Quant au marché de la musique numérique, le Zune de Microsoft est pratiquement devenu le nom générique de la confusion électronique, tant le système est mauvais et mal-aimé. Et même dans le secteur où la part de marché de Microsoft est davantage respectable – celui des consoles de jeu – le problème de l’infâmant « cercle rouge de la mort » menace là encore de ternir sa réputation.

Tout cela nous laisse l’informatique grand public comme dernier bastion de Microsoft. Malgré des tentatives constamment renouvelées de la part des experts (dont votre serviteur) pour proclamer « l’année des ordinateurs GNU/Linux », Windows donne peu de signes qu’il lâche prise sur ce segment. Mais ce qui est devenu de plus en plus flagrant, c’est que les tâches informatisées seront menées soit à travers le navigateur (porte d’accès à l’informatique dans les nuages) soit à travers les smartphones tels que que le iPhone ou les mobiles sous Android. Les uns comme les autres rendent indifférent le choix du système d’exploitation de l’ordinateur de bureau (d’autant que Firefox tend de plus en plus à faire jeu égal avec Internet Explorer sur beaucoup de marchés nationaux), donc savoir si l’on trouve Windows ou GNU/Linux à la base de tout ça est une question vraiment sans intérêt.

Mais vous n’êtes pas obligés de me croire. Dick Brass est bien mieux placé que moi pour en parler, il a été vice-président de Microsoft de 1997 à 2004. Voici ce qu’il a écrit récemment dans le New York Times :

Microsoft est devenu empoté et peu compétitif dans l’innovation. Ses produits sont décriés, souvent injustement mais quelquefois à juste titre. Son image ne s’est jamais remise du procès pour abus de position dominante des années 90. Sa stratégie marketing est inepte depuis des années ; vous vous souvenez de 2008 quand Bill Gates s’est laissé persuader qu’il devait littéralement se trémousser face à la caméra ?

Pendant qu’Apple continue à gagner des parts de marché sur de nombreux produits, Microsoft en perd sur le navigateur Web, le micro portable haut de gamme et les smartphones. Malgré les milliards investis, sa gamme de Xbox fait au mieux jeu égal avec ses concurrents du marché des consoles de jeu. Du côté des baladeurs musicaux, ils ont d’abord ignoré le marché puis échoué à s’y implanter, jusqu’à ce qu’Apple le verrouille.

Les énormes bénéfices de Microsoft – 6,7 milliards de dollars au trimestre dernier – viennent presque entièrement de Windows et de la suite Office qui ont été développés il y a des décennies (NdT : cf ce graphique révélateur). Comme General Motors avec ses camions et ses SUV, Microsoft ne peut pas compter sur ces vénérables produits pour se maintenir à flot éternellement. Le pire de tout ça d’ailleurs, c’est que Microsoft n’est plus considéré comme une entreprise attractive pour aller y travailler. Les meilleurs et les plus brillants la quittent régulièrement.

Que s’est-il passé ? À la différence d’autres entreprises, Microsoft n’a jamais développé un authentique processus d’innovation. Certains de mes anciens collègues prétendent même qu’elle a développé en fait un processus de frein à l’innovation. Bien qu’elle dispose des laboratoires les plus vastes et les meilleurs du monde, et qu’elle se paie le luxe d’avoir non pas un mais trois directeurs de recherches technologiques, l’entreprise s’arrange habituellement pour réduire à néant les efforts de ses concepteurs les plus visionnaires.

Il y a quelque chose de profondément ironique dans cet échec à innover, parce que Microsoft n’a pas cessé d’invoquer l’innovation comme argument principal pour n’être pas frappé par la loi anti-trust aux États-Unis comme en Europe, et pour justifier notre « besoin » de brevets logiciels. La déconfiture de cette argumentation est maintenant rendue cruellement flagrante par l’échec de l’entreprise à innover dans quelque secteur que ce soit.

Je dirais que le plus grand échec à ce titre a été de refuser de reconnaître que la manière la plus rapide et la plus facile d’innover c’est de commencer à partir du travail des autres en utilisant du code open source. Le succès de Google est presque entièrement dû à son développement de logiciels libres à tous les niveaux. Ce qui a permis à l’entreprise d’innover en plongeant dans l’immense océan du code librement disponible pour l’adapter à des applications spécifiques, que ce soit pour les gigantesques datacenters épaulant la recherche, ou pour la conception d’Android pour les mobiles – dans les deux cas à partir de Linux.

Même Apple, le champion du contrôle total du produit par l’entreprise, a reconnu qu’il était cohérent d’utiliser des éléments open source – par exemple, FreeBSD et WebKit – et s’en servir comme fondation pour innover frénétiquement au dernier étage. Refuser de le reconnaître aujourd’hui est aussi aberrant que refuser d’utiliser le protocole TCP/IP pour les réseaux.

Quelque chose s’est passé – pas juste cette semaine, ni la semaine dernière, ni même durant les derniers mois, mais au cours de ces dix dernières années. Le logiciel libre s’est développé au point de devenir une puissance considérable qui influe sur tout ce qui est excitant et innovateur en informatique ; et Microsoft, l’entreprise qui a reconnu le moins volontiers son ascendant, en a payé le prix ultime qui est son déclin.

Notes

[1] Crédit photo : Seanmcgrath (Creative Commons By)