CoursdeProfs.fr : une affligeante initiative aveuglément relayée par la grande presse

Silviadinatale - CC byLorsque j’ai découvert il y a peu CoursDeProfs.fr j’en suis resté bouche bée. Et j’ai encore du mal à croire qu’on ait pu oser un tel projet, l’un des pires qui ait été lancé dans l’éducation depuis des années. La seule et unique consolation c’est qu’il n’émane pas de l’institution mais du secteur privé.

De quoi s’agit-il exactement ? D’un site qui propose aux enseignants de déposer leurs cours et aux visiteurs de les consulter. « Venez échanger et partager votre savoir », peut-on lire en accueil. Le slogan est au diapason : « Partageons ! »

Sympa, non ? Jusqu’ici tout va bien. Et, sourire aux lèvres, on pense alors naïvement être en présence d’une sorte de forge communautaire de contenus éducatifs, interopérables et sous licences libres. Quelque chose qui ressemblerait à une Académie en ligne qui aurait gommé tous ses défauts, ou plus sûrement à un Sésamath étendu cette fois-ci à toutes les disciplines et à tous les niveaux.

Grossière erreur, car l’état d’esprit qui anime le projet se trouve précisément aux antipodes de ce modèle. Pour tous ceux qui comme nous participent à diffuser le logiciel libre et sa culture au sein de l’Éducation nationale, c’est plus qu’une déception, c’est une véritable provocation.

Prenez le meilleur de Sésamath et Wikipédia en essayant de faire exactement le contraire, et vous obtiendrez CoursDeProfs.fr !

Que ce site rencontre le succès, que les profs embarquent nombreux consciemment ou non dans cette supercherie[1], et je serais obligé de « faire mon Jospin 2002 », c’est-à-dire en prendre acte et quitter séance tenante aussi bien Framasoft que mon métier d’enseignant pour m’en aller cultiver des tomates bios en Ardèche.

Or l’hypothèse n’est pas à exclure quand on voit avec quelle coupable complaisance l’initiative est unanimement relayée et saluée par nos grands médias, illustrant par là-même leur désolante méconnaissance du sujet.

J’ai vainement cherché le moindre début de critique constructive non seulement sur ces mainstream médias mais également dans la blogosphère et je n’ai strictement rien trouvé. C’est ce qui m’a poussé à rédiger ce billet, histoire d’apporter un peu la contradiction (quitte aussi à prendre le risque de leur faire ainsi une injuste publicité).

Ceci étant dit, CoursDeProfs apporte une très mauvaise réponse à d’excellentes questions. Les enseignants souhaitent-ils se regrouper pour créer et échanger ensemble ? Les élèves et leurs parents souhaitent-ils avoir facilement et librement à disposition des ressources éducatives de qualité sur Internet ?

Des médias complices et ignorants

Je tire mon chapeau au service marketing de CoursdeProfs.fr. Non seulement ils ont eu une prestigieuse couverture médiatique mais en plus les articles sont dithyrambiques.

Jugez plutôt :

Le Nouvel Obs : Une plate-forme collaborative pour les profs

Le site CoursDeProfs.fr s’est ouvert officiellement ce lundi 15 mars, pour le plus grand bonheur des enseignants. Concrètement, le site propose aux profs de mettre en commun leurs cours et devoirs avec un seul mot d’ordre : « Partagez vos expériences et vos savoirs ».

Libération : Des cours Net et sans bavures

Vous êtes prof de maths et vous avez déjà fait faire vingt fois les mêmes exercices sur le tracé des triangles aux différentes classes que vous avez eues. Le problème, c’est que vous êtes à court d’idées… Ou alors prof débutant de physique-chimie, vous vous demandez comment organiser la séance de travaux pratiques sur l’utilisation de l’oscilloscope transparent, d’autant que votre classe de terminale S est plutôt dissipée. Rassurez-vous : le site CoursDeProfs.fr, lancé avant-hier, est censé vous aider. Il se présente comme la première plateforme d’échanges de cours entre professeurs. Le but : favoriser « le partage de savoirs et d’expériences » et faire ainsi mentir le cliché selon lequel chaque prof travaille dans son coin sans se soucier de ce que font les autres.

Le Parisien : Des cours gratuits en ligne

Une salle des profs virtuelle, géante et ouverte à tous : où les enseignants peuvent se retrouver et s’échanger leurs cours, où les parents peuvent aussi « débouler » pour retrouver la leçon de maths du fiston absent la semaine dernière, et les élèves venir vérifier qu’ils ont bien noté le cours, voire compléter la leçon… Ce lieu de rêve, c’est l’objectif de Coursdeprof.fr, qui a inauguré hier la première plate-forme communautaire du genre, qui puisse rassembler tous les profs de France autour de leur métier : leur permettre de transmettre leurs connaissances, la somme de tous les cours préparés dans la solitude de leurs bureaux, où ils échouent à nouveau après avoir été dispensés en classe.

L’Entreprise.com (L’Express) : Les profs parlent aux profs

C’est sans doute le premier réseau social fait par des enseignants pour des enseignants. A l’origine de CoursDeProfs.fr. quatre associés : Nicolas Duflos, ingénieur en informatique et télécommunications, inspirateur du projet ; Gabriel Tabart, prof d’EPS, Xavière Tallent, conseil en marketing et communication et Christophe Claudel fondateur de la SII Itelios[2].

Elle : Rattraper les cours manqués sur CoursDeProfs.fr

Un excellent complément pour les profs qui peuvent ainsi « confronter leurs idées et leurs façons de faire » (…) Preuve de son succès, à l’heure où nous écrivons, le site est surbooké et nous invite à nous reconnecter ultérieurement.

La Tribune : Le partage d’expérience fait son chemin chez les enseignants

Les concepteurs espèrent obtenir le label de ressource « reconnue d’intérêt pédagogique » (RIP). Ils déposeront un dossier en ce sens auprès du ministère de l’Education nationale avant l’été[3].

J’ai également noté un passage télé (France 2 – Télématin – 16 mars) et un passage radio (France Culture – Rue des écoles – 17 mars), deux fleurons de notre service… public !

Donc si je résume, « le partage d’expérience fait son chemin chez les enseignants » (La Tribune), un « grand bonheur » (Nouvel Obs), un « lieu de rêve » (Le Parisien) que CourdDeProfs.fr, ce « premier réseau social fait par des enseignants pour des enseignants » (L’Express), cette « première plate-forme d’échanges de cours entre professeurs » (Libération).

Or à y regarder de plus près, le rêve cache peut-être un cauchemar. Et désolé si ce qui va suivre est susceptible de venir un peu gâcher la fête.

Des cours aux multiples verrous artificiels

On sait comment cela se passe. La boîte balance son communiqué de presse et les rédactions choisissent ou non de s’en saisir. Mais lorsqu’elles s’en saisissent, on est en droit d’attendre d’elles un minimum d’investigation, de mise à distance et de contextualisation, en bref faire son boulot de journaliste et non du publireportage.

Et c’est d’autant plus coupable que lorsqu’une startup s’insère dans l’éducation « pour le bien de tous », la vigilance devrait être naturellement de mise (cf les beaux discours de Microsoft à l’école souvent évoqués sur ce blog).

Nos grands médias sont-ils vraiment allés sur CoursDeProfs.fr voir un peu comment cela se déroulait concrètement ? Permettez-moi d’en douter, parce que dans le détail, la plate-forme possède de nombreux et criants défauts.

CoursDeProfs - Copie d'écranAfin d’illustrer mon propos par l’exemple, j’ai choisi au hasard un document du site dans ma discipline, à savoir les mathématiques.

Nous sommes en Sixième pour un Cours sur les fractions (cf copie d’écran ci-contre).

Première remarque : ce cours est d’un classicisme absolu. Ouvrez n’importe quel manuel scolaire de ce niveau et ce sera identique mais plus riche et mieux mis en forme et en page. Ici, la valeur pédagogique ajoutée est pour ainsi dire nulle. Cela n’augure rien de bon quant au reste du contenu du site.

Mais regardons surtout comment se présente le document « mis en ligne » afin de mieux comprendre ce qu’on entend par echange, partage et collaboration chez CoursdeProfs.fr.

  • Le cours ne possède aucune licence. Par défaut il est donc placé sous le régime du droit d’auteur le plus classique et donc le plus restrictif, c’est-à-dire qu’il est propriété exclusive de son auteur et que vous ne pouvez rien faire avec tant que vous ne lui avez pas demandé l’autorisation. Les licences de type Creative Commons sont ignorées par les créateurs du site alors qu’elles ont justement été conçues pour favoriser le partage.
  • Le cours est dans une cage. Il est en effet totalement encapsulé au format propriétaire Flash. On peut certes le voir (en un unique endroit) mais pas le « toucher » puisque, conséquence directe du (mauvais) choix du format, on ne peut ni imprimer le document ni l’enregistrer. Quant à vouloir faire du copier/coller (comme l’autoriserait n’importe quelle page Web rédigée au format standard et ouvert HTML), ce n’est même pas la peine d’y penser.
  • Il y a un lien « Version gratuite » en haut à droite. Cliquez dessus et vous obtiendrez un fichier PDF du cours aux caractéristiques un peu particulières puisque entièrement zébré d’un horrible marqueur CoursDeProfs.fr qui recouvre tout le document (cf image ci-dessous) et toujours interdit au copier/coller (alors que tout fichier PDF non vérouillé permet normalement l’opération).
  • Il y a également un gros lien « Télécharger » en haut à droite. Cliquez dessus et l’on vous proposera de télécharger le cours aux formats suivants : PDF (enfin modifiable et permettant le copier/coller), DOC, DOCX, ODT et RTF. Sauf qu’il vous en coûtera 1,20 €, (45% pour l’auteur, le reste pour CoursDeProfs.fr). Comme il n’y a que les enseignants qui éprouvent ce besoin de pouvoir modifier et personnaliser le document, on se retrouve à devoir payer un collègue pour jouir pleinement de son cours ! De plus ceci ne vous donne alors qu’un « droit d’usage et de modification du document à des fins personnelles ». En aucun cas vous ne pouvez le copier, l’éditer et le donner à un tiers ou renvoyer la version modifiée sur le site (toujours à cause de l’absence de licence). Cela s’apparente au modèle fermé de l’iTunes d’Apple (DRM inclus). L’amélioration collective des documents est volontairement rendue impossible dans cet écosystème.

Pour rappel les créateurs du site affirment haut et fort dans tous les coins du site que leur projet n’est là que pour favoriser l’échange, le partage et la collaboration !

Mais de qui se moque-t-on ?

Si l’existence même de CoursDeProfs.fr est révélatrice d’une triste situation française, sa médiatisation béate l’est tout autant. Ce n’est pas ici que l’on trouvera des arguments pour nuancer la « crise de la presse ».

Libre comparaison

CoursDeProfs - Exemple de PDF tatouéOn ne le répètera jamais assez (surtout que les médias ne l’entendent visiblement toujours pas) : il n’est aujourd’hui pas responsable de développer du contenu collaboratif numérique à l’école sans s’inspirer du logiciel libre et prendre en compte sa culture et ses modes opératoires.

Qu’est-ce qu’un logiciel libre ? C’est un logiciel qui possède les quatre libertés fondamentales suivantes : la liberté d’exécuter le programme, la liberté d’étudier le fonctionnement du programme, la liberté de redistribuer des copies, et la liberté d’améliorer le programme et de publier les améliorations. Ce sont des libertés qui sont tournées vers les utilisateurs. La liberté d’étude et d’amélioration nécessite d’avoir accès au code source du programme, c’est-à-dire à son secret de fabrication.

Essayons de transposer cela à la situation en reprenant notre Cours sur les fractions et en l’imaginant donc sous licence libre (par exemple la Creative Commons By dont on a déjà dit le plus grand bien lorsqu’il s’agit d’éducation).

La liberté d’exécuter le programme c’est la liberté de pouvoir lire le cours n’importe où, n’importe quand et sur n’importe quel ordinateur (et non sur un seul site Web). La liberté d’étude correspond à l’accès sans la moindre entrave à la source du document (dans un format ouvert, par exemple ODT, et non sur un PDF bridé), la liberté de copie signifie que vous pouvez copier et distribuer le cours autant de fois que vous le souhaitez à qui vous voulez, enfin la liberté d’amélioration vous autorise à modifier le cours comme bon vous semble et là encore à copier et distribuer cette version modifiée autant de fois que vous le souhaitez à qui vous voulez.

Bien sûr, tout dépend de votre objectif, mais si il s’agit réellement de partager et transmettre du savoir (certains appellent cela l’éducation) alors c’est bien ce dernier modèle qui est le plus pertinent parce qu’il favorise par essence la circulation et la bonification du cours.

Cela figure d’ailleurs noir sur blanc dans la première des douze propositions formulées par l’AFUL (et ignorées par les médias) suite à la publication du rapport Fourgous : « Les logiciels et les ressources numériques acquises, développées ou produites avec participation de fonds publics doivent être placées sous licence libre et disponibles dans un format ouvert afin de permettre leur libre partage : les utiliser, étudier, modifier, redistribuer librement. ».

J’ajoute qu’un tel modèle est centré sur la ressource (qui a un ou plusieurs auteurs) et non sur les auteurs (qui a une ou plusieurs ressources).

On mesure alors l’écart abyssal qui nous sépare de CoursDeProfs.fr puisque, comme nous l’avons vu plus haut, ce dernier ne respecte aucune des quatre libertés.

Ce modèle théorique que nous appelons de nos vœux est-il massivement déployée à l’Éducation nationale ? Non, car nous sommes encore minoritaires. Non car les grands médias nous ignorent encore trop souvent. Mais on y travaille et le temps joue clairement en notre faveur.

Lorsque nous dénonçons les errances de l’Académie en ligne ou les délires juridiques de l’usage des « œuvres protégées » en classe, c’est parce que nous estimons nous en écarter. Lorsque nous mettons en avant des initiatives comme Weblettres ou Sésamath (dont le projet Kidimath s’adresse lui directement et réellement aux élèves soit dit en passant), c’est parce qu’il nous semble nous en approcher.

0/20

En plus d’ignorer superbement la culture libre, la contradiction fondamentale d’un projet comme CoursDeProfs.fr c’est que, ne provenant pas de l’institution mais d’une entreprise privée, il doit nécessairement penser dès le départ son modèle économique. Il y a eu une idée (plutôt bonne du reste), il y a eu dépenses pour la concrétiser et il faut qu’il y ait à plus ou moins court terme retour sur investissement.

Outre le fait que le site affiche déjà de la publicité (Google) et dispose d’un espace annonceurs, ce qui n’est jamais bon lorsque l’on s’adresse à un public scolaire, les créateurs du projet ont imaginé le système complexe et artificiel décrit ci-dessus pour pouvoir tirer quelques subsides de l’aventure.

Un système pervers où les enseignants sont invités à se vendre et s’acheter leurs cours, à faire circuler l’argent entre eux, tout en étant fortement taxés au passage par CoursDeProfs.fr.

C’est indéniable, les enseignant se sont précarisés ces dernières années et les débuts de carrière sont de plus en plus difficiles. Et nombreux sont désormais ceux qui se jettent dans la gueule d’Acadomia et consors pour arrondir les fins de mois. Mais de là à imaginer qu’ils vont se mettre à monnayer leurs cours aux collègues pour que ces derniers puissent les adapter à leurs besoins… Ils ne l’ont jamais fait en salle des profs (qui n’est pas une salle de marché), ils ne vont pas commencer maintenant !

Il faut bien que quelqu’un le dise : CoursDeProfs.fr devrait transformer son projet en, disons, un site de poker en ligne et oublier ses velléités éducatives. J’invite tous les collègues à ne surtout pas y aller. Ce n’est pas à une petite startup de porter sur ses épaules un tel projet qui doit naître et vivre à l’intérieur même du service public qu’est l’Éducation nationale.

Au fait, l’Ardèche, c’est un terreau fertile pour les tomates bios ?

Notes

[1] Crédit photo : Silviadinatale (Creative Commons By)

[2] 1 prof sur 4 parmi les créateurs suffit à leur faire dire que c’est « fait par des enseignants pour des enseignants » !

[3] On saura ainsi si ce label RIP vaut encore quelque chose.




La liberté contre les traces dans le nuage – Une interview d’Eben Moglen

SheevaPlugIl y a un peu plus d’une semaine Tristan Nitot évoquait sur son blog une « magnifique interview » du juriste Eben Moglen par le journaliste Glyn Moody (que nous connaissons bien sûr le Framablog, preuve en est qu’ils ont l’honneur de tags dédiés : Moglen et Moody).

C’est la traduction de l’intégralité de cette interview que nous vous proposons ci-dessous.

Pourquoi Nitot était-il si enthousiaste ? Parce qu’il est légitime de s’inquiéter chaque jour davantage du devenir de nos données personnelles captées par des Facebook et des Google. Mais la critique récurrente sans possibilités d’alternatives pousse au découragement.

Or, poursuit-il, cette interview propose « une ébauche de solution technique qui pourrait bien signer la fin du Minitel 2.0 ». Eben Moglen y explique « comment des petits ordinateurs comme le Sheevaplug (cf photo ci-contre) ou le Linutop 2 pourraient bien changer la donne en permettant la construction d’un réseau social distribué (ou a-centré) dont chacun pourrait contrôler un bout et surtout contrôler son niveau de participation ».

Et Tristan de conclure de manière cinglante : « l’identité en ligne, la liste de nos relations, les archives de nos messages échangés sont bien trop précieuses pour être confiées à quelconque organisation privée, quelle qu’elle soit ».

La décennie « Microsoft » qui s’achève nous aura vu essayer, avec plus ou moins de succès, d’empêcher le contrôle de nos ordinateurs personnels, en y substituant du logiciel propriétaire par du logiciel libre.

La décennie « Google » qui s’annonce risque fort d’être celle des tentatives pour empêcher le contrôle d’Internet, en ne laissant plus nos données personnelles sur des serveurs privés mais sur nos propres serveurs personnels.

Remarque : à propos d’Eben Moglen, nous vous rappelons l’existence d’une conférence que nous considérons parmi les plus importantes jamais présentées par la communauté du Libre.

Une interview d’Eben Moglen – La liberté contre les données dans le nuage

Interview: Eben Moglen – Freedom vs. The Cloud Log

Eben Moglen interviewé par Glyn Moody – 17 mars 2010 – The H
(Traduction Framalang : Goofy, Simon Descarpentries et Barbidule)

Le logiciel libre a gagné : presque tous les poids lourds du Web les plus en vue comme Google, Facebook et Twitter, fonctionnent grâce à lui. Mais celui-ci risque aussi de perdre la partie, car ces mêmes services représentent aujourd’hui une sérieuse menace pour notre liberté, en raison de l’énorme masse d’informations qu’ils détiennent sur nous, et de la surveillance approfondie que cela implique.

Eben Moglen est sûrement mieux placé que quiconque pour savoir quels sont les enjeux. Il a été le principal conseiller juridique de la Free Software Foundation pendant 13 ans, et il a contribué à plusieurs versions préparatoires de la licence GNU GPL. Tout en étant professeur de droit à l’école de droit de Columbia, il a été le directeur fondateur du Software Freedom Law Center (Centre Juridique du Logiciel Libre). Le voici aujourd’hui avec un projet ambitieux pour nous préserver des entreprises de services en ligne qui, bien que séduisantes, menacent nos libertés. Il a expliqué ce problème à Glyn Moody, et comment nous pouvons y remédier.

Glyn Moody : Quelle est donc cette menace à laquelle vous faites face ?

Eben Moglen : Nous sommes face à une sorte de dilemme social qui vient d’une dérive dans la conception de fond. Nous avions un Internet conçu autour de la notion de parité – des machines sans relation hiérarchique entre elles, et sans garanties quant à leur architectures internes et leur comportements, mises en communication par une série de règles qui permettaient à des réseaux hétérogènes d’être interconnectés sur le principe admis de l’égalité de tous.

Sur le Web, les problèmes de société engendrés par le modèle client-serveur viennent de ce que les serveurs conservent dans leur journaux de connexion (logs) les traces de toute activité humaine sur le Web, et que ces journaux peuvent être centralisés sur des serveurs sous contrôle hiérarchisé. Ces traces deviennent le pouvoir. À l’exception des moteurs de recherche, que personne ne sait encore décentraliser efficacement, quasiment aucun autre service ne repose vraiment sur un modèle hiérarchisé. Ils reposent en fait sur le Web – c’est-à-dire le modèle de pair-à-pair non hiérarchisé créé par Tim Berners-Lee, et qui est aujourd’hui la structure de données dominante dans notre monde.

Les services sont centralisés dans un but commercial. Le pouvoir des traces est monnayable, parce qu’elles fournissent un moyen de surveillance qui est intéressant autant pour le commerce que pour le contrôle social exercé par les gouvernements. Si bien que le Web, avec des services fournis suivant une architecture de base client-serveur, devient un outil de surveillance autant qu’un prestataire de services supplémentaires. Et la surveillance devient le service masqué, caché au cœur de tous les services gratuits.

Le nuage est le nom vernaculaire que nous donnons à une amélioration importante du Web côté serveur – le serveur, décentralisé. Au lieu d’être une petite boîte d’acier, c’est un périphérique digital qui peut être en train de fonctionner n’importe où. Ce qui signifie que dans tous les cas, les serveurs cessent d’être soumis à un contrôle légal significatif. Ils n’opèrent plus d’une manière politiquement orientée, car ils ne sont plus en métal, sujets aux orientations localisées des lois. Dans un monde de prestation de services virtuels, le serveur qui assure le service, et donc le journal qui provient du service de surveillance induit, peut être transporté sur n’importe quel domaine à n’importe quel moment, et débarrassé de toute obligation légale presque aussi librement.

C’est la pire des conséquences.

GM : Est-ce qu’un autre facteur déclenchant de ce phénomène n’a pas été la monétisation d’Internet, qui a transféré le pouvoir à une entreprise fournissant des services aux consommateurs ?

EM : C’est tout à fait exact. Le capitalisme a aussi son plan d’architecte, qu’il rechigne à abandonner. En fait, ce que le réseau impose surtout au capitalisme, c’est de l’obliger à reconsidérer son architecture par un processus social que nous baptisons bien maladroitement dés-intermédiation. Ce qui correspond vraiment à la description d’un réseau qui contraint le capitalisme à changer son mode de fonctionnement. Mais les résistances à ce mouvement sont nombreuses, et ce qui nous intéresse tous énormément, je suppose, quand nous voyons l’ascension de Google vers une position prééminente, c’est la façon dont Google se comporte ou non (les deux à la fois d’ailleurs) à la manière de Microsoft dans sa phase de croissance. Ce sont ces sortes de tentations qui s’imposent à vous lorsque vous croissez au point de devenir le plus grand organisme d’un écosystème.

GM : Pensez-vous que le logiciel libre a réagi un peu lentement face au problème que vous soulevez ?

EM : Oui, je crois que c’est vrai. Je pense que c’est difficile conceptuellement, et dans une large mesure cette difficulté vient de ce que nous vivons un changement de génération. À la suite d’une conférence que j’ai donnée récemment, une jeune femme s’est approchée et m’a dit : « j’ai 23 ans, et aucun de mes amis ne s’inquiète de la protection de sa vie privée ». Eh bien voilà un autre paramètre important, n’est-ce pas ? – parce que nous faisons des logiciels aujourd’hui en utilisant toute l’énergie et les neurones de gens qui ont grandi dans un monde qui a déjà été touché par tout cela. Richard et moi pouvons avoir l’air un peu vieux jeu.

GM : Et donc quelle est la solution que vous proposez ?

EM : Si nous avions une classification des services qui soit véritablement défendable intellectuellement, nous nous rendrions compte qu’un grand nombre d’entre eux qui sont aujourd’hui hautement centralisés, et qui représentent une part importante de la surveillance contenue dans la société vers laquelle nous nous dirigeons, sont en fait des services qui n’exigent pas une centralisation pour être technologiquement viables. En réalité ils proposent juste le Web dans un nouvel emballage.

Les applications de réseaux sociaux en sont l’exemple le plus flagrant. Elles s’appuient, dans leurs métaphores élémentaires de fonctionnement, sur une relation bilatérale appelée amitié, et sur ses conséquences multilatérales. Et elles sont complètement façonnées autour de structures du Web déjà existantes. Facebook c’est un hébergement Web gratuit avec des gadgets en php et des APIs, et un espionnage permanent – pas vraiment une offre imbattable.

Voici donc ce que je propose : si nous pouvions désagréger les journaux de connexion, tout en procurant aux gens les mêmes fonctionnalités, nous atteindrions une situation Pareto-supérieure. Tout le monde – sauf M. Zuckerberg peut-être – s’en porterait mieux, et personne n’en serait victime. Et nous pouvons le faire en utilisant ce qui existe déjà.

Le meilleur matériel est la SheevaPlug, un serveur ultra-léger, à base de processeur ARM (basse consommation), à brancher sur une prise murale. Un appareil qui peut être vendu à tous, une fois pour toutes et pour un prix modique ; les gens le ramènent à la maison, le branchent sur une prise électrique, puis sur une prise réseau, et c’est parti. Il s’installe, se configure via votre navigateur Web, ou n’importe quelle machine disponible au logis, et puis il va chercher toutes les données de vos réseaux sociaux en ligne, et peut fermer vos comptes. Il fait de lui-même une sauvegarde chiffrée vers les prises de vos amis, si bien que chacun est sécurisé de façon optimale, disposant d’une version protégée de ses données chez ses amis.

Et il se met à faire toutes les opérations que nous estimons nécessaires avec une application de réseau social. Il lit les flux, il s’occupe du mur sur lequel écrivent vos amis – il rend toutes les fonctionnalités compatibles avec ce dont vous avez l’habitude.

Mais le journal de connexion est chez vous, et dans la société à laquelle j’appartiens au moins, nous avons encore quelques vestiges de règles qui encadrent l’accès au domicile privé : si des gens veulent accéder au journal de connexion ils doivent avoir une commission rogatoire. En fait, dans chaque société, le domicile privé de quelqu’un est presque aussi sacré qu’il peut l’être.

Et donc, ce que je propose basiquement, c’est que nous construisions un environnement de réseau social reposant sur les logiciels libres dont nous disposons, qui sont d’ailleurs déjà les logiciels utilisés dans la partie serveur des réseaux sociaux; et que nous nous équipions d’un appareil qui inclura une distribution libre dont chacun pourra faire tout ce qu’il veut, et du matériel bon marché qui conquerra le monde entier que nous l’utilisions pour ça ou non, parce qu’il a un aspect et des fonctions tout à fait séduisantes pour son prix.

Nous prenons ces deux éléments, nous les associons, et nous offrons aussi un certain nombre d’autres choses qui sont bonnes pour le monde entier. Par exemple, pouvoir relier automatiquement chaque petit réseau personnel par VPN depuis mon portable où que je sois, ce qui me procurera des proxies chiffrés avec lesquels mes recherches sur le Web ne pourront pas être espionnées. Cela signifie que nous aurons des masses d’ordinateurs disponibles pour ceux qui vivent en Chine ou dans d’autres endroits du monde qui subissent de mauvaises pratiques. Ainsi nous pourrons augmenter massivement l’accès à la navigation libre pour tous les autres dans le monde. Si nous voulons offrir aux gens la possibilité de profiter d’une navigation anonymisée par un routage en oignon, c’est avec ce dispositif que nous le ferons, de telle sorte qu’il y ait une possibilité crédible d’avoir de bonnes performances dans le domaine.

Bien entendu, nous fournirons également aux gens un service de courriels chiffrés – permettant de ne pas mettre leur courrier sur une machine de Google, mais dans leur propre maison, où il sera chiffré, sauvegardé chez tous les amis et ainsi de suite. D’ailleurs à très long terme nous pourrons commencer à ramener les courriels vers une situation où, sans être un moyen de communication privée, ils cesseront d’être des cartes postales quotidiennes aux services secrets.

Nous voudrions donc aussi frapper un grand coup pour faire avancer de façon significative les libertés fondamentales numériques, ce qui ne se fera pas sans un minimum de technicité.

GM : Comment allez-vous organiser et financer un tel projet, et qui va s’en occuper ?

EM : Avons-nous besoin d’argent ? Bien sûr, mais de petites sommes. Avons-nous besoin d’organisation ? Bien sûr, mais il est possible de s’auto-organiser. Vais-je aborder ce sujet au DEF CON cet été, à l’Université de Columbia ? Oui. Est-ce que M. Shuttleworth pourrait le faire s’il le voulait ? Oui encore. Ça ne va pas se faire d’un coup de baguette magique, ça se fera de la manière habituelle : quelqu’un va commencer à triturer une Debian ou une Ubuntu ou une autre distribution, et va écrire du code pour configurer tout ça, y mettre un peu de colle et deux doigts de Python pour que ça tienne ensemble. D’un point de vue quasi capitaliste, je ne pense pas que ce soit un produit invendable. En fait, c’est un produit phare, et nous devrions en tout et pour tout y consacrer juste un peu de temps pour la bonne cause jusqu’à ce que soit au point.

GM : Comment allez-vous surmonter les problèmes de masse critique qui font qu’on a du mal à convaincre les gens d’adopter un nouveau service ?

EM : C’est pour cela que la volonté constante de fournir des services de réseaux sociaux interopérables est fondamentale.

Pour le moment, j’ai l’impression que pendant que nous avancerons sur ce projet, il restera obscur un bon moment. Les gens découvriront ensuite qu’on leur propose la portabilité de leur réseau social. Les entreprises qui gèrent les réseaux sociaux laissent en friche les possibilités de leurs propres réseaux parce que tout le monde veut passer devant M. Zuckerberg avant qu’il fasse son introduction en bourse. Et c’est ainsi qu’ils nous rendront service, parce qu’ils rendront de plus en plus facile de réaliser ce que notre boîte devra faire, c’est-à-dire se connecter pour vous, rapatrier toutes vos données personnelles, conserver votre réseau d’amis, et offrir tout ce que les services existants devraient faire.

C’est comme cela en partie que nous inciterons les gens à l’utiliser et que nous approcherons la masse critique. D’abord, c’est cool. Ensuite, il y a des gens qui ne veulent pas qu’on espionne leur vie privée. Et puis il y a ceux qui veulent faire quelque chose à propos de la grande e-muraille de Chine, et qui ne savent pas comment faire. En d’autres termes, je pense qu’il trouvera sa place dans un marché de niches, comme beaucoup d’autres produits.

GM : Alors que le marché des mobiles est en train de décoller dans les pays émergents, est-ce qu’il ne vaudrait pas mieux demander aux téléphones portables de fournir ces services ?

EM : Sur le long terme, il existe deux endroits où vous pouvez raisonnablement penser stocker votre identité numérique : l’un est l’endroit où vous vivez, l’autre est dans votre poche. Et un service qui ne serait pas disponible pour ces deux endroits à la fois n’est probablement pas un dispositif adapté.

A la question « pourquoi ne pas mettre notre serveur d’identité sur notre téléphone mobile ? », ce que je voudrais répondre c’est que nos mobiles sont très vulnérables. Dans la plupart des pays du monde, vous interpellez un type dans la rue, vous le mettez en état d’arrestation pour un motif quelconque, vous le conduisez au poste, vous copiez les données de son téléphone portable, vous lui rendez l’appareil, et vous l’avez eu.

Quand nous aurons pleinement domestiqué cette technologie pour appareils nomades, alors nous pourrons commencer à faire l’inverse de ce que font les opérateurs de réseaux. Leur activité sur la planète consiste à dévorer de d’Internet, et à excréter du réseau propriétaire. Ils devront faire l’inverse si la technologie de la téléphonie devient libre. Nous pourrons dévorer les réseaux propriétaires et essaimer l’Internet public. Et si nous y parvenons, la lutte d’influence va devenir bien plus intéressante.




Dell doit cesser de proposer à reculons son offre GNU/Linux Ubuntu

Dell - UbuntuIl y a plus de trois ans déjà le célèbre constructeur d’ordinateurs Dell avait ouvert le site IdeaStorm qui invitait les internautes à soumettre des idées à la société.

Et quelle est la demande qui arriva loin devant ?

Je vous le donne en mille : pouvoir également acheter des machines avec GNU/Linux pré-installé dedans.

Dell, qui se veut à l’écoute de ses clients, a bien été obligé de s’exécuter et s’est donc mis à vendre en ligne des ordinateurs avec la distribution Ubuntu dedans.

Nous nous en étions fait l’écho dans ses deux articles : De la difficulté du Linux inside chez Dell et ailleurs par Mark Shuttleworth d’Ubuntu et Dell + GNU/Linux Ubuntu : Un mariage assumé et médiatisé qui m’émeut.

Le problème c’est que Dell n’a jamais véritablement assumé ce choix en enfouissant l’offre dans les tréfonds de son site et ne la proposant que sur un nombre restreints et peu puissants de modèles. C’est ce que vient nous rappeler ce blogueur américain ci-dessous qui demande à Dell de cesser l’hypocrisie.

Espérons que la prochaine imminente sortie de la version 10.4 Lucid Lynx LTS d’Ubuntu sera l’occasion d’être entendu. Parce que si l’on se restreint à la rubrique actuelle Ubuntu du site francophone de Dell, c’est vrai que c’est plus que décevant.

On est d’abord accueilli par un bandeau au slogan étrange : « Ubuntu, restez le meilleur ! ». Je n’avais déjà pas envie d’être le meilleur en utilisant des logiciels libres alors je ne vois pourquoi je voudrais le rester ! (en fait, je crois surtout qu’il s’agit d’une horrible traduction de « Ubuntu, keeps getting better! »)

Et puis tout de suite cette première phrase très anxiogène : « Ubuntu est-il fait pour vous ? ». S’ensuit alors une explication assez peu convaincante ma foi avec ce lien Windows ou Ubuntu ? où il est conseillé noir sur blanc de « choisir Windows si vous êtes novice dans le domaine informatique ».

Vous me direz que Dell ne fait sans doute que répondre à la perplexité de ses clients (qui pourraient effectivement se tromper). Vous me direz peut-être également qu’il ne faut pas faire la fine bouche et que personne n’oblige Dell à s’intéresser à GNU/Linux sachant que d’autres constructeurs continuent de l’ignorer royalement. Vous me direz enfin qu’il existe certainement des accord commerciaux confidentiels entre Dell et Microsoft qui nous échappent. Certes mais je reste tout de même d’accord avec notre blogueur : soit on décide de proposer enfin une réelle offre GNU/Linux, soit on laisse tomber.

Parce qu’en l’état actuel des choses, on en vient même à se demander si cette opération ne fait pas plus de tort que de bien à GNU/Linux, Ubuntu et Dell réunis.

Lettre ouverte à Dell concernant Ubuntu, ou « faites-le en grand ou bien lâchez l’affaire »

An open letter to Dell regarding Ubuntu, or “go big or go home”

Trent – 2 mars 2010 – The Linux Critic
(Traduction Framalang : Simon Descarpentries, Étienne et Mathieu Adoutte)

Cher Dell,

Jusqu’à présent vous n’avez offert qu’une poignée dérisoire d’options Ubuntu, et je confesse que je ne comprends pas bien pourquoi vous vous êtes donné cette peine.

À l’exception des deux ultra-portables qui vous proposez, je n’ai pas encore vu quoi que ce soit d’autre qui puisse indiquer que vous ayez l’intention de faire d’Ubuntu une véritable option pour vos clients.

Oh je sais… pendant un temps vous proposiez Ubuntu sur vos portables Inspirons 15n, et même sur vos XPS M1330 pendant un courte période, sur votre site web.

Mais ils étaient tous deux très limités en terme d’options de configuration matérielle (CPU, RAM). De même, le poste de travail que vous proposiez pendant un temps était un veau impotent comparé à ce qui est disponible ailleurs sur Dell.com

Et maintenant ? Eh bien maintenant il n’y a presque plus rien à commenter concernant Ubuntu sur Dell.com.

Pour citer ce que je vois sur votre page Ubuntu : « Une sélection de modèles peut désormais être livrée avec Ubuntu 9.10 ».

Par « Une sélection » vous entendez la liste suivante, basée sur ce qui est trouvable sur le site :

  • Nos deux ultra-portables cités précédemment ;
  • Le Vostro V13, un impuissant demi-portable qui, franchement, est une blague ;
  • Le Latitude 2100, qui est également un ultra-portable.

C’est tout ? Vraiment ?

« Mais il n’y a pas tant de demande que ça pour Ubuntu », vous entends-je presque répliquer.

Voyons cela. Vous enterrez ça sur votre site. Vous ne proposez que des épaves disponibles sous Ubuntu (comparé aux machines disponibles sous Windows).

Pas étonnant que vos ventes de machines sous Ubuntu soient faibles. En fait, je serais même surpris que vous vendiez quoi que ce soit vu comment vous vous y prenez.

Voici ce que je vous conseille. Cela risque de paraître un peu élitiste, mais j’ai acheté des ordinateurs récemment et ça m’a mis d’humeur taquine.

Comme je vois les choses, vous avez deux options :

1. Lâchez l’affaire

Sérieusement. Vous n’impressionnez personne avec ces offres Linux minables. Ceux qui s’intéressent suffisamment à Linux pour chercher (et trouver) les produits Ubuntu enterrés dans votre site se sentent insultés par ce qu’ils y trouvent, et vont simplement voir ailleurs, là où on ne leur proposera pas avec force langue de bois des ordures que la plupart des utilisateurs de Windows ne s’embêteraient pas à regarder de plus près (du point de vue du matériel).

2. Proposez Ubuntu sur des ordinateurs comparables à vos machines sous Windows 7

Faites-le en grand, ou bien lâchez l’affaire les gars. Votre micro-marketing pour une niche d’utilisateurs bernés niveau matériel est un échec, mais si vous joignez vraiment le geste à la parole, vous gagnerez les coeurs et les esprits, et vous éviterez la plupart des critiques venant de la communauté Open Source, pour ce que ça vaut.

De plus, en l’absence de la Taxe Windows, un ordinateur sous Ubuntu devrait permettre aux acheteurs de constater qu’un ordinateur, à matériel égal, vendu sans Windows, coûte quelque centaines d’euro MOINS cher, ce qui signifie qu’ils seront plus enclin à acheter des accessoires parmi ceux sur lesquels vous insistez lourdement, sur votre site.

Sérieusement, ce qu’il y a jusqu’ici sur votre site est tout simplement insultant. Abandonnez Ubuntu complètement ou bien passez aux choses sérieuses.

Désolés les gars, mais quelqu’un se devait de vous le dire. Vous ne vous rendez pas service, ici.

En vous remerciant,

Trent




Geektionnerd : Copyleft

Le copyleft, c’est l’obligation de rester libre 😉

Geektionnerd - Simon Gee Giraudot - CC by-sa

Geektionnerd - Simon Gee Giraudot - CC by-sa

Crédit : Simon Gee Giraudot (Creative Commons By-Sa)




À propos de la formation aux logiciels libres, par Jean-Pierre Archambault

Extra Ketchup - CC by-sa« Le libre est à la fois une réponse concrète à des problèmes concrets et un outil de réflexion pour penser les problématiques générales de l’immatériel et la connaissance », nous dit ici Jean-Pierre Archambault, qui n’en est pas à son premier article sur le Framablog.

C’est pourquoi la question de la formation aux logiciels libres est l’un des enjeux majeurs de l’éducation de demain[1].

Il s’agit bien entendu d’être capable de les utiliser. Mais bien au-delà il s’agit aussi et surtout de comprendre qu’ils s’inscrivent dans une culture. Une culture de la collaboration, de la création, de l’autonomie et du partage qui ne doit plus être absent du cursus scolaire de nos étudiants.

À propos de la formation aux logiciels libres

La question est souvent posée de savoir s’il y a une spécificité de la formation aux logiciels libres. La licence d’un programme n’est pas forcément choisie lors de son écriture. Un traitement de texte reste un traitement de texte. Et une procédure récursive n’est pas intrinsèquement copyleft ou copyright. Nous allons examiner la question du point de vue des logiciels, de la culture informatique, des méthodes organisationnelles de réalisation des logiciels libres, de la portée sociétale du libre et des besoins pédagogiques des enseignants.

Former aux outils logiciels

Qu’il faille former à Linux comme on forme à Unix, Mac OS X ou Vista va de soi. Idem pour OpenOffice, FireFox ou The Gimp. Ce sont des systèmes et des applications qu’il faut connaître pour s’en servir « intelligemment ». Mais un système d’exploitation, un traitement de texte ou un tableur sont des outils conceptuels compliqués et complexes de par les objets qu’ils traitent et la multitude de leurs fonctionnalités. Il faut veiller à ne pas entrer dans le tunnel sans fin de la formation à la version n d’un progiciel, puis n+1, d’un usager « presse-boutons ». On connaît ce genre de pratiques pour des produits propriétaires dont les versions défilent à grande vitesse, enrichies de fonctionnalités dont l’utilisateur lambda n’a pas nécessairement besoin. Mais qui peuvent présenter des avantages financiers et des rentes de situation pour des officines de formation. Il faut donc pouvoir s’appuyer sur une appropriation initiale des concepts généraux des traitements de texte, tableurs et gestionnaires de bases de données.

L’informatique, le numérique étant partout dans la société, la question posée est celle de la culture générale de l’homme, du travailleur et du citoyen du 21è siècle. Il s’agit là des trois missions fondamentales des systèmes éducatifs. Le libre, c’est le code source que l’on connaît. Et pas la « boîte noire » miraculeuse qui fait tout pour vous : curieuse d’ailleurs cette représentation mentale qu’ont certains de la prothèse du cerveau qu’est l’ordinateur, que l’on pourrait utiliser sans la connaître ni la comprendre. De ce point de vue, le libre s’inscrit pleinement dans la vision qui considère que les usagers de l’informatique doivent comprendre et maîtriser les outils conceptuels qu’ils utilisent. Les créateurs d’informatique aussi, bien évidemment.

Maurice Nivat nous invite opportunément à relire André Leroy Gourhan qui nous a appris que l’outil n’est rien sans le geste qui l’accompagne et l’idée que se fait l’utilisateur de l’outil de l’objet à façonner[2]. Et d’ajouter : « Ce qui était vrai de nos lointains ancêtres du Neanderthal, quand ils fabriquaient des lames de rasoir en taillant des silex est toujours vrai : l’apprentissage de l’outil ne peut se faire sans apprentissage du geste qui va avec ni sans compréhension du mode de fonctionnement de l’outil, de son action sur la matière travaillée, ni sans formation d’une idée précise de la puissance de l’outil et de ses limites ».

Enseigner l’informatique pour donner une culture générale

Il faut donc former à l’outil. Il faut donner une culture générale informatique à l’ « honnête homme » de notre époque. Or, si une option d’informatique générale a existé au lycée dans les années quatre-vingt, elle a été supprimée au début des années quatre-vingt-dix. La ligne pédagogique selon laquelle les apprentissages doivent se faire à travers les usages de l’outil informatique dans les différentes disciplines existantes, et cela suffit, l’avait emporté, pour des raisons diverses (elle prendra la forme du Brevet informatique et internet, le B2i). Une longue « traversée du désert » commençait. Pour autant, des voix se faisaient entendre. Elles disaient que l’informatique étant partout (dans les autres disciplines scolaires), elle devait être quelque part en particulier, à un moment donné, sous la forme d’une discipline scolaire en tant que telle car la seule utilisation d’un outil, matériel ou conceptuel, ne suffit pas pour le maîtriser.

Gérard Berry, qui avait intitulé sa leçon inaugurale au Collège de France « Pourquoi et comment le monde devient numérique »[3], déclarait dans une interview au journal Le Monde, le 15 avril 2009 : « Du point de vue de l’enseignement de l’informatique, la France rentre résolument dans le XXe siècle. »[4]. Il regrettait que l’« on confonde la notion de computer literacy avec celle de computer sciences ». Et il ajoutait : « Dans les établissements scolaires, on a fait le choix d’enseigner les usages. C’est très insuffisant. C’est la différence entre apprendre à conduire et comprendre comment marche une voiture. Les jeunes quittent le lycée sans connaissance de la science informatique. C’est une aberration ! » .

L’association EPI (Enseignement Public et Informatique) et le groupe ITIC de l’ASTI ont pris ces dernières années de nombreuses initiatives en faveur d’un enseignement de l’informatique au lycée sous la forme d’une discipline d’enseignement général : audiences auprès des autorités de la République, tables rondes, séminaires, textes divers, propositions de programmes scolaires pour le lycée…[5]. Un tel enseignement doit comporter des apprentissages corrrespondant aux grands domaines de la science informatique, à savoir l’algorithmique et la programmation, la théorie de l’information, les machines et leurs architectures, les réseaux, Internet, les bases de données.

Dans le cadre de la réforme du lycée, un enseignement de spécialité optionnel « Informatique et sciences du numérique » a été créé en Terminale S pour la rentrée 2012. Dans son discours devant le Conseil supérieur de l’Éducation, le 10 décembre 2009, s’exprimant sur cette réforme du lycée, Luc Chatel a notamment déclaré : « A l’heure de la société de l’information et de la connaissance, la France a besoin plus que jamais de compétences scientifiques en informatique. Aujourd’hui l’informatique représente 30 % de la recherche et développement dans le monde. Aujourd’hui l’informatique est partout. Nous ne pouvons pas manquer ce rendez-vous majeur et c’est la raison pour laquelle nous proposons en série S une spécialisation « informatique et sciences du numérique » »[6].

Tous ceux qui se sont prononcés en faveur d’une telle mesure se félicitent. Parmi ceux-ci, et ce n’est pas un hasard, figure l’APRIL (« Promouvoir et défendre le logiciel libre »). Dans un communiqué de presse, le 5 janvier 2010, l’association, rappelant qu’«elle a toujours été favorable à ce que l’informatique soit une composante à part entière de la culture générale scolaire de tous les élèves sous la forme notamment d’un enseignement d’une discipline scientifique et technique », souligne « cette première et importante avancée signe d’une certaine rupture »[7]. Elle mentionne que « l’expérience de ces dernières années a clairement montré que le B2i ne fonctionnait pas. Son échec prévisible tient notamment à des problèmes insolubles d’organisation, de coordination et de cohérence des contributions supposées et spontanées des disciplines enseignées. De plus ne sont pas explicitées les connaissances scientifiques et techniques correspondant aux compétences visées. »

Le rapport de la mission parlementaire de Jean-Michel Fourgous, député des Yvelines, sur la modernisation de l’école par le numérique, « Réussir l’école numérique », remis au Ministre de l’Éducation nationale Luc Chatel le 15 février dernier, va dans le même sens[8]. Il met en évidence la portée de cet enseignement de l’informatique : « En créant une matière Informatique et sciences du numérique en terminale, le gouvernement français ouvre enfin la voie de l’apprentissage du numérique et redonne à l’école son rôle d’éducateur. » Et rappelle qu’en définitive le B2i ne correspond pas aux enjeux car « il ne permet pas d’acquérir une culture informatique, permettant de comprendre les techniques sous-tendant le fonctionnement des divers outils numériques… ne prenant pas en compte les connaissances techniques de base nécessaires ».

Le libre, une science

Si le libre est une composante à part entière de l’informatique, il n’en comporte pas moins des spécificités, qui doivent donner lieu à des enseignements dédiés, notamment dans le Supérieur. Il existe une « science du logiciel libre ». Voir l’article de Roberto Di Cosmo auquel nous nous référons ci-après[9].

Si les collaborations avec des partenaires dispersés géographiquement ne datent pas d’aujourd’hui, avec Internet la situation a radicalement changé. La question est posée de savoir sur quels principes scientifiques se fondent des projets comme Wikipédia ou Linux, exemples extrêmes de travail massivement collaboratif. Et de savoir comment en améliorer la stabilité et la fiabilité. Dans le développement du noyau Linux, chaque erreur, ou chaque fonction manquante ou obsolète, peut entraîner des dysfonctionnements majeurs rendant l’ensemble inutilisable. Malgré tout, le « phénomène Linux » a abouti à des versions de plus en plus complètes, fonctionnelles et stables. En fait, le succès des logiciels libres de qualité reposent sur des approches méthodologiques très structurées. L’organisation modulaire du code source, la sélection sévère des contributions et l’existence d’un noyau central de développeurs s’assurant de la cohérence de l’ensemble jouent un rôle essentiel dans la réussite de Linux. Mais la taille atteinte par Linux est telle que l’on est aux limites de ce qui peut être maîtrisé en s’appuyant sur les capacités organisationnelles des communautés. Les logiciels libres sont donc devenus un champ d’étude à part entière pour les informaticiens. Il faut résoudre des questions scientifiques (par exemple, comment gérer rapidement la modification d’un appel de fonction résultant de l’ajout, du changement ou de la suppression d’un paramètre ?). Le projet Coccinelle a fourni une contribution majeure en introduisant la notion de « patch sémantique ». Le projet Mancoosi vise à développer des algorithmes efficaces pour permettre aux utilisateurs d’exprimer leurs préférences lors de mises à jour et d’obtenir des installations personnalisées.

Toutes ces actions de recherche se traduiront dans des enseignements universitaires, pour le libre mais aussi l’informatique en général.

Penser l’immatériel

Dans leur rapport sur l’économie de l’immatériel, Maurice Lévy et Jean-Pierre Jouyet attirent l’attention sur le fait que, dans cette économie, « l’incapacité à maîtriser les TIC constituera (…) une nouvelle forme d’illettrisme, aussi dommageable que le fait de ne pas savoir lire et écrire ». Ils mettent en évidence les obstacles qui freinent l’adaptation de notre pays à l’économie de l’immatériel, notamment « notre manière de penser », invitant à changer un certain nombre de « nos réflexes collectifs fondés sur une économie essentiellement industrielle »[10]. Il faut former à l’informatique.

John Sulston, prix Nobel de médecine, évoquant en décembre 2002 dans les colonnes du Monde Diplomatique les risques de privatisation du génome humain, disait que « les données de base doivent être accessibles à tous, pour que chacun puisse les interpréter, les modifier et les transmettre, à l’instar du modèle de l’open source pour les logiciels ». Il existe une transférabilité de l’approche du libre à la réalisation et la mise à disposition des biens informationnels en général. On a pu le constater à l’occasion des vifs débats qui ont accompagné la transposition par le Parlement en 2006 de la directive européenne sur les Droits d’auteur et les droits voisins dans la société de l’information (DADVSI), ou plus récemment avec la loi Hadopi. Le libre, ses approches et ses méthodes, ses façons efficaces de produire des biens de connaissance qui relèvent du paradigme de la recherche scientifique, ses modèles économiques et ses réponses en termes de propriété intellectuelle, est omniprésent dans les problématiques de l’immatériel. Il faut former à l’informatique libre. Les élèves et les étudiants, travailleurs et citoyens d’aujourd’hui ou de demain, doivent en avoir entendu parler lors de leur scolarité et de leurs études. Le libre est à la fois une réponse concrète à des problèmes concrets et un outil de réflexion pour penser les problématiques générales de l’immatériel et la connaissance.


Production collaborative de ressources pédagogiques

La création de logiciels libres est un travail collaboratif : cette manière de créer du savoir à plusieurs est particulièrement importante si nous voulons préparer les plus jeunes à entrer dans une société du savoir partagé. Certains d’entre eux seront enseignants. Les enseignants ont besoin de documents, de contenus pédagogiques. Pour se former et pour enseigner. Et ils sont bien placés pour les concevoir et les produire eux-mêmes. L’on sait la transférabilité de l’approche du logiciel libre à la réalisation des contenus pédagogiques. Tout le monde, ou presque, connaît les réalisations remarquables de l’association Sésamath[11], « vaisseau-amiral » de la production collaborative de ressources pédagogiques libres, qui a obtenu un prix spécial de l’UNESCO.

Et il faut attacher une licence à un contenu produit. Les Creative Commons sont de mieux en mieux connues mais il reste du chemin à parcourir. Il faut faire connaître leurs modalités juridiques au service de l’objectif général, clairement exprimé, de favoriser la diffusion et l’accès pour tous aux oeuvres de l’esprit, en conciliant les droits légitimes des auteurs et des usagers. Creative Commons renverse le principe de l’autorisation obligatoire. Il permet à l’auteur d’autoriser par avance, et non au coup par coup, certains usages et d’en informer le public. Il est autorisé d’autoriser. C’est incontournable à l’heure d’Internet et du numérique car, sinon, toute vie intellectuelle serait impossible si l’on ne pouvait parler librement des oeuvres et s’il fallait, pour la moindre citation, demander l’autorisation à l’auteur ou à ses héritiers.

Que de nombreux autres enseignants, à la manière de Sésamath, fabriquent des contenus libres dans des démarches de mutualisation et de coopération est une raison supplémentaire de former au libre.

Jean-Pierre Archambault
CNDP-CRDP de Paris, coordonnateur du pôle de compétences logiciels libres du SCEREN

Notes

[1] Extra Ketchup (Creative Commons By-Sa)

[2] « L’informatique, science de l’outil », Maurice Nivat (à paraître dans EpiNet 124) http://www.epi.asso.fr/

[3] Leçon inaugurale le 17 janvier 2008, Cours Séminaires du Collège de France, par Gérard Berry titulaire de la chaire d’innovation technologique Liliane Bettencourt http://www.college-de-france.fr/default/EN/all/inn_tec2007/

[4] « Gérard Berry : L’informatique est une science », de Christian Bonrepaux dans le Cahier Éducation du Monde daté du 16 avril 2009. http://www.lemonde.fr/societe/article/2009/04/15/gerard-berry-l-informatique-est-une-science_1181041_3224.html

[5] $http://www.epi.asso.fr/blocnote/blocsom.htm#itic On pourra aussi se référer, pour les élèves à partir de l’école primaire, à la version francaise de « Computer Science Unplugged » : http://interstices.info/jcms/c_47072/enseigner-et-apprendre-les-sciences-informatiques-a-l-ecole

[6] http://www.education.gouv.fr/cid49972/reforme-du-lycee-discours-devant-le-conseil-superieur-de-l-education.html

[7] http://www.epi.asso.fr/revue/docu/d1001a.htm

[8] http://www.reussirlecolenumerique.fr/

[9] « La science du logiciel libre », Roberto Di Cosmo, La Recherche n°436, décembre 2009 – Professeur à l’Université Paris 7, Roberto Di Cosmo « porte » le projet de centre de recherche sur le logiciel libre de l’INRIA.

[10] Rapport remis à Thierry Breton en décembre 2006.

[11] http://www.sesamath.net




Geektionnerd : Définition(s) du Logiciel Libre

MSN n’est pas bien entendu pas libre. Oui mais pas forcément pour tous !

Firefox et Ubuntu sont bien entendu libres. Oui mais pas forcément pour tous !!!

Qui a dit que le Geektionnerd était l’ami des trolls ?
😉

Geektionnerd - Simon Gee Giraudot - CC by-sa

Geektionnerd - Simon Gee Giraudot - CC by-sa

Geektionnerd - Simon Gee Giraudot - CC by-sa

Crédit : Simon Gee Giraudot (Creative Commons By-Sa)