La liberté contre les traces dans le nuage – Une interview d’Eben Moglen

SheevaPlugIl y a un peu plus d’une semaine Tristan Nitot évoquait sur son blog une « magnifique interview » du juriste Eben Moglen par le journaliste Glyn Moody (que nous connaissons bien sûr le Framablog, preuve en est qu’ils ont l’honneur de tags dédiés : Moglen et Moody).

C’est la traduction de l’intégralité de cette interview que nous vous proposons ci-dessous.

Pourquoi Nitot était-il si enthousiaste ? Parce qu’il est légitime de s’inquiéter chaque jour davantage du devenir de nos données personnelles captées par des Facebook et des Google. Mais la critique récurrente sans possibilités d’alternatives pousse au découragement.

Or, poursuit-il, cette interview propose « une ébauche de solution technique qui pourrait bien signer la fin du Minitel 2.0 ». Eben Moglen y explique « comment des petits ordinateurs comme le Sheevaplug (cf photo ci-contre) ou le Linutop 2 pourraient bien changer la donne en permettant la construction d’un réseau social distribué (ou a-centré) dont chacun pourrait contrôler un bout et surtout contrôler son niveau de participation ».

Et Tristan de conclure de manière cinglante : « l’identité en ligne, la liste de nos relations, les archives de nos messages échangés sont bien trop précieuses pour être confiées à quelconque organisation privée, quelle qu’elle soit ».

La décennie « Microsoft » qui s’achève nous aura vu essayer, avec plus ou moins de succès, d’empêcher le contrôle de nos ordinateurs personnels, en y substituant du logiciel propriétaire par du logiciel libre.

La décennie « Google » qui s’annonce risque fort d’être celle des tentatives pour empêcher le contrôle d’Internet, en ne laissant plus nos données personnelles sur des serveurs privés mais sur nos propres serveurs personnels.

Remarque : à propos d’Eben Moglen, nous vous rappelons l’existence d’une conférence que nous considérons parmi les plus importantes jamais présentées par la communauté du Libre.

Une interview d’Eben Moglen – La liberté contre les données dans le nuage

Interview: Eben Moglen – Freedom vs. The Cloud Log

Eben Moglen interviewé par Glyn Moody – 17 mars 2010 – The H
(Traduction Framalang : Goofy, Simon Descarpentries et Barbidule)

Le logiciel libre a gagné : presque tous les poids lourds du Web les plus en vue comme Google, Facebook et Twitter, fonctionnent grâce à lui. Mais celui-ci risque aussi de perdre la partie, car ces mêmes services représentent aujourd’hui une sérieuse menace pour notre liberté, en raison de l’énorme masse d’informations qu’ils détiennent sur nous, et de la surveillance approfondie que cela implique.

Eben Moglen est sûrement mieux placé que quiconque pour savoir quels sont les enjeux. Il a été le principal conseiller juridique de la Free Software Foundation pendant 13 ans, et il a contribué à plusieurs versions préparatoires de la licence GNU GPL. Tout en étant professeur de droit à l’école de droit de Columbia, il a été le directeur fondateur du Software Freedom Law Center (Centre Juridique du Logiciel Libre). Le voici aujourd’hui avec un projet ambitieux pour nous préserver des entreprises de services en ligne qui, bien que séduisantes, menacent nos libertés. Il a expliqué ce problème à Glyn Moody, et comment nous pouvons y remédier.

Glyn Moody : Quelle est donc cette menace à laquelle vous faites face ?

Eben Moglen : Nous sommes face à une sorte de dilemme social qui vient d’une dérive dans la conception de fond. Nous avions un Internet conçu autour de la notion de parité – des machines sans relation hiérarchique entre elles, et sans garanties quant à leur architectures internes et leur comportements, mises en communication par une série de règles qui permettaient à des réseaux hétérogènes d’être interconnectés sur le principe admis de l’égalité de tous.

Sur le Web, les problèmes de société engendrés par le modèle client-serveur viennent de ce que les serveurs conservent dans leur journaux de connexion (logs) les traces de toute activité humaine sur le Web, et que ces journaux peuvent être centralisés sur des serveurs sous contrôle hiérarchisé. Ces traces deviennent le pouvoir. À l’exception des moteurs de recherche, que personne ne sait encore décentraliser efficacement, quasiment aucun autre service ne repose vraiment sur un modèle hiérarchisé. Ils reposent en fait sur le Web – c’est-à-dire le modèle de pair-à-pair non hiérarchisé créé par Tim Berners-Lee, et qui est aujourd’hui la structure de données dominante dans notre monde.

Les services sont centralisés dans un but commercial. Le pouvoir des traces est monnayable, parce qu’elles fournissent un moyen de surveillance qui est intéressant autant pour le commerce que pour le contrôle social exercé par les gouvernements. Si bien que le Web, avec des services fournis suivant une architecture de base client-serveur, devient un outil de surveillance autant qu’un prestataire de services supplémentaires. Et la surveillance devient le service masqué, caché au cœur de tous les services gratuits.

Le nuage est le nom vernaculaire que nous donnons à une amélioration importante du Web côté serveur – le serveur, décentralisé. Au lieu d’être une petite boîte d’acier, c’est un périphérique digital qui peut être en train de fonctionner n’importe où. Ce qui signifie que dans tous les cas, les serveurs cessent d’être soumis à un contrôle légal significatif. Ils n’opèrent plus d’une manière politiquement orientée, car ils ne sont plus en métal, sujets aux orientations localisées des lois. Dans un monde de prestation de services virtuels, le serveur qui assure le service, et donc le journal qui provient du service de surveillance induit, peut être transporté sur n’importe quel domaine à n’importe quel moment, et débarrassé de toute obligation légale presque aussi librement.

C’est la pire des conséquences.

GM : Est-ce qu’un autre facteur déclenchant de ce phénomène n’a pas été la monétisation d’Internet, qui a transféré le pouvoir à une entreprise fournissant des services aux consommateurs ?

EM : C’est tout à fait exact. Le capitalisme a aussi son plan d’architecte, qu’il rechigne à abandonner. En fait, ce que le réseau impose surtout au capitalisme, c’est de l’obliger à reconsidérer son architecture par un processus social que nous baptisons bien maladroitement dés-intermédiation. Ce qui correspond vraiment à la description d’un réseau qui contraint le capitalisme à changer son mode de fonctionnement. Mais les résistances à ce mouvement sont nombreuses, et ce qui nous intéresse tous énormément, je suppose, quand nous voyons l’ascension de Google vers une position prééminente, c’est la façon dont Google se comporte ou non (les deux à la fois d’ailleurs) à la manière de Microsoft dans sa phase de croissance. Ce sont ces sortes de tentations qui s’imposent à vous lorsque vous croissez au point de devenir le plus grand organisme d’un écosystème.

GM : Pensez-vous que le logiciel libre a réagi un peu lentement face au problème que vous soulevez ?

EM : Oui, je crois que c’est vrai. Je pense que c’est difficile conceptuellement, et dans une large mesure cette difficulté vient de ce que nous vivons un changement de génération. À la suite d’une conférence que j’ai donnée récemment, une jeune femme s’est approchée et m’a dit : « j’ai 23 ans, et aucun de mes amis ne s’inquiète de la protection de sa vie privée ». Eh bien voilà un autre paramètre important, n’est-ce pas ? – parce que nous faisons des logiciels aujourd’hui en utilisant toute l’énergie et les neurones de gens qui ont grandi dans un monde qui a déjà été touché par tout cela. Richard et moi pouvons avoir l’air un peu vieux jeu.

GM : Et donc quelle est la solution que vous proposez ?

EM : Si nous avions une classification des services qui soit véritablement défendable intellectuellement, nous nous rendrions compte qu’un grand nombre d’entre eux qui sont aujourd’hui hautement centralisés, et qui représentent une part importante de la surveillance contenue dans la société vers laquelle nous nous dirigeons, sont en fait des services qui n’exigent pas une centralisation pour être technologiquement viables. En réalité ils proposent juste le Web dans un nouvel emballage.

Les applications de réseaux sociaux en sont l’exemple le plus flagrant. Elles s’appuient, dans leurs métaphores élémentaires de fonctionnement, sur une relation bilatérale appelée amitié, et sur ses conséquences multilatérales. Et elles sont complètement façonnées autour de structures du Web déjà existantes. Facebook c’est un hébergement Web gratuit avec des gadgets en php et des APIs, et un espionnage permanent – pas vraiment une offre imbattable.

Voici donc ce que je propose : si nous pouvions désagréger les journaux de connexion, tout en procurant aux gens les mêmes fonctionnalités, nous atteindrions une situation Pareto-supérieure. Tout le monde – sauf M. Zuckerberg peut-être – s’en porterait mieux, et personne n’en serait victime. Et nous pouvons le faire en utilisant ce qui existe déjà.

Le meilleur matériel est la SheevaPlug, un serveur ultra-léger, à base de processeur ARM (basse consommation), à brancher sur une prise murale. Un appareil qui peut être vendu à tous, une fois pour toutes et pour un prix modique ; les gens le ramènent à la maison, le branchent sur une prise électrique, puis sur une prise réseau, et c’est parti. Il s’installe, se configure via votre navigateur Web, ou n’importe quelle machine disponible au logis, et puis il va chercher toutes les données de vos réseaux sociaux en ligne, et peut fermer vos comptes. Il fait de lui-même une sauvegarde chiffrée vers les prises de vos amis, si bien que chacun est sécurisé de façon optimale, disposant d’une version protégée de ses données chez ses amis.

Et il se met à faire toutes les opérations que nous estimons nécessaires avec une application de réseau social. Il lit les flux, il s’occupe du mur sur lequel écrivent vos amis – il rend toutes les fonctionnalités compatibles avec ce dont vous avez l’habitude.

Mais le journal de connexion est chez vous, et dans la société à laquelle j’appartiens au moins, nous avons encore quelques vestiges de règles qui encadrent l’accès au domicile privé : si des gens veulent accéder au journal de connexion ils doivent avoir une commission rogatoire. En fait, dans chaque société, le domicile privé de quelqu’un est presque aussi sacré qu’il peut l’être.

Et donc, ce que je propose basiquement, c’est que nous construisions un environnement de réseau social reposant sur les logiciels libres dont nous disposons, qui sont d’ailleurs déjà les logiciels utilisés dans la partie serveur des réseaux sociaux; et que nous nous équipions d’un appareil qui inclura une distribution libre dont chacun pourra faire tout ce qu’il veut, et du matériel bon marché qui conquerra le monde entier que nous l’utilisions pour ça ou non, parce qu’il a un aspect et des fonctions tout à fait séduisantes pour son prix.

Nous prenons ces deux éléments, nous les associons, et nous offrons aussi un certain nombre d’autres choses qui sont bonnes pour le monde entier. Par exemple, pouvoir relier automatiquement chaque petit réseau personnel par VPN depuis mon portable où que je sois, ce qui me procurera des proxies chiffrés avec lesquels mes recherches sur le Web ne pourront pas être espionnées. Cela signifie que nous aurons des masses d’ordinateurs disponibles pour ceux qui vivent en Chine ou dans d’autres endroits du monde qui subissent de mauvaises pratiques. Ainsi nous pourrons augmenter massivement l’accès à la navigation libre pour tous les autres dans le monde. Si nous voulons offrir aux gens la possibilité de profiter d’une navigation anonymisée par un routage en oignon, c’est avec ce dispositif que nous le ferons, de telle sorte qu’il y ait une possibilité crédible d’avoir de bonnes performances dans le domaine.

Bien entendu, nous fournirons également aux gens un service de courriels chiffrés – permettant de ne pas mettre leur courrier sur une machine de Google, mais dans leur propre maison, où il sera chiffré, sauvegardé chez tous les amis et ainsi de suite. D’ailleurs à très long terme nous pourrons commencer à ramener les courriels vers une situation où, sans être un moyen de communication privée, ils cesseront d’être des cartes postales quotidiennes aux services secrets.

Nous voudrions donc aussi frapper un grand coup pour faire avancer de façon significative les libertés fondamentales numériques, ce qui ne se fera pas sans un minimum de technicité.

GM : Comment allez-vous organiser et financer un tel projet, et qui va s’en occuper ?

EM : Avons-nous besoin d’argent ? Bien sûr, mais de petites sommes. Avons-nous besoin d’organisation ? Bien sûr, mais il est possible de s’auto-organiser. Vais-je aborder ce sujet au DEF CON cet été, à l’Université de Columbia ? Oui. Est-ce que M. Shuttleworth pourrait le faire s’il le voulait ? Oui encore. Ça ne va pas se faire d’un coup de baguette magique, ça se fera de la manière habituelle : quelqu’un va commencer à triturer une Debian ou une Ubuntu ou une autre distribution, et va écrire du code pour configurer tout ça, y mettre un peu de colle et deux doigts de Python pour que ça tienne ensemble. D’un point de vue quasi capitaliste, je ne pense pas que ce soit un produit invendable. En fait, c’est un produit phare, et nous devrions en tout et pour tout y consacrer juste un peu de temps pour la bonne cause jusqu’à ce que soit au point.

GM : Comment allez-vous surmonter les problèmes de masse critique qui font qu’on a du mal à convaincre les gens d’adopter un nouveau service ?

EM : C’est pour cela que la volonté constante de fournir des services de réseaux sociaux interopérables est fondamentale.

Pour le moment, j’ai l’impression que pendant que nous avancerons sur ce projet, il restera obscur un bon moment. Les gens découvriront ensuite qu’on leur propose la portabilité de leur réseau social. Les entreprises qui gèrent les réseaux sociaux laissent en friche les possibilités de leurs propres réseaux parce que tout le monde veut passer devant M. Zuckerberg avant qu’il fasse son introduction en bourse. Et c’est ainsi qu’ils nous rendront service, parce qu’ils rendront de plus en plus facile de réaliser ce que notre boîte devra faire, c’est-à-dire se connecter pour vous, rapatrier toutes vos données personnelles, conserver votre réseau d’amis, et offrir tout ce que les services existants devraient faire.

C’est comme cela en partie que nous inciterons les gens à l’utiliser et que nous approcherons la masse critique. D’abord, c’est cool. Ensuite, il y a des gens qui ne veulent pas qu’on espionne leur vie privée. Et puis il y a ceux qui veulent faire quelque chose à propos de la grande e-muraille de Chine, et qui ne savent pas comment faire. En d’autres termes, je pense qu’il trouvera sa place dans un marché de niches, comme beaucoup d’autres produits.

GM : Alors que le marché des mobiles est en train de décoller dans les pays émergents, est-ce qu’il ne vaudrait pas mieux demander aux téléphones portables de fournir ces services ?

EM : Sur le long terme, il existe deux endroits où vous pouvez raisonnablement penser stocker votre identité numérique : l’un est l’endroit où vous vivez, l’autre est dans votre poche. Et un service qui ne serait pas disponible pour ces deux endroits à la fois n’est probablement pas un dispositif adapté.

A la question « pourquoi ne pas mettre notre serveur d’identité sur notre téléphone mobile ? », ce que je voudrais répondre c’est que nos mobiles sont très vulnérables. Dans la plupart des pays du monde, vous interpellez un type dans la rue, vous le mettez en état d’arrestation pour un motif quelconque, vous le conduisez au poste, vous copiez les données de son téléphone portable, vous lui rendez l’appareil, et vous l’avez eu.

Quand nous aurons pleinement domestiqué cette technologie pour appareils nomades, alors nous pourrons commencer à faire l’inverse de ce que font les opérateurs de réseaux. Leur activité sur la planète consiste à dévorer de d’Internet, et à excréter du réseau propriétaire. Ils devront faire l’inverse si la technologie de la téléphonie devient libre. Nous pourrons dévorer les réseaux propriétaires et essaimer l’Internet public. Et si nous y parvenons, la lutte d’influence va devenir bien plus intéressante.




À propos de la formation aux logiciels libres, par Jean-Pierre Archambault

Extra Ketchup - CC by-sa« Le libre est à la fois une réponse concrète à des problèmes concrets et un outil de réflexion pour penser les problématiques générales de l’immatériel et la connaissance », nous dit ici Jean-Pierre Archambault, qui n’en est pas à son premier article sur le Framablog.

C’est pourquoi la question de la formation aux logiciels libres est l’un des enjeux majeurs de l’éducation de demain[1].

Il s’agit bien entendu d’être capable de les utiliser. Mais bien au-delà il s’agit aussi et surtout de comprendre qu’ils s’inscrivent dans une culture. Une culture de la collaboration, de la création, de l’autonomie et du partage qui ne doit plus être absent du cursus scolaire de nos étudiants.

À propos de la formation aux logiciels libres

La question est souvent posée de savoir s’il y a une spécificité de la formation aux logiciels libres. La licence d’un programme n’est pas forcément choisie lors de son écriture. Un traitement de texte reste un traitement de texte. Et une procédure récursive n’est pas intrinsèquement copyleft ou copyright. Nous allons examiner la question du point de vue des logiciels, de la culture informatique, des méthodes organisationnelles de réalisation des logiciels libres, de la portée sociétale du libre et des besoins pédagogiques des enseignants.

Former aux outils logiciels

Qu’il faille former à Linux comme on forme à Unix, Mac OS X ou Vista va de soi. Idem pour OpenOffice, FireFox ou The Gimp. Ce sont des systèmes et des applications qu’il faut connaître pour s’en servir « intelligemment ». Mais un système d’exploitation, un traitement de texte ou un tableur sont des outils conceptuels compliqués et complexes de par les objets qu’ils traitent et la multitude de leurs fonctionnalités. Il faut veiller à ne pas entrer dans le tunnel sans fin de la formation à la version n d’un progiciel, puis n+1, d’un usager « presse-boutons ». On connaît ce genre de pratiques pour des produits propriétaires dont les versions défilent à grande vitesse, enrichies de fonctionnalités dont l’utilisateur lambda n’a pas nécessairement besoin. Mais qui peuvent présenter des avantages financiers et des rentes de situation pour des officines de formation. Il faut donc pouvoir s’appuyer sur une appropriation initiale des concepts généraux des traitements de texte, tableurs et gestionnaires de bases de données.

L’informatique, le numérique étant partout dans la société, la question posée est celle de la culture générale de l’homme, du travailleur et du citoyen du 21è siècle. Il s’agit là des trois missions fondamentales des systèmes éducatifs. Le libre, c’est le code source que l’on connaît. Et pas la « boîte noire » miraculeuse qui fait tout pour vous : curieuse d’ailleurs cette représentation mentale qu’ont certains de la prothèse du cerveau qu’est l’ordinateur, que l’on pourrait utiliser sans la connaître ni la comprendre. De ce point de vue, le libre s’inscrit pleinement dans la vision qui considère que les usagers de l’informatique doivent comprendre et maîtriser les outils conceptuels qu’ils utilisent. Les créateurs d’informatique aussi, bien évidemment.

Maurice Nivat nous invite opportunément à relire André Leroy Gourhan qui nous a appris que l’outil n’est rien sans le geste qui l’accompagne et l’idée que se fait l’utilisateur de l’outil de l’objet à façonner[2]. Et d’ajouter : « Ce qui était vrai de nos lointains ancêtres du Neanderthal, quand ils fabriquaient des lames de rasoir en taillant des silex est toujours vrai : l’apprentissage de l’outil ne peut se faire sans apprentissage du geste qui va avec ni sans compréhension du mode de fonctionnement de l’outil, de son action sur la matière travaillée, ni sans formation d’une idée précise de la puissance de l’outil et de ses limites ».

Enseigner l’informatique pour donner une culture générale

Il faut donc former à l’outil. Il faut donner une culture générale informatique à l’ « honnête homme » de notre époque. Or, si une option d’informatique générale a existé au lycée dans les années quatre-vingt, elle a été supprimée au début des années quatre-vingt-dix. La ligne pédagogique selon laquelle les apprentissages doivent se faire à travers les usages de l’outil informatique dans les différentes disciplines existantes, et cela suffit, l’avait emporté, pour des raisons diverses (elle prendra la forme du Brevet informatique et internet, le B2i). Une longue « traversée du désert » commençait. Pour autant, des voix se faisaient entendre. Elles disaient que l’informatique étant partout (dans les autres disciplines scolaires), elle devait être quelque part en particulier, à un moment donné, sous la forme d’une discipline scolaire en tant que telle car la seule utilisation d’un outil, matériel ou conceptuel, ne suffit pas pour le maîtriser.

Gérard Berry, qui avait intitulé sa leçon inaugurale au Collège de France « Pourquoi et comment le monde devient numérique »[3], déclarait dans une interview au journal Le Monde, le 15 avril 2009 : « Du point de vue de l’enseignement de l’informatique, la France rentre résolument dans le XXe siècle. »[4]. Il regrettait que l’« on confonde la notion de computer literacy avec celle de computer sciences ». Et il ajoutait : « Dans les établissements scolaires, on a fait le choix d’enseigner les usages. C’est très insuffisant. C’est la différence entre apprendre à conduire et comprendre comment marche une voiture. Les jeunes quittent le lycée sans connaissance de la science informatique. C’est une aberration ! » .

L’association EPI (Enseignement Public et Informatique) et le groupe ITIC de l’ASTI ont pris ces dernières années de nombreuses initiatives en faveur d’un enseignement de l’informatique au lycée sous la forme d’une discipline d’enseignement général : audiences auprès des autorités de la République, tables rondes, séminaires, textes divers, propositions de programmes scolaires pour le lycée…[5]. Un tel enseignement doit comporter des apprentissages corrrespondant aux grands domaines de la science informatique, à savoir l’algorithmique et la programmation, la théorie de l’information, les machines et leurs architectures, les réseaux, Internet, les bases de données.

Dans le cadre de la réforme du lycée, un enseignement de spécialité optionnel « Informatique et sciences du numérique » a été créé en Terminale S pour la rentrée 2012. Dans son discours devant le Conseil supérieur de l’Éducation, le 10 décembre 2009, s’exprimant sur cette réforme du lycée, Luc Chatel a notamment déclaré : « A l’heure de la société de l’information et de la connaissance, la France a besoin plus que jamais de compétences scientifiques en informatique. Aujourd’hui l’informatique représente 30 % de la recherche et développement dans le monde. Aujourd’hui l’informatique est partout. Nous ne pouvons pas manquer ce rendez-vous majeur et c’est la raison pour laquelle nous proposons en série S une spécialisation « informatique et sciences du numérique » »[6].

Tous ceux qui se sont prononcés en faveur d’une telle mesure se félicitent. Parmi ceux-ci, et ce n’est pas un hasard, figure l’APRIL (« Promouvoir et défendre le logiciel libre »). Dans un communiqué de presse, le 5 janvier 2010, l’association, rappelant qu’«elle a toujours été favorable à ce que l’informatique soit une composante à part entière de la culture générale scolaire de tous les élèves sous la forme notamment d’un enseignement d’une discipline scientifique et technique », souligne « cette première et importante avancée signe d’une certaine rupture »[7]. Elle mentionne que « l’expérience de ces dernières années a clairement montré que le B2i ne fonctionnait pas. Son échec prévisible tient notamment à des problèmes insolubles d’organisation, de coordination et de cohérence des contributions supposées et spontanées des disciplines enseignées. De plus ne sont pas explicitées les connaissances scientifiques et techniques correspondant aux compétences visées. »

Le rapport de la mission parlementaire de Jean-Michel Fourgous, député des Yvelines, sur la modernisation de l’école par le numérique, « Réussir l’école numérique », remis au Ministre de l’Éducation nationale Luc Chatel le 15 février dernier, va dans le même sens[8]. Il met en évidence la portée de cet enseignement de l’informatique : « En créant une matière Informatique et sciences du numérique en terminale, le gouvernement français ouvre enfin la voie de l’apprentissage du numérique et redonne à l’école son rôle d’éducateur. » Et rappelle qu’en définitive le B2i ne correspond pas aux enjeux car « il ne permet pas d’acquérir une culture informatique, permettant de comprendre les techniques sous-tendant le fonctionnement des divers outils numériques… ne prenant pas en compte les connaissances techniques de base nécessaires ».

Le libre, une science

Si le libre est une composante à part entière de l’informatique, il n’en comporte pas moins des spécificités, qui doivent donner lieu à des enseignements dédiés, notamment dans le Supérieur. Il existe une « science du logiciel libre ». Voir l’article de Roberto Di Cosmo auquel nous nous référons ci-après[9].

Si les collaborations avec des partenaires dispersés géographiquement ne datent pas d’aujourd’hui, avec Internet la situation a radicalement changé. La question est posée de savoir sur quels principes scientifiques se fondent des projets comme Wikipédia ou Linux, exemples extrêmes de travail massivement collaboratif. Et de savoir comment en améliorer la stabilité et la fiabilité. Dans le développement du noyau Linux, chaque erreur, ou chaque fonction manquante ou obsolète, peut entraîner des dysfonctionnements majeurs rendant l’ensemble inutilisable. Malgré tout, le « phénomène Linux » a abouti à des versions de plus en plus complètes, fonctionnelles et stables. En fait, le succès des logiciels libres de qualité reposent sur des approches méthodologiques très structurées. L’organisation modulaire du code source, la sélection sévère des contributions et l’existence d’un noyau central de développeurs s’assurant de la cohérence de l’ensemble jouent un rôle essentiel dans la réussite de Linux. Mais la taille atteinte par Linux est telle que l’on est aux limites de ce qui peut être maîtrisé en s’appuyant sur les capacités organisationnelles des communautés. Les logiciels libres sont donc devenus un champ d’étude à part entière pour les informaticiens. Il faut résoudre des questions scientifiques (par exemple, comment gérer rapidement la modification d’un appel de fonction résultant de l’ajout, du changement ou de la suppression d’un paramètre ?). Le projet Coccinelle a fourni une contribution majeure en introduisant la notion de « patch sémantique ». Le projet Mancoosi vise à développer des algorithmes efficaces pour permettre aux utilisateurs d’exprimer leurs préférences lors de mises à jour et d’obtenir des installations personnalisées.

Toutes ces actions de recherche se traduiront dans des enseignements universitaires, pour le libre mais aussi l’informatique en général.

Penser l’immatériel

Dans leur rapport sur l’économie de l’immatériel, Maurice Lévy et Jean-Pierre Jouyet attirent l’attention sur le fait que, dans cette économie, « l’incapacité à maîtriser les TIC constituera (…) une nouvelle forme d’illettrisme, aussi dommageable que le fait de ne pas savoir lire et écrire ». Ils mettent en évidence les obstacles qui freinent l’adaptation de notre pays à l’économie de l’immatériel, notamment « notre manière de penser », invitant à changer un certain nombre de « nos réflexes collectifs fondés sur une économie essentiellement industrielle »[10]. Il faut former à l’informatique.

John Sulston, prix Nobel de médecine, évoquant en décembre 2002 dans les colonnes du Monde Diplomatique les risques de privatisation du génome humain, disait que « les données de base doivent être accessibles à tous, pour que chacun puisse les interpréter, les modifier et les transmettre, à l’instar du modèle de l’open source pour les logiciels ». Il existe une transférabilité de l’approche du libre à la réalisation et la mise à disposition des biens informationnels en général. On a pu le constater à l’occasion des vifs débats qui ont accompagné la transposition par le Parlement en 2006 de la directive européenne sur les Droits d’auteur et les droits voisins dans la société de l’information (DADVSI), ou plus récemment avec la loi Hadopi. Le libre, ses approches et ses méthodes, ses façons efficaces de produire des biens de connaissance qui relèvent du paradigme de la recherche scientifique, ses modèles économiques et ses réponses en termes de propriété intellectuelle, est omniprésent dans les problématiques de l’immatériel. Il faut former à l’informatique libre. Les élèves et les étudiants, travailleurs et citoyens d’aujourd’hui ou de demain, doivent en avoir entendu parler lors de leur scolarité et de leurs études. Le libre est à la fois une réponse concrète à des problèmes concrets et un outil de réflexion pour penser les problématiques générales de l’immatériel et la connaissance.


Production collaborative de ressources pédagogiques

La création de logiciels libres est un travail collaboratif : cette manière de créer du savoir à plusieurs est particulièrement importante si nous voulons préparer les plus jeunes à entrer dans une société du savoir partagé. Certains d’entre eux seront enseignants. Les enseignants ont besoin de documents, de contenus pédagogiques. Pour se former et pour enseigner. Et ils sont bien placés pour les concevoir et les produire eux-mêmes. L’on sait la transférabilité de l’approche du logiciel libre à la réalisation des contenus pédagogiques. Tout le monde, ou presque, connaît les réalisations remarquables de l’association Sésamath[11], « vaisseau-amiral » de la production collaborative de ressources pédagogiques libres, qui a obtenu un prix spécial de l’UNESCO.

Et il faut attacher une licence à un contenu produit. Les Creative Commons sont de mieux en mieux connues mais il reste du chemin à parcourir. Il faut faire connaître leurs modalités juridiques au service de l’objectif général, clairement exprimé, de favoriser la diffusion et l’accès pour tous aux oeuvres de l’esprit, en conciliant les droits légitimes des auteurs et des usagers. Creative Commons renverse le principe de l’autorisation obligatoire. Il permet à l’auteur d’autoriser par avance, et non au coup par coup, certains usages et d’en informer le public. Il est autorisé d’autoriser. C’est incontournable à l’heure d’Internet et du numérique car, sinon, toute vie intellectuelle serait impossible si l’on ne pouvait parler librement des oeuvres et s’il fallait, pour la moindre citation, demander l’autorisation à l’auteur ou à ses héritiers.

Que de nombreux autres enseignants, à la manière de Sésamath, fabriquent des contenus libres dans des démarches de mutualisation et de coopération est une raison supplémentaire de former au libre.

Jean-Pierre Archambault
CNDP-CRDP de Paris, coordonnateur du pôle de compétences logiciels libres du SCEREN

Notes

[1] Extra Ketchup (Creative Commons By-Sa)

[2] « L’informatique, science de l’outil », Maurice Nivat (à paraître dans EpiNet 124) http://www.epi.asso.fr/

[3] Leçon inaugurale le 17 janvier 2008, Cours Séminaires du Collège de France, par Gérard Berry titulaire de la chaire d’innovation technologique Liliane Bettencourt http://www.college-de-france.fr/default/EN/all/inn_tec2007/

[4] « Gérard Berry : L’informatique est une science », de Christian Bonrepaux dans le Cahier Éducation du Monde daté du 16 avril 2009. http://www.lemonde.fr/societe/article/2009/04/15/gerard-berry-l-informatique-est-une-science_1181041_3224.html

[5] $http://www.epi.asso.fr/blocnote/blocsom.htm#itic On pourra aussi se référer, pour les élèves à partir de l’école primaire, à la version francaise de « Computer Science Unplugged » : http://interstices.info/jcms/c_47072/enseigner-et-apprendre-les-sciences-informatiques-a-l-ecole

[6] http://www.education.gouv.fr/cid49972/reforme-du-lycee-discours-devant-le-conseil-superieur-de-l-education.html

[7] http://www.epi.asso.fr/revue/docu/d1001a.htm

[8] http://www.reussirlecolenumerique.fr/

[9] « La science du logiciel libre », Roberto Di Cosmo, La Recherche n°436, décembre 2009 – Professeur à l’Université Paris 7, Roberto Di Cosmo « porte » le projet de centre de recherche sur le logiciel libre de l’INRIA.

[10] Rapport remis à Thierry Breton en décembre 2006.

[11] http://www.sesamath.net




Logiciel libre et économie de la contribution : le temps de la déprolétarisation

Le 6 mars dernier Philippe Aigrain et Jérémie Zimmermann étaient invités par Alain Giffard et Bernard Stiegler dans le cadre des rencontres du Théâtre de la Colline de l’association Ars Industrialis.

Le titre était alléchant : Logiciel libre et économie de la contribution : le temps de la déprolétarisation.

Et la présentation tout autant :

Nous y accueillerons Philippe Aigrain et Jeremie Zimmermann, avec lesquels nous débattrons des enjeux du logiciel libre du point de vue d’une économie de la contribution, dans un contexte industriel marqué par une extraordinaire croissance des technologies numériques, qui pénètrent désormais pratiquement tous les aspects de la vie quotidienne. Mais nous examinerons aussi cette question dans le souci de réfléchir aux possibilités et aux spécificités du modèle contributif dans d’autres secteurs que l’économie numérique elle-même.

Plus généralement, nous mettrons à l’épreuve l’hypothèse selon laquelle le mouvement culturel, social et professionnel du logiciel libre et des creative commons constituent un précédent historique avec lequel, pour la première fois dans l’histoire industrielle, une tendance qui conduisait à ce que les processus de prolétarisation, c’est à dire de pertes de savoirs, affectant progressivement tous les acteurs de la société industrielle (producteurs, consommateurs, concepteurs, mais aussi investisseurs devenus spéculateurs), semble se renverser en une tendance contraire, où la technologie industrielle est mise au service de la reconstitution de communautés de savoirs.

C’est comme extension de ce mouvement et des nouvelles caractéristiques organisationnelles sur lesquelles il repose que le modèle du logiciel libre, qui constitue la matrice de l’économie de la contribution, annoncerait le dépassement des modèles industriels productivistes et consuméristes.

Quelle frustration de ne pouvoir en être !

Mais merci à Christian Fauré d’avoir enregistré ce débat de haute volée (ce dernier précise : « la discussion qui a suivi a été vraiment exceptionnelle, par exemple lors de l’intervention d’Alain Pierrot, vous la retrouverez bientôt sur le site d’Ars Industrialis »).

Bernard Stiegler

—> La vidéo au format webm

Philippe Aigrain

—> La vidéo au format webm

Jérémie Zimmermann

—> La vidéo au format webm

Alain Giffard

—> La vidéo au format webm




Vous êtes libre ce soir pour un restaurant open source ?

Instructables RestaurantPour faire comprendre ce qu’est un logiciel libre et son si précieux code source, on utilise souvent l’analogie de la recette de cuisine.

« Imaginez que vous vous trouviez dans un restaurant et que vous mangiez un excellent repas. Peut-être aurez vous l’envie de le cuisiner le lendemain chez vous pour vos amis ? C’est impossible, car vous n’avez pas la recette du plat (le code source). Vous pouvez toujours le manger dans le restaurant, mais même si vous connaissez le goût, vous ne savez pas comment le reproduire.

En informatique, c’est la même chose avec un logiciel. La plupart des logiciels sont distribués sans leur recette, et il est interdit d’essayer de comprendre leur fonctionnement (on parle dans ce cas d’un logiciel propriétaire). Il est interdit de les partager avec vos amis, et il est interdit d’essayer de les modifier pour les adapter à vos besoins. Avec un logiciel libre et ses 4 libertés, vous avez en revanche le plat, la recette, le droit de redistribuer (ou de vendre) le plat, la recette, et même de la modifier. »

Chiche ! Et si on pouvait aller dans des restaurants et repartir avec la recette des plats que l’on a dégustés ? Et même les plans de tout le mobilier et du design ![1]

C’est l’expérience proof of concept qui a été menée récemment à Amsterdam. Nouvelle fructueuse tentative de déclinaison du Libre en dehors des frontières du logiciel…

Un petit creux ? Un restaurant open source, ça vous dit ?

Hungry? How About An Open Source Restaurant

Alan Shimel – 23 février 2010 – NetworkWorld.com
(Traduction Framalang : Poupoul2, Goofy et Tinou)

Il ne vous est jamais arrivé de déguster un bon plat dans un restaurant, et d’imaginer le refaire une fois chez vous ? Dans le premier restaurant open source du monde, c’est possible.

Imaginez vous en train de finir un plat épatant dans un restaurant, et de vous dire que vous feriez bien le même chez vous. À l’Instructables Restaurant (NdT : Contraction d’instruction, signifiant aussi bien mode d’emploi qu’enseignement, et de tables), c’est justement de que vous pouvez faire. En fait, vous pouvez non seulement obtenir le « code source » du plat que vous avez dégusté, mais également télécharger les plans du mobilier et des équipements.

L’Instructables Restaurant est le prolongement du site Instructionables.com :

Une plateforme de documentation en ligne sur laquelle des passionnés partagent ce qu’ils font et comment ils le font, apprennent des autres et collaborent les uns avec les autres. Les graines d’Instructables ont germé au Media Lab du MIT (NdT : Massachusetts Institute of Technology), alors que les futurs fondateurs de Squid Labs concevaient des espaces de partage de leurs projets tout en s’entraidant.

En cohérence avec la philosophie des Instructables, tout ce qui se trouve dans le restaurant est soit basé sur des recettes postées sur Instructables, soit sur des conceptions et créations réalisées sur place. Si un besoin n’était pas déjà satisfait sur Instructables, les gérants du restaurant le prendraient en charge et le publieraient alors sur Instructables.com.

Tout est placé sous licence Creative Commons. Je trouve que cela place la créativité à un tout nouveau niveau.

Si vous vous apprêtez à courir vers l’Instructables Restaurant, vous pourriez être déçus. Après avoir annoncé leur intention d’ouvrir un restaurant basé sur ce concept en 2008, le restaurant a finalement ouvert ses portes le 16 décembre, au Theatrum Anatomicum du Waag d’Amsterdam. Ce restaurant n’a cependant été qu’un événement éphémère, et pour ce que j’ai pu en voir, il n’existe plus à cet endroit. C’est là toute l’histoire des événements éphémères qui vont et viennent à toute vitesse.

Mais maintenant que la glace est brisée, il n’y a aucune raison pour que d’autres restaurants reprenant le concept d’open source ne voient le jour un peu partout. Alors, la prochaine fois que vous aimez vraiment un plat lorsque vous sortez dîner, il se pourrait que vous puissiez repartir avec la recette (mais aussi tout ce qu’il faut pour reproduire l’assiette elle-même).

Notes

[1] Par contre, autant vous prévenir tout de suite, pour repartir avec la serveuse ou le serveur, c’est plus compliqué. Ça obéit à d’autres codes, bien moins compréhensibles que ceux d’un logiciel libre.




Médecine 2.0 – Une conférence accessible et passionnante de Dominique Dupagne

Sur ce blog nous nous méfions du qualificatif « 2.0 » trop souvent récupéré et vidé de son sens par le marketing. Sauf à faire comme Benjamin Bayart et ne pas hésiter à comparer l’évolution d’Internet à un ironique et menaçant « Minitel 2.0 ».

Cela reste néanmoins parlant, voire pertinent, lorsqu’il s’agit d’envisager l’hypothèse d’un changement majeur, un saut quantique, dans une discipline donnée, en particulier lorsque les nouvelles technologies participent à cette (r)évolution.

La discipline dont il est question dans ce billet nous concerne tous puisqu’il s’agit de la médecine. Et d’après Dominique Dupagne, médecin généraliste et créateur du site Atoute.org, elle est peut-être en train de connaître une mutation importante qualifiée donc ici de « médecine 2.0 », par opposition à une « médecine 1.9 » :

Les communautés de patients et la fluidité de l’information changent le visage de la médecine. La Médecine 2.0 traduit l’idée d’une évolution majeure de la relation entre le médecin, le malade et la maladie. Comme en informatique, le changement d’unité traduit une nette évolution par rapport aux versions précédentes (1.1, 1.2… 1.9, 1.9.1 etc.). La médecine 2.0 représente donc une forme de révolution. Elle reprend le concept de Web 2.0 dont elle utilise les valeurs et les outils.

En voici quelques points forts issus de cet article (ou résumés dans cette courte vidéo YouTube) :

  • Les patients créent de la connaissance
  • Les patients découvrent ou inventent de nouvelles maladies
  • Le savoir des soignants s’étend lui aussi
  • La qualité et la disponibilité de l’information augmentent
  • La mesure de la qualité en médecine fera intervenir des critères inhabituels mais enfin pertinents

Pour en savoir plus, nous avons reproduit ci-dessous la conférence de Dominique Dupagne à l’Ecole de Hautes Etudes en Sciences Sociales, présentée le 19 février dernier lors d’un séminaire du centre Edgar Morin (sous licence Creative Commons By).

Dans cette intervention non dénuée d’humour, il sera question de Google, « d’hôpital magnétique » et « d’empowerment ». Mais il sera surtout question d’une médecine bousculée positivement par les nouvelles technologies et des patients bien décidés en se les appropriant à ne plus demeurer passifs.

La médecine 2.0 reprendrait donc « le concept de Web 2.0 dont elle utilise les valeurs et les outils ». Vous vous apercevrez peut-être comme moi au passage qu’elle reprend parfois également, consciemment ou non, les valeurs et les outils du logiciel libre.

Parce qu’entre les communautés de patients dont on redonne parole, action et expertise collective et les communautés d’utilisateurs de logiciels libres, il y a souvent de fortes similitudes…

—> La vidéo au format webm

PS : Grâce à notre ami JosephK d’ITheora, nous testons actuellement sur le Framablog la lecture directe au format Ogg pour les navigateurs compatibles HTML 5. Merci de nous faire part de tout retour positif ou négatif dans les commentaires.




Pourquoi le logiciel libre est-il important pour moi ?

The unnamed - CC by-saBruce Byfield est un journaliste américain que nous avons souvent traduit sur le Framablog.

Il nous livre ici une sorte de témoignage confession autour de cette simple question : Pourquoi le logiciel libre est-il important pour moi ? Une question qui, vers la fin, en cache une autre : Pourquoi le logiciel libre n’est-il pas important pour les autres ?

La réponse m’a alors fait fortement penser à l’Allégorie de la caverne de Platon parce que « pour une grande majorité, le Libre contraste tellement avec ce qu’ils connaissent qu’ils peinent à concevoir que cela existe »[1].

Mais je ne vous en dis pas plus…

Pourquoi les 4 libertés du logiciel sont plus importantes que jamais pour les Linuxiens

Why ‘Free as in Freedom’ is More Important Than Ever for Linux Users

Bruce Byfield – 17 novembre 2009 – LinuxPlanet.com
(Traduction Framalang : Don Rico)

Une marionnette heureuse de sa condition

La Free Software Foundation organise un concours de vidéos sur le thème « Pourquoi le logiciel libre est-il important pour vous ? » C’est une question qui tombe à point nommé, en raison, d’une part, de la récente sortie de Windows 7, et d’autre part des bisbilles au sein de la communauté du Libre qui ont tellement gagné en virulence que ses partisans semblent en passe d’oublier leur objectif commun.

Je n’ai pas le talent pour monter une vidéo, mais ce concours m’a poussé à m’interroger : Pourquoi le logiciel libre est-il important pour moi ? Pourquoi la plupart de ceux qui m’entourent s’en soucient comme d’une guigne ? Ces deux questions sont plus intimement liées qu’on pourrait le croire au premier abord.

Une changement de logiciel et de relations

À certains égards, il m’est plus facile d’expliquer ce qui ne présente pas d’intérêt pour moi dans le logiciel libre que ce qui en présente. Par exemple, le code que j’écris se limite à des modifications d’un code existant, aussi avoir accès au code source n’est pour moi qu’un avantage indirect.

De la même manière, être journaliste spécialisé dans le domaine du logiciel libre ne présente que peu de bénéfices pour moi. J’aurais davantage de débouchés et de lecteurs si j’écrivais des rubriques sur le matériel, Windows, et même OS X.

La gratuité du logiciel m’importe peu elle aussi, car depuis des années je peux défalquer le prix des logiciels acquis de ma déclaration de revenus. D’ailleurs, utiliser des logiciels libres et gratuits est même un désavantage lorsque je déclare mes impôts, car j’ai moins de frais professionnels à déduire.

Je ne peux même pas avancer l’argument que je voue une vive haine à Microsoft – mon sentiment envers cette entreprise est plus une grande méfiance et le désir d’avoir le moins possible affaire à elle.

Microsoft a néanmoins contribué à me pousser vers le logiciel libre. Un mois à peine après l’acquisition de ma première machine, je pestais déjà contre les carences du DOS, que j’ai remplacé par 4DOS. 4DOS était alors un partagiciel (à l’époque, quasi personne ne connaissait l’existence des logiciels libres) et ses fonctionnalités plus riches m’ont appris que le prix de vente d’un programme n’avait rien à voir avec sa qualité.

C’est aussi cette recherche de qualité qui m’a conduit à préférer OS/2 à Windows 3.0, et à vouloir être en mesure de bidouiller mes logiciels.

L’abandon d’OS/2 par IBM sous la pression de Microsoft m’a fourni un enseignement supplémentaire : je ne pouvais compter sur une entreprise commerciale pour protéger mes intérêts en tant que client. Lorsque j’ai découvert le logiciel libre, je me suis aussitôt rendu compte que mes intérêts en tant qu’utilisateur seraient sans doute mieux protégés par une communauté. Au moins, la mise à disposition du code source réduisait les risques que l’on cesse de veiller à mes intérêts.

Au cours des dix dernières années, l’évolution du monde des affaires et de la technologie n’a fait que renforcer ces convictions. À une époque où primait le bon sens, les ordinateurs et internet auraient été construits à partir de standards élaborés de façon collaborative et soumis à la régulation des pouvoirs publics, comme la télévision et la radio l’ont été au Canada et en Europe. Hélas, l’informatique et l’internet étant apparus à l’ère où dominait le conservatisme américain, ils ont été développés pour leur majeure partie par des entreprises privées.

Le résultat ? Qualité discutable, obsolescence programmée, et absence quasi totale de contrôle par l’utilisateur. Les utilisateurs de Windows et de Mac OS X ne possèdent même pas les logiciels qu’ils achètent, on leur accorde seulement un licence pour les utiliser. D’après les termes de ces licences, ils n’ont même pas le droit de contrôler l’accès que peuvent avoir Microsoft ou Apple à leur matériel ou à leurs données.

Du point de vue du consommateur, une telle situation serait inacceptable avec n’importe quel appareil. Qui tolérerait pareilles restrictions si elles s’appliquaient aux voitures ou aux cafetières électriques ?

La véritable liberté

Dans le domaine de l’informatique et de l’internet, pourtant, la situation est quasi catastrophique. Les ordinateurs pourraient être le plus formidable outil de tous les temps pour la promotion de l’éducation et de la liberté d’expression. De temps à autre, les entreprises propriétaires reconnaissent par un petit geste ce potentiel en créant des logiciels éducatifs ou en vendant leurs produits à bas prix aux pays en voie de développement.

Pourtant, dans la plupart des cas, ce potentiel n’est exploité au mieux qu’à 50% par les logiciels propriétaires. Leur coût élevé et l’absence de contrôle par l’utilisateur signifient que l’accès à ces outils reste bridé et filtré par leurs fabricants. À cause d’un hasard de l’Histoire, nous avons laissé des entreprises commerciales utiliser ces technologies, ce qui est bien sûr tout à fait acceptable, mais aussi avoir le contrôle sur tous ceux qui comme eux les utilisent.

Le logiciel libre, lui, reprend une partie de ce contrôle aux entreprises commerciales et rend l’informatique et internet plus accessibles à l’utilisateur moyen. Grâce aux logiciels libres, notre capacité à communiquer n’est plus restreinte par notre capacité financière à acquérir tel ou tel programme. Ce n’est pas la panacée, car le prix du matériel reste une barrière pour certains, mais il s’agit d’un pas de géant dans la bonne direction.

Pour résumer, le logiciel libre est une démocratisation d’une technologie privative. On retrouve cet esprit intrinsèque dans les communautés qu’il génère, dans lesquelles la norme est le bénévolat,le partage et la prise de décision collégiale. On le retrouve aussi dans l’utilisation de logiciels libres pour la création d’infrastructures dans les pays en développement, ou dans les initiatives que mènent l’Open Access Movement (NdT : Mouvement pour l’Accès Ouvert) pour affranchir les chercheurs universitaires des revues à accès restreint, de sorte que tout un chacun puisse les exploiter. En un mot, le logiciel libre, c’est un pas en avant pour atteindre les idéaux sur lesquels la société moderne devrait reposer.

On pourrait me rétorquer que d’autres causes, telles que la lutte contre la faim et la misère dans le monde, sont plus importantes, et je vous donnerais raison. Néanmoins, c’est une cause à laquelle je peux apporter ma modeste contribution. À mon sens, elle est non seulement importante, mais si essentielle pour les droits de l’homme et la liberté de la recherche que je peine à comprendre pourquoi elle n’est pas déjà universelle.

Hors du cadre de référence

Hélas, le logiciel libre ne peut se targuer que d’un nombre d’utilisateurs réduit, même si celui-ci augmente sans cesse. On cite souvent les monopoles, l’ampleur de la copie illégale, l’absence d’appui des constructeurs, les luttes intestines au sein des communautés et l’hostilité envers les non-initiés, pour expliquer pourquoi l’utilisation des logiciels libres n’est pas plus répandue. Toutes ces raisons jouent sans doute un rôle, mais je soupçonne les véritables causes d’être beaucoup plus simples.

« Je ne comprends pas qu’on puisse encore utiliser Windows », ai-je un jour grommelé en présence d’un ami. « Parce que c’est préinstallé sur tous les ordinateurs ? » a-t-il répondu. Il n’avait sans doute pas tort.

On pourrait penser que des gens qui passent de huit à quatorze heures devant leur machine souhaiteraient avoir davantage de contrôle sur elle. Mais il ne faut jamais sous-estimer la force de la peur du changement. Si les ordinateurs sont vendus avec un système d’exploitation préinstallé, la plupart des utilisateurs s’en accommodent, même s’ils passent leur temps à s’en plaindre ou à s’en moquer.

Je pense néanmoins que le frein principal à une adoption plus massive des logiciels libres est plus basique encore. Pour une grande majorité, le Libre contraste tellement avec ce qu’ils connaissent qu’ils peinent à concevoir que cela existe.

Le logiciel libre trouve son origine dans l’informatique universitaire des années 1960 et 1970, mais pour le plus grand nombre, l’histoire de l’informatique ne commence qu’avec l’apparition de l’ordinateur personnel sur le marché vers 1980.

Depuis, les logiciels sont avant tout des produits marchands, et le fait que les fabricants aient tout contrôle sur eux constitue la norme. Même si de temps à autre il arrive aux utilisateurs de râler, ils sont habitués à perdre les droits qui devraient être les leurs en matière de propriété dès qu’ils sortent leur logiciel de sa boîte.

De nombreux utilisateurs ignorent encore quels sont les objectifs du logiciel libre. Pourtant, s’ils sont un jour amenés à découvrir le logiciel libre, ils apprennent vite que ses aspirations sont radicalement différente.

Pour le mouvement du Libre, le logiciel n’est pas une marchandise mais un médium, comparable aux ondes télé ou radio, qui devrait être fourni à tous avec leur matériel informatique. Cette philosophie suggère que l’utilisateur moyen devrait être plus actif dans sa façon d’utiliser son ordinateur et modifier son rapport aux fabricants.

Face à des aspirations si opposées, quelle peut être la réaction de l’utilisateur moyen à part l’incompréhension et le rejet ? Il se peut que son premier réflexe consiste à penser que tout cela est trop beau pour être vrai. Il risque de ne pas croire à la façon dont sont conçus les logiciels libres, et craindre des coûts cachés ou la présence de logiciels malveillants.   Cet utilisateur n’est pas près de prendre ces promesses pour argent comptant, et il n’y a rien d’étonnant à cela.

Le logiciel libre diffère tant des logiciels qu’il utilise depuis toujours qu’il n’a pas de cadre de référence. Le fait que le Libre offre plus de souplesse et plus de possibilité de contrôle qu’il n’en a jamais eu ne fait pas le poids contre l’incapacité de l’utilisateur à le rapprocher du reste de son expérience avec les logiciels. Plutôt que de de se jeter dans les bras du Libre, il risque de le rejeter par incompréhension.

Retour aux fondamentaux

Lors de mon premier contact avec le Libre, je l’ai considéré comme un phénomène isolé. Ses similitudes avec d’autres tendances ou mouvements historiques ne me sont apparues que plus tard. Aujourd’hui encore, il m’arrive de temps à autre de négliger trop facilement son importance, et je soupçonne qu’il en va de même pour de nombreux membres de la communauté.

Cette remarque s’applique surtout pour ceux qui se définissent comme partisans de l’Open Source, lesquels accordent de la valeur au logiciel libre principalement pour la qualité supérieure que permet le code ouvert. Ils oublient parfois, comme me l’a un jour confié Linus Torvalds, que ce confort accordé aux codeurs n’est qu’un moyen permettant d’accéder à la liberté de l’utilisateur.

Mais négliger l’importance du logiciel libre a un effet encore plus profond. Nous, qui appartenons à la communauté, sommes conscients de cette importance, mais nous la prenons souvent pour acquise. Pris dans notre routine, nous perdons de vue que ce qui nous semble normal peut se révéler déroutant et menaçant pour qui en entend parler pour la première fois.

Chaque année, le logiciel libre accomplit de nouvelles avancées. Quand je fais le point sur mes dix ans d’activité dans ce domaine, je suis souvent stupéfait par les progrès dont j’ai été témoin, à la fois concernant les logiciels eux-mêmes et le succès qu’ils remportent en dehors de la communauté. Néanmoins, le logiciel libre pourrait rencontrer le succès plus vite si ceux qui participent au mouvement se remémoraient plus souvent son importance et se rendaient compte du caractère déconcertant qu’il peut avoir pour les néophytes.

Notes

[1] Crédit photo : The unnamed (Creative Commons By-Sa)




Geektionnerd : Oracle rachète Sun

Oracle a racheté Sun en avril dernier, ce qui n’a pas été sans créer un certain émoi dans la communauté du libre.

Ainsi on pouvait lire sur LinuxFr : « L’accord cite principalement les deux principaux actifs logiciels de Sun : Java et Solaris. On peut se demander ce qu’il adviendra des produits libres de Sun (Java, MySQL, OpenOffice.org, VirtualBox, OpenSolaris, GlassFish, OpenSPARC, NetBeans, etc.) et surtout de leur politique globale vers le libre. »

PS : Notons que la situation n’était pas forcément rose non plus avant l’arrivée d’Oracle.

Geektionnerd - Simon Gee Giraudot - CC by-sa

Geektionnerd - Simon Gee Giraudot - CC by-sa

Geektionnerd - Simon Gee Giraudot - CC by-sa

Crédit : Simon Gee Giraudot (Creative Commons By-Sa)




Libres extraits du rapport Fourgous sur la modernisation de l’école par le numérique

One Laptop Per Child - CC byLa « culture libre » va-t-elle enfin être reconnue, soutenue et encouragée à l’école française ?

Si vous êtes un lecteur régulier du Framablog, vous n’ignorez pas que c’est une question qui nous taraude depuis plusieurs années (sachant que patience et longueur de temps font plus que force ni que rage).

Or on tient peut-être un début de réponse positive avec le rapport de la mission parlementaire du député Jean-Michel Fourgous sur la modernisation de l’école par le numérique. Sous l’égide d’un autre politique issu du monde de l’industrie, le ministre Luc Chatel, ce rapport ambitieux a pour titre Réussir l’école numérique et il a été remis aujourd’hui même à François Fillon.

70 mesures réparties en 12 priorités dans un document de 333 pages, le moins que l’on puisse dire est qu’ils n’ont pas chômé. Enseignant, étudiant[1], parent d’élèves ou simple citoyen curieux de l’avenir du système éducatif dans la société actuelle de l’information et de la communication, je vous invite à le parcourir à votre tour car il y a beaucoup de choses intéressantes dans ce rapport, que l’on soit ou non d’accord avec les analyses, les constats et les pistes de propositions.

En attendant je me suis permis d’en extraire ci-dessous les quelques trop rares passages concernant plus ou moins directement la ligne éditoriale de ce blog. Parce quand bien même ce soit peut-être, ou sûrement, trop timide (est-ce volontaire ?), j’y vois quand même une avancée significative pour le « Libre à l’école » (expression valise que j’avais tenté de synthétiser dans un court article pour une brochure Sésamath).

Des passages dont ne parlent ni la dépêche AFP (et à sa suite tous les grands médias) ni le Café pédagogique (mais ça on sait pourquoi),

On notera que dans le cadre de la consultation préalable, l’April avait envoyé une lettre détaillée et argumentée à Jean-Michel Fourgous. Ceci participant certainement à expliquer cela.

Enfin n’oublions pas qu’un rapport parlementaire n’est qu’un document de travail qui n’augure en rien des décisions qui seront effectivement prises par le gouvernement. Sans compter, comme le souligne cette fois-ci le Café Pédagogique, qu’une « évolution de cette ampleur nécessite une école en paix, est-ce envisageable si l’austérité vient chaque année dégrader la situation scolaire ? »

Libres extraits du rapport Fourgous

URL d’origine du document

Page 29

Grâce aux wikis les contenus sont élaborés de façon collaborative. L’encyclopédie en ligne Wikipedia, les wikilivres (création de ressources pédagogiques libres) ou encore les wikicommons (banque de fichiers multimédias) traduisent la naissance de ce que Pierre Lévy appelle une « intelligence collective » où l’internaute passif, simple « récepteur », est devenu un « webacteur », un « élaborateur » de contenus.

Tiens, Wikipédia et quelques autres projets Wikimédia ont droit de cité. Un peu plus loin, page 141, il sera dit que 40% des « digital natives » consultent l’encyclopédie. Et surtout, le rapport ne craint pas de proposer des liens directs vers ses articles lorsqu’il s’agit d’expliciter certains termes (exemples : Machine to machine, Réalité augmentée, Modèle danois, Littératie, Échec scolaire, Ingénieur pédagogique ou encore Livre électronique). Une telle légitimité officielle est à ma connaissance une grande première dans le secteur éducatif. Serions-nous définitivement en route vers la réconciliation ?

Une note (un peu confuse) est collée aux ressources pédagogiques libres avec un lien Educnet :

Les contenus libres trouvent leurs origines dans le concept de copyleft (en opposition au monopole d’exploitation reconnu par le copyright et le droit d’auteur) né avec les premiers logiciels dit libres car leurs utilisations, copies, redistributions ou modifications étaient laissées au libre arbitre de leurs utilisateurs. L’accès au code source était libre (open source). Cette philosophie du partage et de la promotion du savoir et de sa diffusion s’est propagée ensuite à toutes les formes de créations numériques.

Page 234

Un paragraphe entier est consacré à des pratiques dont je n’arrive toujours pas à comprendre pourquoi on ne veut pas faire ou voir le lien avec la culture du logiciel libre.

Vers de nouvelles pratiques coopératives et collaboratives

« J’ai amélioré ma pratique enseignante parce que je l’ai enrichie de l’expérience de tous les autres »

Cette citation me parle.

Est ensuite fait mention des associations d’enseignants, en distinguant dans cet ordre mutualisation, coopération et collaboration (cf ces dessins).

Il n’est pas anodin de remarquer que l’association la plus avancée dans la collaboration, Sésamath pour ne pas la nommer, a depuis longtemps adopté les licences libres aussi bien pour ses logiciels que pour ses contenus. Il y a corrélation, mais le rapport ne le dira pas.

Le travail d’équipe est, de manière traditionnelle, peu pratiqué et non valorisé sur le plan professionnel. L’organisation des établissements et du service des enseignants ne le facilite d’ailleurs d’aucune manière. L’arrivée de l’Internet et des modèles de travail coopératif ou collaboratif bouleversent les habitudes.

En France, des associations toujours plus nombreuses (Sésamaths, WebLettres, Clionautes…) regroupent des enseignants qui mutualisent leurs supports pédagogiques. La mutualisation correspond à la mise en commun et à l’échange de documents personnels. Dans le travail coopératif chaque participant assume une tâche propre au sein d’un projet donné et dans le travail collaboratif, chaque tâche est assumée collectivement. Ainsi, si Clio-collège est un site de mutualisation, Mathenpoche un exemple de travail coopératif, les manuels Sésamaths sont un bon exemple de travail collaboratif.

(…) La mutualisation arrive officiellement dans les académies : dans celle de Versailles, un site, destiné à recueillir les ressources utilisées par les enseignants sur les tableaux numériques interactifs, a été créé. Les enseignants peuvent y partager les fichiers qu’ils réalisent. En attendant, l’interopérabilité de l’outil, les ressources sont réparties selon les marques de TNI.

C’est l’une des rares fois où l’interopérabilité est évoquée dans le rapport. Un gouvernement responsable n’est pas forcément obligé « d’attendre l’interopérabilité ». Il peut la suggérer fortement, voire l’inclure systématiquement dans ses cahiers des charges.

Les échanges et la communication permettent d’aboutir à une production collégiale finale riche et cohérente et les documents numériques deviennent accessibles et téléchargeables par l’ensemble de la communauté éducative.

(…) Le travail collaboratif prend le pas sur la coopération, comme en témoigne l’évolution depuis quelques mois des associations WebLettres et Clionautes vers ce mode de fonctionnement. Internet permet ainsi de faire évoluer la culture enseignante du « chacun pour soi » vers un travail en équipe.

Les associations Weblettres et Clionautes se dirigent donc vers la collaboration. Ma main à couper qu’elles rencontreront les outils et licences libres en chemin.

Page 267

Un passage important dont le titre est à la fois erroné (« libres de droit ») et peu téméraire (« quelques » avantages) :

Les ressources libres de droit offrent quelques avantages pédagogiques

Quant au corps du paragraphe il a le grand mérite d’exister (Jean-Pierre Archambault est cité dans la note de bas de page) :


Le logiciel libre (gratuit) est mis à disposition des utilisateurs qui peuvent à loisir le modifier ou l’adapter avec pour obligation de le mettre à leur tour à la disposition de tous. Cette technique du « don » permet de générer de la valeur, enrichissant le produit, des compétences et des idées de chacun. Le plus célèbre de tous les logiciels libres est sans conteste le système d’exploitation « Linux » et la suite « Open office » qui se placent en concurrents respectivement de Windows et du pack Office de Microsoft. On peut citer également « Gimp », pendant de Photoshop, le navigateur « Firefox »…

L’entrée du logiciel libre dans l’Éducation nationale s’est réalisée à la suite d’un accord cadre conclu en 1998 avec l’Aful (Association française des utilisateurs de Linux et des logiciels libres).

L’idée de partage et de gratuité a séduit le monde enseignant, mais changer d’environnement de travail nécessite du temps et de la formation.

Certes. Mais se borne-t-on à le constater ou bien agit-on en conséquence comme le Canton de Genève ?

Les avantages pour les élèves sont importants, notamment pour la lutte contre la fracture numérique : l’élève peut en effet télécharger le logiciel gratuitement à son domicile sans aucune difficulté ; en apprenant à utiliser des fonctionnalités plus que des outils, le libre habitue les élèves à la pluralité, à la diversité ; il permet d’entrer dans le programme informatique, de le comprendre voire de le modifier (pour les plus férus d’informatique) : les avantages pédagogiques sont donc plus nombreux.

Cela fait plaisir à lire.

Et pourtant un sentiment mitigé prédomine puisqu’une fois ceci exposé on n’en reparlera plus dans tout le rapport. C’est plus que dommage que dans les 70 mesures préconisées, le logiciel libre n’ait pas fait l’objet d’une mesure à part entière.

Page 274

L’offre libre a peu à peu pénétré le système éducatif : en effet, l’idée de partage et de gratuité (permettant à l’élève de télécharger le logiciel gratuitement à son domicile) a séduit le monde enseignant, de même que l’offre émanant des enseignants eux-mêmes : la collaboration dans le but d’élaborer des ressources adaptées à leurs attentes, remporte un franc succès auprès du monde éducatif. La vocation du métier d’enseignant sera donc sûrement d’évoluer vers plus d’élaborations de ressources, plus de créations, de passer d’un travail solitaire à un travail d’équipe.

Cela séduit le monde enseignant. Mais cela séduit-il le rapport ? Cela n’est pas très clair et ne séduira alors pas forcément le gouvernement.


Page 292

Un long extrait tout à fait pertinent :

Une liberté pédagogique freinée

L’autre problème majeur reste les ressources mises à disposition de l’enseignant afin de préparer son cours : dans l’idéal, la technologie le permettant, chacun s’accorde à penser que les enseignants du XXIe siècle devraient pouvoir trouver sur la toile, toutes les ressources numériques, toute la documentation, toute l’aide qu’ils seraient en droit d’utiliser dans le cadre de leur enseignement.

Pourtant, les droits d’auteur les en empêchent et certains documents qui leur semblent pertinents pour illustrer leurs cours ne leur sont pas accessibles, sauf à se mettre hors la loi.

Ce que font tous les jours des milliers d’enseignants.

En ce temps d’Hadopi, que l’on n’a de cesse de présenter comme une loi « favorisant la création », c’est tout de même intéressant de remarquer qu’ici c’est le rôle castrateur des droits d’auteur qui est mis en exergue. Sans compter que…

Des solutions commencent à apparaître et se révèlent être un appui sérieux pour le travail collaboratif. Les licences creative commons (organisation née en 2001) sont ainsi un début de réponse, de même qu’en sont les cours en ligne sous licences libres proposés par les universités. Creative Commons propose gratuitement des contrats flexibles de droit d’auteur pour diffusions des créations. Ces « autorisations » permettent aux titulaires de droits d’autoriser le public à effectuer certaines utilisations, tout en ayant la possibilité de réserver les exploitations commerciales, les œuvres dérivées ou le degré de liberté (au sens du logiciel libre). Ces contrats peuvent être utilisés pour tout type de création : texte, film, photo, musique, site web… Les enseignants devraient ainsi être incités à partager leurs travaux en protégeant ceux-ci par l’emploi de licences de libre diffusion du type Creative CommonsBySA, GNU Free Documentation License ou Licence Art Libre…

Merci de l’évoquer. Ouf, c’en est fini du temps où l’on criait dans le désert. Mais que ce fut long !

Il y a une note, un peu étrange, concernant les Creative Commons (et Benoît Sibaud, l’excellent mais désormais ex-président de l’April, est cité) :

Creative Commons : Liberté de reproduire, distribuer et communiquer cette création au public, selon les conditions by-nc-sa (paternité, pas d’utilisation commerciale, partage des conditions à l’identique).

Et arrive alors le serpent de mer de « l’exception pédagogique » :

Cependant, beaucoup de ressources n’étant pas sous le « logo » creative commons, les enseignants sont freinés dans leurs pratiques et leur pédagogie (impossibilité de reprendre une publicité ou une photo afin de l’exploiter, de la disséquer pour mieux la comprendre…). L’exception pédagogique, déjà présente dans différents pays s’impose, notamment si on veut éduquer les enfants aux médias numériques et à l’impact de l’image.

Ce n’est pas gagné. Si vous avez cinq minutes, allez jeter un coup d’œil au tout récent Bulletin officiel n° 5 du 4 février 2010 concernant la propriété intellectuelle (partie 1 et 2). Pourquoi faire simple quand on peut faire tellement compliqué que cela en devient totalement incompréhensible !

Toujours est-il que contrairement au logiciel, on a droit à deux mesures bienvenues (dont une « en urgence ») :

Mesure 14 : Créer en urgence, dans le système juridique du droit d’auteur, une exception pédagogique facilitatrice et durable.

Mesure 23 : Favoriser le développement de ressources « libres » et la mise à disposition de ressources non payantes.

Restons sur cette note optimiste pour clore nos morceaux choisis. La balle est désormais dans le camp du législateur.

Pour lire le rapport dans son intégralité

Notes

[1] Crédit photo : One Laptop Per Child (Creative Commons By)