La liberté contre les traces dans le nuage – Une interview d’Eben Moglen

SheevaPlugIl y a un peu plus d’une semaine Tristan Nitot évoquait sur son blog une « magnifique interview » du juriste Eben Moglen par le journaliste Glyn Moody (que nous connaissons bien sûr le Framablog, preuve en est qu’ils ont l’honneur de tags dédiés : Moglen et Moody).

C’est la traduction de l’intégralité de cette interview que nous vous proposons ci-dessous.

Pourquoi Nitot était-il si enthousiaste ? Parce qu’il est légitime de s’inquiéter chaque jour davantage du devenir de nos données personnelles captées par des Facebook et des Google. Mais la critique récurrente sans possibilités d’alternatives pousse au découragement.

Or, poursuit-il, cette interview propose « une ébauche de solution technique qui pourrait bien signer la fin du Minitel 2.0 ». Eben Moglen y explique « comment des petits ordinateurs comme le Sheevaplug (cf photo ci-contre) ou le Linutop 2 pourraient bien changer la donne en permettant la construction d’un réseau social distribué (ou a-centré) dont chacun pourrait contrôler un bout et surtout contrôler son niveau de participation ».

Et Tristan de conclure de manière cinglante : « l’identité en ligne, la liste de nos relations, les archives de nos messages échangés sont bien trop précieuses pour être confiées à quelconque organisation privée, quelle qu’elle soit ».

La décennie « Microsoft » qui s’achève nous aura vu essayer, avec plus ou moins de succès, d’empêcher le contrôle de nos ordinateurs personnels, en y substituant du logiciel propriétaire par du logiciel libre.

La décennie « Google » qui s’annonce risque fort d’être celle des tentatives pour empêcher le contrôle d’Internet, en ne laissant plus nos données personnelles sur des serveurs privés mais sur nos propres serveurs personnels.

Remarque : à propos d’Eben Moglen, nous vous rappelons l’existence d’une conférence que nous considérons parmi les plus importantes jamais présentées par la communauté du Libre.

Une interview d’Eben Moglen – La liberté contre les données dans le nuage

Interview: Eben Moglen – Freedom vs. The Cloud Log

Eben Moglen interviewé par Glyn Moody – 17 mars 2010 – The H
(Traduction Framalang : Goofy, Simon Descarpentries et Barbidule)

Le logiciel libre a gagné : presque tous les poids lourds du Web les plus en vue comme Google, Facebook et Twitter, fonctionnent grâce à lui. Mais celui-ci risque aussi de perdre la partie, car ces mêmes services représentent aujourd’hui une sérieuse menace pour notre liberté, en raison de l’énorme masse d’informations qu’ils détiennent sur nous, et de la surveillance approfondie que cela implique.

Eben Moglen est sûrement mieux placé que quiconque pour savoir quels sont les enjeux. Il a été le principal conseiller juridique de la Free Software Foundation pendant 13 ans, et il a contribué à plusieurs versions préparatoires de la licence GNU GPL. Tout en étant professeur de droit à l’école de droit de Columbia, il a été le directeur fondateur du Software Freedom Law Center (Centre Juridique du Logiciel Libre). Le voici aujourd’hui avec un projet ambitieux pour nous préserver des entreprises de services en ligne qui, bien que séduisantes, menacent nos libertés. Il a expliqué ce problème à Glyn Moody, et comment nous pouvons y remédier.

Glyn Moody : Quelle est donc cette menace à laquelle vous faites face ?

Eben Moglen : Nous sommes face à une sorte de dilemme social qui vient d’une dérive dans la conception de fond. Nous avions un Internet conçu autour de la notion de parité – des machines sans relation hiérarchique entre elles, et sans garanties quant à leur architectures internes et leur comportements, mises en communication par une série de règles qui permettaient à des réseaux hétérogènes d’être interconnectés sur le principe admis de l’égalité de tous.

Sur le Web, les problèmes de société engendrés par le modèle client-serveur viennent de ce que les serveurs conservent dans leur journaux de connexion (logs) les traces de toute activité humaine sur le Web, et que ces journaux peuvent être centralisés sur des serveurs sous contrôle hiérarchisé. Ces traces deviennent le pouvoir. À l’exception des moteurs de recherche, que personne ne sait encore décentraliser efficacement, quasiment aucun autre service ne repose vraiment sur un modèle hiérarchisé. Ils reposent en fait sur le Web – c’est-à-dire le modèle de pair-à-pair non hiérarchisé créé par Tim Berners-Lee, et qui est aujourd’hui la structure de données dominante dans notre monde.

Les services sont centralisés dans un but commercial. Le pouvoir des traces est monnayable, parce qu’elles fournissent un moyen de surveillance qui est intéressant autant pour le commerce que pour le contrôle social exercé par les gouvernements. Si bien que le Web, avec des services fournis suivant une architecture de base client-serveur, devient un outil de surveillance autant qu’un prestataire de services supplémentaires. Et la surveillance devient le service masqué, caché au cœur de tous les services gratuits.

Le nuage est le nom vernaculaire que nous donnons à une amélioration importante du Web côté serveur – le serveur, décentralisé. Au lieu d’être une petite boîte d’acier, c’est un périphérique digital qui peut être en train de fonctionner n’importe où. Ce qui signifie que dans tous les cas, les serveurs cessent d’être soumis à un contrôle légal significatif. Ils n’opèrent plus d’une manière politiquement orientée, car ils ne sont plus en métal, sujets aux orientations localisées des lois. Dans un monde de prestation de services virtuels, le serveur qui assure le service, et donc le journal qui provient du service de surveillance induit, peut être transporté sur n’importe quel domaine à n’importe quel moment, et débarrassé de toute obligation légale presque aussi librement.

C’est la pire des conséquences.

GM : Est-ce qu’un autre facteur déclenchant de ce phénomène n’a pas été la monétisation d’Internet, qui a transféré le pouvoir à une entreprise fournissant des services aux consommateurs ?

EM : C’est tout à fait exact. Le capitalisme a aussi son plan d’architecte, qu’il rechigne à abandonner. En fait, ce que le réseau impose surtout au capitalisme, c’est de l’obliger à reconsidérer son architecture par un processus social que nous baptisons bien maladroitement dés-intermédiation. Ce qui correspond vraiment à la description d’un réseau qui contraint le capitalisme à changer son mode de fonctionnement. Mais les résistances à ce mouvement sont nombreuses, et ce qui nous intéresse tous énormément, je suppose, quand nous voyons l’ascension de Google vers une position prééminente, c’est la façon dont Google se comporte ou non (les deux à la fois d’ailleurs) à la manière de Microsoft dans sa phase de croissance. Ce sont ces sortes de tentations qui s’imposent à vous lorsque vous croissez au point de devenir le plus grand organisme d’un écosystème.

GM : Pensez-vous que le logiciel libre a réagi un peu lentement face au problème que vous soulevez ?

EM : Oui, je crois que c’est vrai. Je pense que c’est difficile conceptuellement, et dans une large mesure cette difficulté vient de ce que nous vivons un changement de génération. À la suite d’une conférence que j’ai donnée récemment, une jeune femme s’est approchée et m’a dit : « j’ai 23 ans, et aucun de mes amis ne s’inquiète de la protection de sa vie privée ». Eh bien voilà un autre paramètre important, n’est-ce pas ? – parce que nous faisons des logiciels aujourd’hui en utilisant toute l’énergie et les neurones de gens qui ont grandi dans un monde qui a déjà été touché par tout cela. Richard et moi pouvons avoir l’air un peu vieux jeu.

GM : Et donc quelle est la solution que vous proposez ?

EM : Si nous avions une classification des services qui soit véritablement défendable intellectuellement, nous nous rendrions compte qu’un grand nombre d’entre eux qui sont aujourd’hui hautement centralisés, et qui représentent une part importante de la surveillance contenue dans la société vers laquelle nous nous dirigeons, sont en fait des services qui n’exigent pas une centralisation pour être technologiquement viables. En réalité ils proposent juste le Web dans un nouvel emballage.

Les applications de réseaux sociaux en sont l’exemple le plus flagrant. Elles s’appuient, dans leurs métaphores élémentaires de fonctionnement, sur une relation bilatérale appelée amitié, et sur ses conséquences multilatérales. Et elles sont complètement façonnées autour de structures du Web déjà existantes. Facebook c’est un hébergement Web gratuit avec des gadgets en php et des APIs, et un espionnage permanent – pas vraiment une offre imbattable.

Voici donc ce que je propose : si nous pouvions désagréger les journaux de connexion, tout en procurant aux gens les mêmes fonctionnalités, nous atteindrions une situation Pareto-supérieure. Tout le monde – sauf M. Zuckerberg peut-être – s’en porterait mieux, et personne n’en serait victime. Et nous pouvons le faire en utilisant ce qui existe déjà.

Le meilleur matériel est la SheevaPlug, un serveur ultra-léger, à base de processeur ARM (basse consommation), à brancher sur une prise murale. Un appareil qui peut être vendu à tous, une fois pour toutes et pour un prix modique ; les gens le ramènent à la maison, le branchent sur une prise électrique, puis sur une prise réseau, et c’est parti. Il s’installe, se configure via votre navigateur Web, ou n’importe quelle machine disponible au logis, et puis il va chercher toutes les données de vos réseaux sociaux en ligne, et peut fermer vos comptes. Il fait de lui-même une sauvegarde chiffrée vers les prises de vos amis, si bien que chacun est sécurisé de façon optimale, disposant d’une version protégée de ses données chez ses amis.

Et il se met à faire toutes les opérations que nous estimons nécessaires avec une application de réseau social. Il lit les flux, il s’occupe du mur sur lequel écrivent vos amis – il rend toutes les fonctionnalités compatibles avec ce dont vous avez l’habitude.

Mais le journal de connexion est chez vous, et dans la société à laquelle j’appartiens au moins, nous avons encore quelques vestiges de règles qui encadrent l’accès au domicile privé : si des gens veulent accéder au journal de connexion ils doivent avoir une commission rogatoire. En fait, dans chaque société, le domicile privé de quelqu’un est presque aussi sacré qu’il peut l’être.

Et donc, ce que je propose basiquement, c’est que nous construisions un environnement de réseau social reposant sur les logiciels libres dont nous disposons, qui sont d’ailleurs déjà les logiciels utilisés dans la partie serveur des réseaux sociaux; et que nous nous équipions d’un appareil qui inclura une distribution libre dont chacun pourra faire tout ce qu’il veut, et du matériel bon marché qui conquerra le monde entier que nous l’utilisions pour ça ou non, parce qu’il a un aspect et des fonctions tout à fait séduisantes pour son prix.

Nous prenons ces deux éléments, nous les associons, et nous offrons aussi un certain nombre d’autres choses qui sont bonnes pour le monde entier. Par exemple, pouvoir relier automatiquement chaque petit réseau personnel par VPN depuis mon portable où que je sois, ce qui me procurera des proxies chiffrés avec lesquels mes recherches sur le Web ne pourront pas être espionnées. Cela signifie que nous aurons des masses d’ordinateurs disponibles pour ceux qui vivent en Chine ou dans d’autres endroits du monde qui subissent de mauvaises pratiques. Ainsi nous pourrons augmenter massivement l’accès à la navigation libre pour tous les autres dans le monde. Si nous voulons offrir aux gens la possibilité de profiter d’une navigation anonymisée par un routage en oignon, c’est avec ce dispositif que nous le ferons, de telle sorte qu’il y ait une possibilité crédible d’avoir de bonnes performances dans le domaine.

Bien entendu, nous fournirons également aux gens un service de courriels chiffrés – permettant de ne pas mettre leur courrier sur une machine de Google, mais dans leur propre maison, où il sera chiffré, sauvegardé chez tous les amis et ainsi de suite. D’ailleurs à très long terme nous pourrons commencer à ramener les courriels vers une situation où, sans être un moyen de communication privée, ils cesseront d’être des cartes postales quotidiennes aux services secrets.

Nous voudrions donc aussi frapper un grand coup pour faire avancer de façon significative les libertés fondamentales numériques, ce qui ne se fera pas sans un minimum de technicité.

GM : Comment allez-vous organiser et financer un tel projet, et qui va s’en occuper ?

EM : Avons-nous besoin d’argent ? Bien sûr, mais de petites sommes. Avons-nous besoin d’organisation ? Bien sûr, mais il est possible de s’auto-organiser. Vais-je aborder ce sujet au DEF CON cet été, à l’Université de Columbia ? Oui. Est-ce que M. Shuttleworth pourrait le faire s’il le voulait ? Oui encore. Ça ne va pas se faire d’un coup de baguette magique, ça se fera de la manière habituelle : quelqu’un va commencer à triturer une Debian ou une Ubuntu ou une autre distribution, et va écrire du code pour configurer tout ça, y mettre un peu de colle et deux doigts de Python pour que ça tienne ensemble. D’un point de vue quasi capitaliste, je ne pense pas que ce soit un produit invendable. En fait, c’est un produit phare, et nous devrions en tout et pour tout y consacrer juste un peu de temps pour la bonne cause jusqu’à ce que soit au point.

GM : Comment allez-vous surmonter les problèmes de masse critique qui font qu’on a du mal à convaincre les gens d’adopter un nouveau service ?

EM : C’est pour cela que la volonté constante de fournir des services de réseaux sociaux interopérables est fondamentale.

Pour le moment, j’ai l’impression que pendant que nous avancerons sur ce projet, il restera obscur un bon moment. Les gens découvriront ensuite qu’on leur propose la portabilité de leur réseau social. Les entreprises qui gèrent les réseaux sociaux laissent en friche les possibilités de leurs propres réseaux parce que tout le monde veut passer devant M. Zuckerberg avant qu’il fasse son introduction en bourse. Et c’est ainsi qu’ils nous rendront service, parce qu’ils rendront de plus en plus facile de réaliser ce que notre boîte devra faire, c’est-à-dire se connecter pour vous, rapatrier toutes vos données personnelles, conserver votre réseau d’amis, et offrir tout ce que les services existants devraient faire.

C’est comme cela en partie que nous inciterons les gens à l’utiliser et que nous approcherons la masse critique. D’abord, c’est cool. Ensuite, il y a des gens qui ne veulent pas qu’on espionne leur vie privée. Et puis il y a ceux qui veulent faire quelque chose à propos de la grande e-muraille de Chine, et qui ne savent pas comment faire. En d’autres termes, je pense qu’il trouvera sa place dans un marché de niches, comme beaucoup d’autres produits.

GM : Alors que le marché des mobiles est en train de décoller dans les pays émergents, est-ce qu’il ne vaudrait pas mieux demander aux téléphones portables de fournir ces services ?

EM : Sur le long terme, il existe deux endroits où vous pouvez raisonnablement penser stocker votre identité numérique : l’un est l’endroit où vous vivez, l’autre est dans votre poche. Et un service qui ne serait pas disponible pour ces deux endroits à la fois n’est probablement pas un dispositif adapté.

A la question « pourquoi ne pas mettre notre serveur d’identité sur notre téléphone mobile ? », ce que je voudrais répondre c’est que nos mobiles sont très vulnérables. Dans la plupart des pays du monde, vous interpellez un type dans la rue, vous le mettez en état d’arrestation pour un motif quelconque, vous le conduisez au poste, vous copiez les données de son téléphone portable, vous lui rendez l’appareil, et vous l’avez eu.

Quand nous aurons pleinement domestiqué cette technologie pour appareils nomades, alors nous pourrons commencer à faire l’inverse de ce que font les opérateurs de réseaux. Leur activité sur la planète consiste à dévorer de d’Internet, et à excréter du réseau propriétaire. Ils devront faire l’inverse si la technologie de la téléphonie devient libre. Nous pourrons dévorer les réseaux propriétaires et essaimer l’Internet public. Et si nous y parvenons, la lutte d’influence va devenir bien plus intéressante.




À propos de la formation aux logiciels libres, par Jean-Pierre Archambault

Extra Ketchup - CC by-sa« Le libre est à la fois une réponse concrète à des problèmes concrets et un outil de réflexion pour penser les problématiques générales de l’immatériel et la connaissance », nous dit ici Jean-Pierre Archambault, qui n’en est pas à son premier article sur le Framablog.

C’est pourquoi la question de la formation aux logiciels libres est l’un des enjeux majeurs de l’éducation de demain[1].

Il s’agit bien entendu d’être capable de les utiliser. Mais bien au-delà il s’agit aussi et surtout de comprendre qu’ils s’inscrivent dans une culture. Une culture de la collaboration, de la création, de l’autonomie et du partage qui ne doit plus être absent du cursus scolaire de nos étudiants.

À propos de la formation aux logiciels libres

La question est souvent posée de savoir s’il y a une spécificité de la formation aux logiciels libres. La licence d’un programme n’est pas forcément choisie lors de son écriture. Un traitement de texte reste un traitement de texte. Et une procédure récursive n’est pas intrinsèquement copyleft ou copyright. Nous allons examiner la question du point de vue des logiciels, de la culture informatique, des méthodes organisationnelles de réalisation des logiciels libres, de la portée sociétale du libre et des besoins pédagogiques des enseignants.

Former aux outils logiciels

Qu’il faille former à Linux comme on forme à Unix, Mac OS X ou Vista va de soi. Idem pour OpenOffice, FireFox ou The Gimp. Ce sont des systèmes et des applications qu’il faut connaître pour s’en servir « intelligemment ». Mais un système d’exploitation, un traitement de texte ou un tableur sont des outils conceptuels compliqués et complexes de par les objets qu’ils traitent et la multitude de leurs fonctionnalités. Il faut veiller à ne pas entrer dans le tunnel sans fin de la formation à la version n d’un progiciel, puis n+1, d’un usager « presse-boutons ». On connaît ce genre de pratiques pour des produits propriétaires dont les versions défilent à grande vitesse, enrichies de fonctionnalités dont l’utilisateur lambda n’a pas nécessairement besoin. Mais qui peuvent présenter des avantages financiers et des rentes de situation pour des officines de formation. Il faut donc pouvoir s’appuyer sur une appropriation initiale des concepts généraux des traitements de texte, tableurs et gestionnaires de bases de données.

L’informatique, le numérique étant partout dans la société, la question posée est celle de la culture générale de l’homme, du travailleur et du citoyen du 21è siècle. Il s’agit là des trois missions fondamentales des systèmes éducatifs. Le libre, c’est le code source que l’on connaît. Et pas la « boîte noire » miraculeuse qui fait tout pour vous : curieuse d’ailleurs cette représentation mentale qu’ont certains de la prothèse du cerveau qu’est l’ordinateur, que l’on pourrait utiliser sans la connaître ni la comprendre. De ce point de vue, le libre s’inscrit pleinement dans la vision qui considère que les usagers de l’informatique doivent comprendre et maîtriser les outils conceptuels qu’ils utilisent. Les créateurs d’informatique aussi, bien évidemment.

Maurice Nivat nous invite opportunément à relire André Leroy Gourhan qui nous a appris que l’outil n’est rien sans le geste qui l’accompagne et l’idée que se fait l’utilisateur de l’outil de l’objet à façonner[2]. Et d’ajouter : « Ce qui était vrai de nos lointains ancêtres du Neanderthal, quand ils fabriquaient des lames de rasoir en taillant des silex est toujours vrai : l’apprentissage de l’outil ne peut se faire sans apprentissage du geste qui va avec ni sans compréhension du mode de fonctionnement de l’outil, de son action sur la matière travaillée, ni sans formation d’une idée précise de la puissance de l’outil et de ses limites ».

Enseigner l’informatique pour donner une culture générale

Il faut donc former à l’outil. Il faut donner une culture générale informatique à l’ « honnête homme » de notre époque. Or, si une option d’informatique générale a existé au lycée dans les années quatre-vingt, elle a été supprimée au début des années quatre-vingt-dix. La ligne pédagogique selon laquelle les apprentissages doivent se faire à travers les usages de l’outil informatique dans les différentes disciplines existantes, et cela suffit, l’avait emporté, pour des raisons diverses (elle prendra la forme du Brevet informatique et internet, le B2i). Une longue « traversée du désert » commençait. Pour autant, des voix se faisaient entendre. Elles disaient que l’informatique étant partout (dans les autres disciplines scolaires), elle devait être quelque part en particulier, à un moment donné, sous la forme d’une discipline scolaire en tant que telle car la seule utilisation d’un outil, matériel ou conceptuel, ne suffit pas pour le maîtriser.

Gérard Berry, qui avait intitulé sa leçon inaugurale au Collège de France « Pourquoi et comment le monde devient numérique »[3], déclarait dans une interview au journal Le Monde, le 15 avril 2009 : « Du point de vue de l’enseignement de l’informatique, la France rentre résolument dans le XXe siècle. »[4]. Il regrettait que l’« on confonde la notion de computer literacy avec celle de computer sciences ». Et il ajoutait : « Dans les établissements scolaires, on a fait le choix d’enseigner les usages. C’est très insuffisant. C’est la différence entre apprendre à conduire et comprendre comment marche une voiture. Les jeunes quittent le lycée sans connaissance de la science informatique. C’est une aberration ! » .

L’association EPI (Enseignement Public et Informatique) et le groupe ITIC de l’ASTI ont pris ces dernières années de nombreuses initiatives en faveur d’un enseignement de l’informatique au lycée sous la forme d’une discipline d’enseignement général : audiences auprès des autorités de la République, tables rondes, séminaires, textes divers, propositions de programmes scolaires pour le lycée…[5]. Un tel enseignement doit comporter des apprentissages corrrespondant aux grands domaines de la science informatique, à savoir l’algorithmique et la programmation, la théorie de l’information, les machines et leurs architectures, les réseaux, Internet, les bases de données.

Dans le cadre de la réforme du lycée, un enseignement de spécialité optionnel « Informatique et sciences du numérique » a été créé en Terminale S pour la rentrée 2012. Dans son discours devant le Conseil supérieur de l’Éducation, le 10 décembre 2009, s’exprimant sur cette réforme du lycée, Luc Chatel a notamment déclaré : « A l’heure de la société de l’information et de la connaissance, la France a besoin plus que jamais de compétences scientifiques en informatique. Aujourd’hui l’informatique représente 30 % de la recherche et développement dans le monde. Aujourd’hui l’informatique est partout. Nous ne pouvons pas manquer ce rendez-vous majeur et c’est la raison pour laquelle nous proposons en série S une spécialisation « informatique et sciences du numérique » »[6].

Tous ceux qui se sont prononcés en faveur d’une telle mesure se félicitent. Parmi ceux-ci, et ce n’est pas un hasard, figure l’APRIL (« Promouvoir et défendre le logiciel libre »). Dans un communiqué de presse, le 5 janvier 2010, l’association, rappelant qu’«elle a toujours été favorable à ce que l’informatique soit une composante à part entière de la culture générale scolaire de tous les élèves sous la forme notamment d’un enseignement d’une discipline scientifique et technique », souligne « cette première et importante avancée signe d’une certaine rupture »[7]. Elle mentionne que « l’expérience de ces dernières années a clairement montré que le B2i ne fonctionnait pas. Son échec prévisible tient notamment à des problèmes insolubles d’organisation, de coordination et de cohérence des contributions supposées et spontanées des disciplines enseignées. De plus ne sont pas explicitées les connaissances scientifiques et techniques correspondant aux compétences visées. »

Le rapport de la mission parlementaire de Jean-Michel Fourgous, député des Yvelines, sur la modernisation de l’école par le numérique, « Réussir l’école numérique », remis au Ministre de l’Éducation nationale Luc Chatel le 15 février dernier, va dans le même sens[8]. Il met en évidence la portée de cet enseignement de l’informatique : « En créant une matière Informatique et sciences du numérique en terminale, le gouvernement français ouvre enfin la voie de l’apprentissage du numérique et redonne à l’école son rôle d’éducateur. » Et rappelle qu’en définitive le B2i ne correspond pas aux enjeux car « il ne permet pas d’acquérir une culture informatique, permettant de comprendre les techniques sous-tendant le fonctionnement des divers outils numériques… ne prenant pas en compte les connaissances techniques de base nécessaires ».

Le libre, une science

Si le libre est une composante à part entière de l’informatique, il n’en comporte pas moins des spécificités, qui doivent donner lieu à des enseignements dédiés, notamment dans le Supérieur. Il existe une « science du logiciel libre ». Voir l’article de Roberto Di Cosmo auquel nous nous référons ci-après[9].

Si les collaborations avec des partenaires dispersés géographiquement ne datent pas d’aujourd’hui, avec Internet la situation a radicalement changé. La question est posée de savoir sur quels principes scientifiques se fondent des projets comme Wikipédia ou Linux, exemples extrêmes de travail massivement collaboratif. Et de savoir comment en améliorer la stabilité et la fiabilité. Dans le développement du noyau Linux, chaque erreur, ou chaque fonction manquante ou obsolète, peut entraîner des dysfonctionnements majeurs rendant l’ensemble inutilisable. Malgré tout, le « phénomène Linux » a abouti à des versions de plus en plus complètes, fonctionnelles et stables. En fait, le succès des logiciels libres de qualité reposent sur des approches méthodologiques très structurées. L’organisation modulaire du code source, la sélection sévère des contributions et l’existence d’un noyau central de développeurs s’assurant de la cohérence de l’ensemble jouent un rôle essentiel dans la réussite de Linux. Mais la taille atteinte par Linux est telle que l’on est aux limites de ce qui peut être maîtrisé en s’appuyant sur les capacités organisationnelles des communautés. Les logiciels libres sont donc devenus un champ d’étude à part entière pour les informaticiens. Il faut résoudre des questions scientifiques (par exemple, comment gérer rapidement la modification d’un appel de fonction résultant de l’ajout, du changement ou de la suppression d’un paramètre ?). Le projet Coccinelle a fourni une contribution majeure en introduisant la notion de « patch sémantique ». Le projet Mancoosi vise à développer des algorithmes efficaces pour permettre aux utilisateurs d’exprimer leurs préférences lors de mises à jour et d’obtenir des installations personnalisées.

Toutes ces actions de recherche se traduiront dans des enseignements universitaires, pour le libre mais aussi l’informatique en général.

Penser l’immatériel

Dans leur rapport sur l’économie de l’immatériel, Maurice Lévy et Jean-Pierre Jouyet attirent l’attention sur le fait que, dans cette économie, « l’incapacité à maîtriser les TIC constituera (…) une nouvelle forme d’illettrisme, aussi dommageable que le fait de ne pas savoir lire et écrire ». Ils mettent en évidence les obstacles qui freinent l’adaptation de notre pays à l’économie de l’immatériel, notamment « notre manière de penser », invitant à changer un certain nombre de « nos réflexes collectifs fondés sur une économie essentiellement industrielle »[10]. Il faut former à l’informatique.

John Sulston, prix Nobel de médecine, évoquant en décembre 2002 dans les colonnes du Monde Diplomatique les risques de privatisation du génome humain, disait que « les données de base doivent être accessibles à tous, pour que chacun puisse les interpréter, les modifier et les transmettre, à l’instar du modèle de l’open source pour les logiciels ». Il existe une transférabilité de l’approche du libre à la réalisation et la mise à disposition des biens informationnels en général. On a pu le constater à l’occasion des vifs débats qui ont accompagné la transposition par le Parlement en 2006 de la directive européenne sur les Droits d’auteur et les droits voisins dans la société de l’information (DADVSI), ou plus récemment avec la loi Hadopi. Le libre, ses approches et ses méthodes, ses façons efficaces de produire des biens de connaissance qui relèvent du paradigme de la recherche scientifique, ses modèles économiques et ses réponses en termes de propriété intellectuelle, est omniprésent dans les problématiques de l’immatériel. Il faut former à l’informatique libre. Les élèves et les étudiants, travailleurs et citoyens d’aujourd’hui ou de demain, doivent en avoir entendu parler lors de leur scolarité et de leurs études. Le libre est à la fois une réponse concrète à des problèmes concrets et un outil de réflexion pour penser les problématiques générales de l’immatériel et la connaissance.


Production collaborative de ressources pédagogiques

La création de logiciels libres est un travail collaboratif : cette manière de créer du savoir à plusieurs est particulièrement importante si nous voulons préparer les plus jeunes à entrer dans une société du savoir partagé. Certains d’entre eux seront enseignants. Les enseignants ont besoin de documents, de contenus pédagogiques. Pour se former et pour enseigner. Et ils sont bien placés pour les concevoir et les produire eux-mêmes. L’on sait la transférabilité de l’approche du logiciel libre à la réalisation des contenus pédagogiques. Tout le monde, ou presque, connaît les réalisations remarquables de l’association Sésamath[11], « vaisseau-amiral » de la production collaborative de ressources pédagogiques libres, qui a obtenu un prix spécial de l’UNESCO.

Et il faut attacher une licence à un contenu produit. Les Creative Commons sont de mieux en mieux connues mais il reste du chemin à parcourir. Il faut faire connaître leurs modalités juridiques au service de l’objectif général, clairement exprimé, de favoriser la diffusion et l’accès pour tous aux oeuvres de l’esprit, en conciliant les droits légitimes des auteurs et des usagers. Creative Commons renverse le principe de l’autorisation obligatoire. Il permet à l’auteur d’autoriser par avance, et non au coup par coup, certains usages et d’en informer le public. Il est autorisé d’autoriser. C’est incontournable à l’heure d’Internet et du numérique car, sinon, toute vie intellectuelle serait impossible si l’on ne pouvait parler librement des oeuvres et s’il fallait, pour la moindre citation, demander l’autorisation à l’auteur ou à ses héritiers.

Que de nombreux autres enseignants, à la manière de Sésamath, fabriquent des contenus libres dans des démarches de mutualisation et de coopération est une raison supplémentaire de former au libre.

Jean-Pierre Archambault
CNDP-CRDP de Paris, coordonnateur du pôle de compétences logiciels libres du SCEREN

Notes

[1] Extra Ketchup (Creative Commons By-Sa)

[2] « L’informatique, science de l’outil », Maurice Nivat (à paraître dans EpiNet 124) http://www.epi.asso.fr/

[3] Leçon inaugurale le 17 janvier 2008, Cours Séminaires du Collège de France, par Gérard Berry titulaire de la chaire d’innovation technologique Liliane Bettencourt http://www.college-de-france.fr/default/EN/all/inn_tec2007/

[4] « Gérard Berry : L’informatique est une science », de Christian Bonrepaux dans le Cahier Éducation du Monde daté du 16 avril 2009. http://www.lemonde.fr/societe/article/2009/04/15/gerard-berry-l-informatique-est-une-science_1181041_3224.html

[5] $http://www.epi.asso.fr/blocnote/blocsom.htm#itic On pourra aussi se référer, pour les élèves à partir de l’école primaire, à la version francaise de « Computer Science Unplugged » : http://interstices.info/jcms/c_47072/enseigner-et-apprendre-les-sciences-informatiques-a-l-ecole

[6] http://www.education.gouv.fr/cid49972/reforme-du-lycee-discours-devant-le-conseil-superieur-de-l-education.html

[7] http://www.epi.asso.fr/revue/docu/d1001a.htm

[8] http://www.reussirlecolenumerique.fr/

[9] « La science du logiciel libre », Roberto Di Cosmo, La Recherche n°436, décembre 2009 – Professeur à l’Université Paris 7, Roberto Di Cosmo « porte » le projet de centre de recherche sur le logiciel libre de l’INRIA.

[10] Rapport remis à Thierry Breton en décembre 2006.

[11] http://www.sesamath.net




Inauguration du CF2L – Allocution du président de l’Université Paris Diderot

Le 5 février 2010 était inauguré à l’Université Paris Diderot le premier Centre de Formation Logiciels Libres (ou CF2L) dans le cadre de l’Université numérique Paris Île-de-France (UNPIdF).

Nous en avions annoncé ici-même la création et participé à diffuser le programme.

Cet évènement témoigne de l’intérêt croissant de l’université en général et de celles d’Île-de-France en particulier pour le logiciel libre. J’en veux pour preuve supplémentaire la présence de deux présidents et un vice-président d’université lors de cette inauguration.

Partie prenante de la formation, Framasoft était représenté par Pierre-Yves Gosset et moi-même. D’ordinaire les traditionnels discours officiels ont quelque chose de lisse et de convenu. Or nous avons été très agréablement surpris par l’acuité et la justesse des propos tenus ce soir-là. C’est aussi à cela que l’on mesure le chemin parcouru.

Mention spéciale à Vincent Berger, président de l’Université Paris Diderot et hôte de la manifestation, dont l’intervention m’a tant et si bien marquée que je n’ai pu m’empêcher de l’aborder pour lui demander l’aimable autorisation de la reproduire sur le Framablog.

Qu’il en soit ici chaleureusement remercié. Pour son accord, mais aussi et surtout pour être à la tête d’une université qui fait la part belle à un logiciel libre malicieusement associé ici à un oxymore.

CF2L - Inauguration - Jean-Baptiste Yunes

De gauche à droite sur le photographie ci-dessus[1] :

  • Michel Moreau-Belliard – Chef de projet de l’Université Numérique Paris Île-de-France (UNPÎdF)
  • Vincent Berger – Président de l’Université Paris Diderot
  • Jean-Claude Colliard – Président de l’Université Paris 1 Panthéon-Sorbonne et de l’Université Numérique Paris Île-de-France (UNPÎdF)
  • Arnaud Ducruix – Vice-Président de l’Université Paris Descartes, représentant Axel Kahn, Président de l’Université Paris Descartes

Intervention Président Berger

Inauguration du Centre de Formation aux Logiciels Libres
Vendredi 5 février 2010
Salle des thèses, Université Paris Diderot

Mesdames et Messieurs,
Chers collègues,

Nous le savons tous et vous le savez mieux que quiconque, la société de l’information qui est la nôtre est une société de la circulation : circulation des savoirs, circulation des données, circulation des signes. Qui a accès aux moyens de cette communication peut espérer prendre part à cette société de l’information et en être un acteur.

On sait combien l’économie du partage des savoirs est aujourd’hui un enjeu complexe. On sait aussi combien le large accès aux moyens de l’information est un enjeu politique au sens le plus large et le plus noble du terme. L’accès à ces moyens d’information conditionne la réalité de l’exercice démocratique dans un monde aux cultures et aux pratiques toujours plus intégrées et globalisées.

Dans ce contexte, on sait quel est le rôle charnière de l’université. Sa mission hier comme aujourd’hui est de garantir l’accès du plus grand nombre à des savoirs et à des compétences complexes. Son rôle dans l’économie de la connaissance et de l’information lui enjoint de jouer un rôle ambitieux et volontaire dans la promotion et la diffusion d’une culture du partage.

En cela, la pratique universitaire — qu’elle soit pédagogique ou scientifique, qu’elle se déploie dans une salle de TD ou un laboratoire — participe du même esprit que celle du logiciel libre. La dynamique collégiale, l’énergie collective qui ont rendu le développement du logiciel libre possible relève de la même éthique du partage que celle de la recherche et de l’enseignement.

Les outils numériques ouverts ont connu un essor tel qu’aujourd’hui ils répondent à la quasi intégralité de nos besoins en technologie informatique. Accompagner leur développement, former les utilisateurs et les développeurs à leur utilisation et à leur développement, est désormais aussi la tâche de l’université. Le Centre de Formation aux Logiciels Libres (CF2L) répond à cet impératif.

Dans sa conception et sa gestation, ce Centre est aussi exemplaire d’une autre forme de dynamique collaborative que nous défendons aussi : celle qui doit permettre à des universités de dépasser leur logique propre pour faire advenir des synergies porteuse d’avenir, porteuse de nouveau. C’est le cas de l’Université Numérique Paris Ile de France, pilotée par l’université Paris 1 – Panthéon Sorbonne, dont l’une des actions est d’offrir en mutualisation des formations à destination des personnels, quels qu’ils soient, appartenant aux universités franciliennes. C’est aussi le cas du RTC (Regional Training Center), aujourd’hui hébergé par l’Université Paris Descartes, une initiative de l’Université numérique et d’Apple pour former les personnels des universités de la région parisienne aux usages du numérique. En 2011 devrait ouvrir aussi un centre de formation aux outils Microsoft.

Le Centre de Formation que nous inaugurons aujourd’hui s’inscrit dans ce même esprit. Il témoigne de l’investissement ancien de notre établissement dans l’usage et la défense du logiciel libre. L’UFR d’informatique a eu, dès le début des années 80, une action très volontariste dans l’usage et la promotion du numérique ouvert, avec la pratique d’Unix par exemple. L’Université a, dès les années 90 promu l’usage systématique de systèmes d’exploitation libres au sein du Service Commun de Ressources Informatiques Pédagogiques et Technologiques (le SCRIPT), dirigé aujourd’hui par Olivier Cardoso. De nombreux enseignements s’appuient sur des logiciels libres.

J’ouvre ici une parenthèse, j’aime beaucoup l’expression « logiciel libre » qui a le charme des oxymores, comme « la force tranquille . Je me rappelle que lorsque j’étais étudiant en Maths spé, on employait une technique d’intégration qui répondait au nom épatant de « méthode de la variation de la constante ». Le programme d’une révolution, en somme.

Le « logiciel libre » ressemble à la variation de la constante, parce que justement, le logiciel est une succession d’actions élémentaires qui sont censées s’enchaîner « logiquement », c’est-à-dire tout le contraire de la liberté. Je me rappelle aussi de mon sujet de philosophie au baccalauréat, qui s’intitulait « l’acte libre existe-il ? ». Je ne soupçonnais pas un instant que cette courte question deviendrait, bien au delà du petit tracas d’une dissertation de trois heures, le questionnement de toute une vie. Récemment, dans le cadre des discussions sur l’attribution des primes à l’université, nous avons été amenés à discuter de l’excellence, du mérite. Nous nous sommes vite rendu compte que la complexité de la discussion résidait dans le fait que nous touchions ici foncièrement à la question de la liberté. Si quelqu’un réussit davantage dans ses recherches simplement parce qu’il est plus intelligent, parce que le logiciel de ses gènes l’a programmé à être doué de capacités hors normes, peut-on parler de mérite ? Si c’est au contraire son éducation qui l’a programmé à faire preuve des qualités nécessaires pour atteindre l’excellence, où est le mérite ? Le mérite n’est-il pas lié intimement à la possibilité d’un acte libre ? La vie dans son ensemble est-elle un enchaînement logiciel d’actions complexes mais logiques, où laisse-t-elle place à la libre construction de son destin ? Cette expression, le « logiciel libre », m’évoque donc cet éternel sujet de philosophie.

Mais revenons à notre inauguration. Le Centre de Formation implanté à Paris Diderot constitue la suite logique de cet investissement de longue date dans l’économie du logiciel libre. Développé en partenariat avec Paris Descartes, il est aussi un exemple concret des partenariats lancés entre nos deux établissements afin de renforcer notre action commune dans le paysage universitaire francilien et national.

On le sait la liberté a de nombreux visages. L’économie ouverte du logiciel libre est de celle qui permettront demain, comme aujourd’hui, un plus libre partage des compétences informatiques. Nous ne pouvons que nous féliciter de la création de ce centre et remercier tous les collègues qui ont travaillé à sa mise en place, dont Jean-Baptiste Yunès et Thierry Stoehr qui ont été la cheville ouvrière du projet et qui défendent avec une énergie inlassable le développement des TICE et du logiciel libre dans notre établissement.

L’action citoyenne de notre établissement passe aussi par le soutien à cette action et je souhaite réaffirmer que, parmi les nombreux chantiers qui sont les nôtres, le développement de ces technologies engage notre avenir pédagogique. Il engage aussi notre mission de diffusion des savoirs. De cette diffusion nous sommes aussi comptables avec vous.

Je vous remercie.

Notes

[1] Crédit photo : Université Paris Diderot




Mozilla, le H264 ne doit pas passer par toi !

CBS Fan - CC by-saOn l’a évoqué longuement dans un précédent billet, l’avenir de la vidéo en lecture continue sur le Web est à un tournant de son histoire. Mais plus encore que le logiciel libre, il est fort difficile de sensibiliser le grand public sur ce sujet il est vrai technique et complexe.

L’évènement qui redistribue les cartes est le passage progressif de tous les navigateurs à la nouvelle version 5 du HTML permettant de lire directement une vidéo. C’est une bonne nouvelle parce que nous allons enfin pouvoir nous affranchir du format Flash qui était fermé et nécessitait l’installation d’un plugin propriétaire dédié (et mal supporté sur des OS libres comme GNU/Linux).

Mais si le HTML5 autorise donc les navigateurs à lire directement une vidéo, elle ne dit rien sur le format (ou le codec) dans lequel doit être publiée cette vidéo. Or aujourd’hui deux formats bien différents font acte de candidature : le format Ogg Theora et le format H.264.

Le premier problème c’est que si le Ogg Theora est libre (et gratuit), le H.264 est breveté et demande plusieurs millions par an aux navigateurs qui voudraient l’inclure et le supporter[1].

Le second problème c’est qu’à l’heure actuelle la balance penche nettement en faveur du H.264 qui, avec la future version 9 d’Internet Explorer sera lu par tous les navigateurs sauf Mozilla et Opera.

Il y a alors un double risque. Celui de quitter un format breveté (Flash) pour un autre format breveté (H.264) et celui d’ostraciser les navigateurs Opera et surtout Firefox (qui a déjà fort à faire actuellement avec la concurrence inavouée mais bien réelle de Chrome).

La pression est alors clairement sur les épaules de Mozilla. La fondation va-t-elle persister à refuser le H.264 pour des raisons économiques mais surtout éthiques, en devenant en quelque sorte le porte-drapeau de l’Ogg Theora ? Ou bien va-t-elle abdiquer pour ne pas voir ses parts de marché grignoter par d’autres navigateurs, et c’en sera alors fini des espoirs suscités par le Ogg Theora ?

On sait que l’on peut compter sur Wikimedia (qui a ouvert tout récemment le très opportun site Let’s get video on Wikipedia). Mais qu’adviendra-t-il de Google qui a pour le moment adopté le H.264 pour YouTube alors que la firme peut potentiellement mettre tout le monde d’accord en proposant un troisième format issu d’une récente acquisition ?

Dans l’article traduit ci-dessous, le journaliste Thom Holwerda ne cache pas sa préférence : il souhaite voir Mozilla résister. Mais il nous rappelle fort justement que la décision est également suspendue au choix du format des utilisateurs et développeurs Web lorsqu’ils mettront en ligne leurs futures vidéos.

Au nom du « pragmatisme », certains voudraient privilégier le H.264 ? N’oublions pas que pour les mêmes raisons nous nous enchainâmes à Internet Explorer 6 qui fit stagner pendant de longues années le Web tout entier.

Mozilla : reste fidèle à tes idéaux, tiens-toi à l’écart de H264

Mozilla: Stick to Your Ideals, Shun H264

Thom Holwerda – 19 mars 2010 – OSNews.com
(Traduction Framalang : Antistress, Goofy et Quentin)

A présent que les caractéristiques d’Internet Explorer 9 ont été rendues publiques, nous connaissons mieux la position de Microsoft quant au codec vidéo à associer à la balise video de HTML5. Microsoft a choisi H264, un codec qu’il fournit déjà avec Windows de toute façon. Cela signifie que, Firefox et Opera mis à part, tous les principaux navigateurs prendront en charge le H264. D’aucuns y voient une raison pour que Mozilla abandonne ses idéaux et ajoute le support de H264. Je dis : Mozilla, reste fidèle à tes idéaux. Les dernières personnes à écouter en cette matière sont les développeurs Web.

« Mozilla devrait souscrire une licence d’utilisation de H264 »

Nous connaissons tous la situation de la vidéo via HTML5. Nous avons cette solution merveilleuse – une balise pour la vidéo aussi simple que pour les images – qui permet à chacun d’intégrer facilement des séquences vidéo sur son site Web sans avoir à recourir à la technologie propriétaire Flash. Il y a toutefois un problème.

Le problème est qu’il n’y a pas de codec standard pour HTML5. Les principaux compétiteurs sont H264 et Theora et il semble que ce dernier l’emporte pour le moment du côté des navigateurs. Une vidéo encodée avec Theora peut être vue à la fois des utilisateurs de Firefox, Chrome et Opera alors qu’avec H264 il vous manque les utilisateurs de Firefox et Opera. Si l’on considère que Firefox est, de loin, le plus répandu des navigateurs implémentant HTML5, encoder votre vidéo exclusivement en H264 revient à vous tirer une balle dans le pied.

Il y a une raison simple qui explique que Mozilla soit vent debout contre H264 : le codec est criblé de brevets. Cela signifie que, si vous utilisez le codec dans certaines parties du monde, vous vous exposez à devoir verser une redevance à la MPEG-LA qui gère les brevets de H264 (entre autres). Et, en effet, la MPEG-LA a clairement indiqué fin janvier que les utilisateurs finaux pouvaient eux aussi être la cible de contentieux relatifs aux brevets.

« J’aimerais aussi préciser que, bien que nos licences ne soient pas souscrites par les utilisateurs finaux, toute personne de la chaîne d’utilisation est responsable si un produit est utilisé sans licence » explique Allen Harkness, en charge des licences pour la MPEG-LA. « En conséquence, la redevance acquittée par le fournisseur d’un produit couvre l’utilisateur final, mais, lorsque la redevance n’a pas été acquittée, le produit est utilisé sans autorisation et toute personne de la chaîne (fournisseur ou utilisateur) peut en être tenue pour responsable ».

Étant donné que H264 est clairement incompatible avec les idéaux du logiciel libre, Mozilla a décidé de s’y opposer farouchement. Le refus d’Opera de souscrire une licence pour H264 n’a, de toute évidence, rien à voir avec un quelconque idéal (Opera étant un logiciel propriétaire après tout) mais la société norvégienne considère que le montant de la redevance est simplement trop élevé.

Apple pousse depuis longtemps H264 dans l’ensemble de ses logiciels et produits tandis que, du point de vue de Google, la redevance à acquitter pour avoir le droit d’utiliser H264 représente des clopinettes. Le dernier grand acteur à ne pas s’être prononcé était Microsoft qui, comme on pouvait s’y attendre, vient de choisir H264 simplement parce que la licence et le codec sont déjà inclus dans Windows. Le fait que des processeurs spécialisés dans le décodage de H264 soient disponibles sur les appareils portables constitue un autre atout tandis que Theora (ainsi que tout autre codec libre de brevet comme Dirac) ne peut se permettre ce luxe.

Du coup, des développeurs Web et autres pontes commencent à soutenir que Mozilla devrait rentrer dans le rang et souscrire une licence pour H264 sinon ils risquent de tuer la vidéo via HTML5. « J’ai des raisons de croire que la décision de Mozilla de ne pas prendre en charge les vidéos encodées en H264 dans la balise video de HTML5 à cause des nombreux brevets de ce codec est une mauvaise décision qui, à moins qu’ils ne changent d’avis, détruira tout espoir d’inaugurer une nouvelle ère où la vidéo serait accessible en ligne sans plugin » écrit Brian Crescimanno, un développeur Web qui est dans le métier depuis 1997.

Il explique qu’en campant sur ses positions, Mozilla va obliger les gens à continuer à utiliser Flash pour la vidéo vu que personne ne va encoder la vidéo deux fois uniquement pour qu’elle soit lue aussi par Firefox et Opera ; ils vont juste proposer aux utilisateurs de Firefox et Opera la vidéo encodée en H264 via Flash au lieu de ré-encoder la vidéo en Theora. Il fait remarquer également que Mozilla prenait en charge le format GIF du temps où il était propriétaire.

« Je conteste l’idée que être idéaliste soit votre raison d’être », écrit Crescimanno. « Je crois que votre responsabilité première en tant qu’éditeur d’un navigateur Web est de rendre le Web meilleur. C’est certainement ce que vous pensez sincèrement faire mais honnêtement, soyons réaliste, la seule chose que vous allez réussir c’est rendre la balise video de HTML5 inutilisable ».

Le billet de Crescimanno a été repris par John Gruber qui, rien de surprenant, abonde dans son sens : « par conséquent même ceux qui utilisent la dernière version de Firefox seront traités comme s’ils utilisaient un navigateur antique » explique Gruber. « L’intransigeance au nom de l’ouverture aura pour résultat que les utilisateurs de Firefox se verront proposer de la vidéo au moyen du plugin fermé Flash tandis qu’en coulisses la vidéo sera de toutes façons encodée en H264 ».

Gruber et Crescimanno soutiennent en fait que Mozilla devrait laisser son idéal de côté et se montrer pragmatique en implémentant le H264.

Au nom du pragmatisme

Petit retour en arrière. Il y dix ans de cela, le Web n’était pas encore la formidable source d’informations et de divertissements que nous connaissons aujourd’hui, il était à peine en train d’émerger. C’est ce moment qu’ont choisi les développeurs Web pour prendre au nom du « pragmatisme » une série de décisions d’une stupidité monumentale, décisions dont nous payons encore le prix une décennie plus tard.

Quand les développeurs Web se sont retrouvés face aux gigantesques parts de marché d’Internet Explorer 6, ils ne sont soucié de rien d’autre que de rendre les sites visibles pour cette triste version du navigateur, en faisant fi des standards au nom du « pragmatisme ». À cause de cette attitude, les autres navigateurs ont éprouvé les pires difficultés à concurrencer IE6, simplement parce que leurs utilisateurs ne pouvaient consulter leurs sites préférés optimisés pour IE6.

Dix ans plus tard, nous en voulons encore à Microsoft pour son Internet Explorer 6 qui aura rendu le Web dépendant à son égard (le nombre de sites spécifiques à IE est aujourd’hui devenu très faible mais pas nul) alors que la véritable raison pour laquelle IE est devenu si dominant et difficile à renverser est que les développeurs ne se sont pas donnés la peine de penser au delà du « pragmatisme » et de coder pour autre chose qu’IE.

Puis il y a eu Flash. Est-ce Microsoft qui nous a imposé Flash ? Est-ce Adobe qui nous a mis un revolver sur la tempe pour nous forcer à télécharger le plugin ? Non. Là encore ce sont les développeurs Web qui l’ont déployé partout sur le Web au nom du pragmatisme. Nous, les utilisateurs, ne décidons pas de télécharger Flash : nous y sommes forcés parce que les développeurs Web utilisent Flash pour tout et n’importe quoi, depuis les boutons jusqu’au lettres capitales illustrées.

Dix ans plus tard, Flash est devenu lui aussi un boulet qui entrave le Web. Les plateformes minoritaires comme Linux et Mac OS X n’ont pas suffisamment d’importance aux yeux d’Adobe pour l’inciter à développer correctement Flash dessus, sans parler de plateformes plus confidentielles encore, comme Syllable ou Haiku, qui n’ont pas du tout accès à Flash, rendant ainsi des sites aussi populaires que YouTube complètement inutilisables.

Qui allons-nous blâmer cette fois ? Je vois des développeurs Web et des blogueurs de renom comme Gruber s’en prendre à Adobe alors qu’en réalité ce sont les développeurs Web qui ont choisi Flash et l’ont rendu omniprésent sur le Web.

Et nous voilà à nouveau devant un problème similaire. Nous avons le choix pour le codec vidéo de HTML5 : l’un est libre, gratuit et n’est pas soumis à brevet, l’autre est breveté jusqu’à l’os et est tout sauf libre ou gratuit. Il y beaucoup de discussions pour savoir lequel des deux est de meilleure qualité, et vous trouverez des gens intelligents détaillant tests et arguments en faveur de l’un ou l’autre des deux codecs. Le seul avantage du H264 est, de toute évidence, le support matériel.

Et tandis que nous nous tenons à la croisée des chemins, ce sont encore les développeurs Web qui veulent faire le mauvais choix simplement parce qu’ils sont incapables de voir plus loin que le bout de leur nez. Ils se fichent de savoir à quoi ressemblera le Web dans dix ou même seulement cinq ans (quand la période d’essai gratuite sur le Web de H264 aura expiré), ils ne sont intéressés que par le présent. Ils ont fait des choix plus désastreux les uns que les autres, des choix qui ont gravement nuit au Web, et, pourtant, il faudrait que nous les écoutions encore ?

Cher Mozilla, contemple l’histoire du Web et vois l’impact désastreux d’Internet Explorer et de Flash. Regarde bien ensuite qui a fait en sorte que ces technologies nous soient imposées. Alors, et seulement alors, prends en compte à leur juste valeur leur opinion sur cette question.

A défaut, je prédis de quoi nous discuterons dans cinq ou dix ans : les développeurs Web et les pontes comme Gruber se lamenteront en se demandant comment le Web a pu embrasser sans restriction H264 à présent que la MPEG-LA a décidé de faire respecter ses brevets. Ils trouveront quelqu’un à blâmer : Microsoft, Adobe ou la lune, et, encore une fois, ils refuseront d’assumer leurs responsabilités.

L’heure du bain

Parfois il faut se jeter à l’eau. Bien sûr la transition vers un codec libre et gratuit sera difficile, mais les bénéfices escomptés le justifient amplement. Je préfère avoir affaire à une situation compliquée maintenant plutôt que de devoir faire face dans cinq ou dix ans à une situation aussi inextricable que celle engendrée par IE6 et Flash.

Notes

[1] Crédit photo : CBS Fan (Creative Commons By-Sa)




Rapport Fourgous : Le communiqué de l’April et les propositions de l’AFUL

Torres21 - CC by-saNous avons déjà par deux fois évoqué le rapport de la mission parlementaire du député Jean-Michel Fourgous sur la modernisation de l’école par le numérique. D’abord en extrayant les passages qui touchent de près ou de loin le logiciel libre et sa culture, et ensuite en demandant à François Elie de nous en faire une lecture critique.

Nous vous proposons ci-dessous, et l’une après l’autre, les réactions de l’April et de l’AFUL que nous avons malicieusement choisi de réunir ici dans un même billet.

Dans son communiqué, l’April prend acte de certaines avancées tout en regrettant la timidité des mesures préconisées. L’Aful quant à elle se veut constructive en faisant état de douze propositions, non pas pour « réussir l’école numérique » mais, nuance, pour « réussir le numérique à l’école »[1].

April / Rapport Fourgous : une reconnaissance partielle des apports fondamentaux du libre à l’éducation

URL d’origine du document

Paris, le 4 mars 2010. Communiqué de presse.

L’April se félicite que certaines de ses positions soient reprises dans le rapport de la mission parlementaire de Jean-Michel Fourgous[2] sur la modernisation de l’école par le numérique mais regrette qu’après avoir montré que le logiciel libre est une approche privilégiée pour réussir l’école numérique, il ne propose aucune mesure concrète pour tirer parti de cette opportunité.

Le rapport de la mission parlementaire de Jean-Michel Fourgous, député des Yvelines, sur la modernisation de l’école par le numérique a été remis le 15 février 2010 au Ministre de l’Éducation nationale Luc Chatel.

L’April en tant qu’observateur attentif de l’évolution de l’usage et de l’enseignement de l’informatique dans le système éducatif[3] a contribué à cette mission[4] dans le cadre de la consultation préalable. Elle se félicite de la prise en compte, même partielle, de sa contribution mais regrette que le logiciel libre ne soit cité que marginalement et ne fasse l’objet d’aucune mesure concrète alors qu’il est un élément central des solutions possibles.

Le rapport précise que le libre permet, entre autres de lutter contre la fracture numérique mais aussi qu’il favorise l’apprentissage des fonctionnalités plus que des outils. Il est également précisé que « en apprenant à utiliser des fonctionnalités plus que des outils, le libre habitue les élèves à la pluralité, à la diversité »[5].

Nous retrouvons là les positions défendues par l’April. Selon Benoît Sibaud, vice-président : « Notre association est, en matière éducative, attachée à la formation d’utilisateurs autonomes, éclairés et responsables. Nous considérons que les logiciels libres constituent, de par la transparence technologique qui les définit et les valeurs de partage qui les fondent, l’un des leviers les plus précieux à la disposition de la communauté enseignante pour l’enseignement à et par l’informatique ».

Plus loin l’accent sur les « pratiques coopératives et collaboratives » des enseignants est mis. À nouveau le rapport préconise de « favoriser le développement de ressources libres »[6]. De nombreuses structures encadrant la mutualisation de ressources pédagogiques libres entre enseignants existent déjà. Citons Sésamath, EducOOo[7], Scideralle[8] ou encore Ofset[9]. Le rapport fait explicitement référence à l’April par la voix de Benoît Sibaud : « Les enseignants devraient ainsi être incités à partager leurs travaux en protégeant ceux-ci par l’emploi de licences de libre diffusion du type Creative CommonsBySA, GNU Free Documentation License ou Licence Art Libre ».

L’April regrette cependant que ces points n’aient pas été davantage pris en compte dans la liste des priorités définies par la mission et que le libre ne soit cité que marginalement. Il est préconisé de généraliser les manuels numériques sans se préoccuper de la façon dont les enseignants pourraient se les approprier. Pour faire sienne une ressource pédagogique, un enseignant doit pouvoir justement l’adapter à son public, à sa situation pédagogique et à ses pratiques. Les manuels numériques actuels ne le permettent pas, ils sont vendus dans des formats rarement modifiables voire l’interdisent sur le plan légal. Il est regrettable que le rapport n’incite pas à encourager de façon institutionnelle des regroupements d’enseignants tels Sésamath[10] qui ont justement déjà produit des manuels numériques libres de mathématiques reconnus pour leur qualité pédagogique[11]. À la place un fonds de développement à seule destination d’éditeurs privés semble préconisé.

Sur le plan de l’exception pédagogique, l’April regrette de ne voir aucune mesure claire destinée à mettre un terme à l’insécurité juridique qui fait partie du métier d’enseignant. Il est certes préconisé de créer (en urgence) cette exception dans le système juridique du droit d’auteur alors qu’il suffirait dans un premier temps de favoriser la mutualisation entre professionnels de l’éducation et le développement de ressources libres. Concernant le B2i, le rapport va dans le sens des conclusions de l’April[12] ?et de nombreux autres acteurs comme l’EPI et le groupe ITIC-ASTI[13] car : « le B2i ne prend pas en compte ni la capacité à pouvoir se former tout au long de la vie, ni les connaissances techniques de base nécessaires pour comprendre les outils numériques ». L’April ne peut que se réjouir de voir mentionné que « La mise en place d’une matière informatique est une nécessité dans une société où tout fonctionne via le numérique »[14].

Enfin concernant les tableaux numériques interactifs (TNI), « la France comptera 50 000 TNI en 2010 »[15] le rapport n’évoque pas les problèmes d’interopérabilité. Chaque fabriquant de tableau développe son propre format qui ne peut être utilisé qu’avec leurs propres logiciels. Ces formats sont propriétaires et fermés et empêchent donc toute mutualisation avec des professeurs utilisant d’autres marques. En cas de mutation dans un autre établissement, tout le travail réalisé par le professeur peut être tout simplement inutilisable si le fabricant n’est plus le même. Il conviendrait donc de définir un cahier des charges national afin d’élaborer un format commun et interopérable pour les ressources utilisant les TNI. Rappelons que sous l’impulsion du BECTA[16] britannique un format de fichier ouvert destiné aux applications de type TNI a été publié[17]. Ce format est endossé par le projet European Schoolnet dont est d’ailleurs membre le Ministère de l’Éducation Nationale. Plusieurs fabricants de TNI ayant accepté de prendre en charge ce format, il nous semble ainsi naturel que son intégration soit requise dans les appels d’offre à venir.

En vertu des points mentionnés ci-dessus, l’April appelle le gouvernement à enfin mettre en place une véritable politique publique d’utilisation des logiciels, ressources libres et formats ouverts dans l’éducation. C’est là une opportunité à saisir dans l’intérêt des élèves et de l’école numérique. Enfin, l’April rappelle la nécessité forte de mettre en place un enseignement de l’informatique en tant que tel dès le Collège.

AFUL / Douze propositions pour l’école à l’ère numérique

URL d’origine du document

Suite à la publication du rapport FOURGOUS « Réussir l’école numérique », l’AFUL, l’ADULLACT et SCIDERALLE font douze propositions pour « Réussir le numérique à l’école ».

Le rapport Fourgous, dense, riche et touffu, semble hésiter entre une école numérique fondée sur le collaboratif et la richesse de ressources partagées d’une part, et d’autre part une école numérique qui serait le marché tout trouvé d’une industrie du numérique en mal de clients.

« Il y aura deux manières de rater l’école numérique : ne pas réussir à intégrer le numérique dans les situations d’enseignement, réduire le système éducatif à n’être qu’un client pour des industries numériques. Nous devons craindre davantage ce second danger » François Élie.

Nous vous invitons donc à découvrir nos propositions et à en discuter sur la liste dédiée à l’usage des logiciels libres dans l’éducation du groupe de travail Éducation de l’AFUL.

Douze propositions pour « réussir le numérique à l’école » :

  1. Liberté – Les logiciels et les ressources numériques acquises, développées ou produites avec participation de fonds publics doivent être placées sous licence libre et disponibles dans un format ouvert afin de permettre leur libre partage : les utiliser, étudier, modifier, redistribuer librement.
  2. Égalité – Avant de viser des solutions dites innovantes, il faut privilégier l’équipement et la disponibilité des ressources pour le plus grand nombre, par la mutualisation et des mécanismes de péréquation.
  3. Fraternité – Le travail collaboratif entre les élèves, les professeurs, les associations partenaires de l’école et tous les acteurs de l’éducation, en particulier les collectivités, doit être encouragé et soutenu.
  4. Un observatoire permanent composé de spécialistes de la mesure est chargé d’évaluer en continu et avec précision les impacts de tel ou tel usage lié au numérique dans les domaines scolaire et para-scolaire.
  5. La mise en œuvre de dispositifs TICE efficaces ou innovants est prise en compte dans l’évolution de la carrière des enseignants.
  6. Les Inspections sont chargées dans toutes les matières d’organiser, de maintenir et de faire croître le recensement, la production collaborative et l’indexation de contenus libres, avec des enseignants volontaires rémunérés pour ce travail. Les éditeurs (privés ou non) peuvent évidemment utiliser ce fonds pour proposer des manuels scolaires. Le modèle de Sésamath peut être une piste à suivre.
  7. Les collectivités et l’État conjuguent leurs efforts pour mutualiser leurs ressources et faire produire et maintenir un patrimoine de logiciels libres d’usage administratif et pédagogique à destination des 70 000 écoles et établissements scolaires français, par souci d’efficience, d’interopérabilité et d’égalité républicaine.
  8. L’école numérique s’appuie pour le développement et la maintenance de ses infrastructures matérielles, logicielles et documentaires, ainsi que pour la formation continue et l’accompagnement des enseignants, sur un réseau structuré de Centres de Ressources Informatiques.
  9. Les possibilités offertes par les nouvelles technologies dans le domaine du travail asynchrone ou distant sont explorées pour faciliter la liaison école-famille et améliorer les liens entre l’école et les élèves ne pouvant s’y rendre.
  10. L’informatique devient une discipline à part entière, dont l’enseignement obligatoire dès le primaire est réalisé par des professeurs ayant le diplôme requis dans cette spécialité ou ayant bénéficié d’une formation qualifiante. La gestion des compétences, l’accompagnement des enseignants et la formation initiale et continue font l’objet du plus grand soin.
  11. Afin de garantir l’égalité des chances, les collectivités et l’État mutualisent leurs efforts pour offrir un vaste support en ligne gratuit à l’échelle nationale, animé par des professeurs nommés dans la 31e académie : l’académie en ligne. Ces professeurs sont formés au tutorat en ligne.
  12. Les activités de production en ligne des élèves (écriture dans Wikipédia, site web, blog…) peuvent être intégrées dans un portfolio qui leur est proposé.

Ces douze propositions au format PDF.

Notes

[1] Crédit photo : Torres21 (Creative Commons By-Sa)

[2] Pour le consulter: http://www.reussirlecolenumerique.fr/. Voir aussi Libres extraits du rapport Fourgous sur la modernisation de l’école par le numérique (par A. Kauffmann), Rapport Fourgous – Notes de lecture de François Elie et Douze propositions pour l’école à l’ère numérique

[3] Voir notamment Jean Louis Gagnaire interpelle le ministère de l’éducation nationale à propos de la plateforme SIALLE, Audition de l’April à la mission e-educ, site du groupe de travail éducation de l’April

[4] Former les citoyens de demain : lettre de l’April à Jean-Michel Fourgous

[5] Réussir l’école numérique – Rapport de la mission parlementaire de Jean-Michel Fourgous, député des Yvelines, sur la modernisation de l’école par le numérique, page 259

[6] Réussir l’école numérique – Rapport de la mission parlementaire de Jean-Michel Fourgous, député des Yvelines, sur la modernisation de l’école par le numérique, Page 285

[7] EducOOo.org «  L’association EducOOo a pour vocation d’aider à la mutualisation de ressources éducatives libres autour de la suite bureautique OpenOffice.org. Elle encadre aussi le développement d’OOo4kids qui est une version d’OpenOffice.org spécialement adaptée pour les élèves de l’enseignement primaire voire début du secondaire »

[8] Scideralle, issue du projet AbulÉdu, Scideralle se fixe pour mission de soutenir et promouvoir des projets visant à fournir à tout public des logiciels et ressources libres pour l’éducation

[9] Ofset a été créée pour développer des logiciels libres éducatifs et des ressources afférentes pour le système GNU

[10] Sesamath.net « L’association Sésamath a pour vocation essentielle de mettre à disposition de tous des ressources pédagogiques et des outils professionnels utilisés pour l’enseignement des Mathématiques via Internet. »

[11] Les manuels Sésamath ont été préfacés par une Inspectrice Générale de l’Éducation Nationale de mathématiques

[12] Option « Informatique et sciences du numérique » au lycée : une première avancée avant un mouvement de fond ?

[13] http://www.epi.asso.fr/revue/docu/d0912a.htm

[14] Réussir l’école numérique – Rapport de la mission parlementaire de Jean-Michel Fourgous, député des Yvelines, sur la modernisation de l’école par le numérique, page 189.

[15] Réussir l’école numérique – Rapport de la mission parlementaire de Jean-Michel Fourgous, député des Yvelines, sur la modernisation de l’école par le numérique, page 72.

[16] Le BECTA est l’équivalent de la SDTICE en Grande-Bretagne : http://www.becta.org.uk/

[17] Le format "Interactive Witheboard Common File Format" (IWBCF) dont on peut d’ores et déjà télécharger les spécifications sur la page BECTA de SourceForge




Médecine 2.0 – Une conférence accessible et passionnante de Dominique Dupagne

Sur ce blog nous nous méfions du qualificatif « 2.0 » trop souvent récupéré et vidé de son sens par le marketing. Sauf à faire comme Benjamin Bayart et ne pas hésiter à comparer l’évolution d’Internet à un ironique et menaçant « Minitel 2.0 ».

Cela reste néanmoins parlant, voire pertinent, lorsqu’il s’agit d’envisager l’hypothèse d’un changement majeur, un saut quantique, dans une discipline donnée, en particulier lorsque les nouvelles technologies participent à cette (r)évolution.

La discipline dont il est question dans ce billet nous concerne tous puisqu’il s’agit de la médecine. Et d’après Dominique Dupagne, médecin généraliste et créateur du site Atoute.org, elle est peut-être en train de connaître une mutation importante qualifiée donc ici de « médecine 2.0 », par opposition à une « médecine 1.9 » :

Les communautés de patients et la fluidité de l’information changent le visage de la médecine. La Médecine 2.0 traduit l’idée d’une évolution majeure de la relation entre le médecin, le malade et la maladie. Comme en informatique, le changement d’unité traduit une nette évolution par rapport aux versions précédentes (1.1, 1.2… 1.9, 1.9.1 etc.). La médecine 2.0 représente donc une forme de révolution. Elle reprend le concept de Web 2.0 dont elle utilise les valeurs et les outils.

En voici quelques points forts issus de cet article (ou résumés dans cette courte vidéo YouTube) :

  • Les patients créent de la connaissance
  • Les patients découvrent ou inventent de nouvelles maladies
  • Le savoir des soignants s’étend lui aussi
  • La qualité et la disponibilité de l’information augmentent
  • La mesure de la qualité en médecine fera intervenir des critères inhabituels mais enfin pertinents

Pour en savoir plus, nous avons reproduit ci-dessous la conférence de Dominique Dupagne à l’Ecole de Hautes Etudes en Sciences Sociales, présentée le 19 février dernier lors d’un séminaire du centre Edgar Morin (sous licence Creative Commons By).

Dans cette intervention non dénuée d’humour, il sera question de Google, « d’hôpital magnétique » et « d’empowerment ». Mais il sera surtout question d’une médecine bousculée positivement par les nouvelles technologies et des patients bien décidés en se les appropriant à ne plus demeurer passifs.

La médecine 2.0 reprendrait donc « le concept de Web 2.0 dont elle utilise les valeurs et les outils ». Vous vous apercevrez peut-être comme moi au passage qu’elle reprend parfois également, consciemment ou non, les valeurs et les outils du logiciel libre.

Parce qu’entre les communautés de patients dont on redonne parole, action et expertise collective et les communautés d’utilisateurs de logiciels libres, il y a souvent de fortes similitudes…

—> La vidéo au format webm

PS : Grâce à notre ami JosephK d’ITheora, nous testons actuellement sur le Framablog la lecture directe au format Ogg pour les navigateurs compatibles HTML 5. Merci de nous faire part de tout retour positif ou négatif dans les commentaires.




Quand Google fait l’ange avec nos données

The Data Liberation Front - GoogleGoogle fait peur et Google le sait. Alors Google fait de gros efforts pour tenter de nous rassurer.

Mais cela sera-t-il suffisant ? Google n’est-il pas devenu intrinsèquement trop gros, quelle que soit la manière dont il brasse nos nombreuses données personnelles, quelle que soit l’indéniable qualité de sa myriade de services et de produits ?

Telle est la vaste question du jour, tapie derrière notre traduction évoquant leur projet du « Front de Libération des Données ».

La page d’accueil Google propose depuis peu un petit lien Confidentialité en bas du champ de recherche. Il vous mènera au portail google.fr/privacy qui a pour titre Centre de confidentialité : Transparence et liberté de choix.

Chez Google, nous sommes parfaitement conscients de la confiance que vous nous accordez, ainsi que de notre devoir de protéger la confidentialité de vos données. À cette fin, vous êtes informé des données qui sont collectées lorsque vous utilisez nos produits et services. Nous vous indiquons en quoi ces informations nous seront utiles et comment elles nous permettront d’améliorer les services que nous vous proposons.

On y décline alors la philosophie Google résumée en « cinq principes de confidentialité » et illustrée par cette vidéo que je vous invite à parcourir et qui témoigne une fois de plus de la maîtrise didactique de Google dans sa communication.

Du lard ou du cochon ? De l’art de faire l’ange quand on fait la bête ? Les commentaires accueilleront peut-être certaines de vos réactions.

En attendant la vidéo fait référence à un récent service, le Google Dashboard, qui est censé vous permettre de « savoir ce que Google sait de vous » en centralisant en un unique endroit toutes les informations collectées associées à votre compte Google (Gmail, Google Docs, Agenda, Maps, etc.) et à ses services connexes (YouTube, Picasa, etc.). Pour en avoir un bref aperçu, là encore, nouvelle et toujours efficace vidéo dédiée.

Cette initiative est louable parce qu’elle vous expose à priori la situation en vous facilitant la modification des paramétrages. Mais elle est à double tranchant parce que vous vous rendez compte d’un coup d’un seul de l’étendu de la pieuvre Google et de la quantité impressionnante de vos données que Google peut potentiellement manipuler. Et puis n’oublions jamais la force d’inertie du paramétrage par défaut.

La vidéo nous parle également du « Data Liberation Front », ou « Front de Libération des Données » en français, dont le logo ouvre ce billet. Ce n’est pas un nouveau mouvement révolutionnaire mais un projet interne qui œuvre à ce que l’assertion suivante devienne réalité :

Nous voulons que nos utilisateurs restent chez nous parce qu’ils le souhaitent, non parce qu’ils ne peuvent plus en sortir.

Il s’agit donc en théorie de pouvoir facilement quitter Google en listant sur un site, service par service, les procédures à suivre pour exporter nos fichiers et nos données depuis les serveurs de Google vers notre disque dur local dans des formats standards et ouverts. Les manipulations à réaliser ne sont pas toujours des plus simples (quand elles existent effectivement), mais le projet nous dit qu’il travaille justement à constamment améliorer cela.

On retrouve cette idée, lorsque Google nous affirme que « Competition is just one click away », autrement dit que tout est fait pour qu’il suffise d’un clic de souris pour s’en aller chez un concurrent, et que les autres devraient en faire autant pour que s’établisse une saine compétition. Pas sûr que Microsoft soit sensible à l’argument.

Centre de confidentialité, Google Dashboard, Data Liberation Front, One click away, Sens de l’ouverture… il n’y a pas à dire, Google met les bouchées doubles pour ne pas se mettre en porte-à-faux avec son fameux slogan « Don’t be evil ».

Alors, convaincu ?

Dans l’affirmative, remercions Google pour son souci de transparence et continuons à lui faire confiance, sachant alors que le futur et novateur système d’exploitation Google Chrome OS vous tend les bras. Point trop d’inquiétudes mal placées, vos données sont bien au chaud dans les nuages.

Dans le cas contraire, c’est plutôt un « Google Liberation Front » qu’il va falloir songer à créer !

Pourquoi Google vous laisse facilement quitter Google

Why Google makes it easy to leave Google

Nate Anderson – 1 mars 2010 – Ars Technica
(Traduction Framalang : Goofy et Don Rico)

Nous avons déjà évoqué le Front de Libération des Données de Google (FLD) l’année dernière, lorsque ce projet a été rendu public, mais depuis, qu’a fait l’équipe interne de Google qui se consacre à l’exportation des données ? Eh bien… elle a créé des autocollants, pour commencer.

« DONNÉES ÉLEVÉES EN PLEIN AIR », proclament-ils, ce qui résume en quelques mots les efforts du Front de Libération des Données. L’objectif de l’équipe n’est rien moins que de permettre aux utilisateurs de quitter plus facilement Google et ses multiples services, en emportant avec eux leurs courriels, leurs photos et tous leurs documents.

Les travaux les plus récents concernaient Google Docs, qui propose désormais une option pour télécharger en masse. Sélectionnez les documents que vous désirez, cliquez sur un bouton, Google les archive en un seul fichier .zip (jusqu’à 2Go) et vous les envoie par e-mail.

Au cours d’une récente visite aux bureaux de Google à Chicago, où le FLD est basé, nous avons discuté avec Brian Fitzpatrick, qui dirige l’équipe, pour savoir plus en détail pourquoi il souhaite que l’on puisse s’affranchir facilement des services Google, et comment il compte s’y prendre.

Empêcher l’inertie

Il est certain que lancer cette initiative estampillée « ne faites pas le mal » au sein de l’entreprise est une bonne manœuvre de communication, mais le FLD ne découle pas d’une décision prise au sommet de la hiérarchie. Fitzpatrick déclare qu’en ce qui le concerne, il a « commencé en toute naïveté ». Après avoir écouté pendant des années le président Eric Schmidt déployer son éloquence pour expliquer combien il est important de ne pas enfermer les utilisateurs, Fitzpatrick a remarqué que certains produits Google compliquaient l’application de cette politique.

Le FLD est l’émanation de son travail de réflexion. L’équipe existe depuis deux ans maintenant, et depuis les choses ont changé : à ses débuts, c’est elle qui allait trouver les autres équipes d’ingénieurs, mais à présent, selon Fitzpatrick, ce sont ces dernières qui « viennent nous consulter » pour savoir comment elles s’en tirent.

La rétention des données n’est pas mauvaise que pour les utilisateurs ; Fitzpatrick estime qu’elle est aussi mauvaise pour Google. « Si l’on crée une base d’utilisateurs verrouillée, avance-t-il, on devient forcément complaisant avec soi-même ».

Rendre aussi facile l’abandon de Google Docs que celui du moteur de recherche de Google force Google à cultiver un de ses points forts : engager des collaborateurs brillants. Le travail du FLD « met en effervescence les équipes d’ingénieurs », explique Fitzpatrick, puisque les ingénieurs doivent satisfaire les utilisateurs en innovant, et non en les mettant en cage.

The Data Liberation Front - Google - Sticker

Les utilisateurs se préoccupent-ils vraiment de la libération de leurs données ? Certains, oui, mais l’utilisation des fonctions d’exportation demeure limitée. Google enregistre « un niveau constamment faible de l’usage de ces fonctions », déclare un ingénieur de l’équipe, particulièrement quand le géant de la recherche choisit d’abandonner des services peu performants.

Disposer d’outils d’exportation facilite également de telles interruptions de services ; souvenez-vous des problèmes rencontrés par les sites de vente de musique bardés de DRM, lorsqu’ils ont finalement tenté de fermer leurs serveurs de DRM. Grâce à l’ouverture des données de Google, l’entreprise évite ce genre de critiques publiques quand survient une fermeture de service, comme lorsque Google Notebook a été mis au rebut.

Nicole Wong, conseillère juridique adjointe de Google, nous a confié que Google prend le FLD au sérieux pour deux raisons : d’abord, il donne le contrôle aux utilisateurs, et ensuite, « quand nous déclarons qu’il suffit d’un clic pour passer à la concurrence, des initiatives telles que le FLD le prouvent ».

Ce dernier commentaire nous rappelle que l’ouverture représente un réel bénéfice stratégique pour l’entreprise qui va bien au-delà de la conception des produits et du pouvoir accordé à l’utilisateur. Google est de plus en plus en ligne de mire des investigations antitrust, de la part du ministère de la Justice américain, et subit déjà des enquêtes en Europe au nom de la lutte antitrust. Le FLD est ainsi un argument de plus que Google peut employer pour démontrer qu’il n’est pas un Cerbère pour usagers captifs.

Il arrive que l’équipe du FLD affronte les critiques de ceux qui accusent Google de ne rendre « libres » et exportables que les données à faible valeur marchande pour l’entreprise (voyez par exemple ce commentaire du chercheur Ben Edelman à propos de la récupération des données Adwords). Mais depuis sa création, le FLD a travaillé avec plus de vingt-cinq équipes de Google pour faciliter l’exportation des données, et nul doute que ses efforts concernant les applications comme Google Docs sont une bonne nouvelle pour les utilisateurs.

« Nous nous efforçons de provoquer une plus grande prise de conscience au sein de l’entreprise, » déclare Fitzpatrick, tout en admettant avec une petite grimace qu’il n’a aucun « pouvoir » réel sur les décisions des différents chefs de projet.

On peut toujours aller plus loin. L’équipe surveille la page du modérateur Google, sur laquelle les utilisateurs peuvent soumettre des suggestions – et elles sont nombreuses. « Mes contacts Gmail — pouvoir les exporter, et ré-importer une version modifiée, sans copier chaque élément un à un » propose l’un d’eux. « Ajouter les microformats hCalendar à l’agenda Google, pour pouvoir réutiliser partout ailleurs les rendez-vous enregistrés » suggère un autre. « Je veux récupérer l’historique de mon tchat avec Gmail », réclame un troisième.

Fitzpatrick promet que d’autres avancées vont suivre, bien qu’il ne puisse pas parler des projets qui sont dans les incubateurs. Ce qu’il peut faire, pour l’instant, c’est vous envoyer un autocollant.




Logiciel Libre : la Guerre Mondiale aura bien lieu

The U.S. Army - CC byUn évènement d’importance est passé totalement inaperçu la semaine dernière du côté des médias francophones (à l’exception notable de Numerama). Il faut dire qu’à priori cela ne nous concerne pas puisqu’il oppose un lobby américain à l’état indonésien.

Et pourtant, à l’heure de la mondialisation (de moins en moins heureuse), cet épisode est riche d’enseignements et annonce peut-être la fin de l’enfance et de l’innocence pour le logiciel libre.

« Ils » veulent la guerre économique et politique ? Alors ils l’auront ! Et tant qu’Internet demeurera neutre et ouvert, « nous » ne sommes en rien assurés de la perdre, quand bien même nous n’ayons pas la puissance financière de notre côté et la capacité à mobiliser un bataillon des meilleurs avocats à notre service[1].

En perdant un brin notre sang-froid, nous pourrions presque qualifier cela de « Choc des Civilisations 2.0 » !

Plantons le décor de ce qui ressemble au départ à une information trop grosse pour être vraie.

Compagnies aériennes, paradis fiscaux, organisations terroristes… nombreuses sont les listes noires, émanant d’organismes divers et variés (nationaux ou internationaux, publics ou privés). Ainsi en va-t-il du « Special 301 Report » qui provient du bureau s’occupant officiellement de la politique commerciale internationale des États-Unis (The Office of the United States Trade Representative ou USTR).

Ce rapport vise à examiner chaque année la situation de la protection et de l’application des droits de la « propriété intellectuelle » à l’échelle mondiale. Il classe ainsi les pays en trois catégories : « surveillance en priorité » (on y retrouve en 2009 par exemple la Chine, la Russie et, plus surprenant, le Canada), « surveillance inférieure » et les autres, les bons élèves (cf cette mappemonde Wikipédia).

C”est un instrument de la politique économique internationale des États-Unis, et gare à vous si vous êtes en haut de la pyramide. Parce que vous fabriquez de fausses chaussures Nike, parce que vous produisez des médicaments sans y avoir autorisation, parce que vous proposez, dans la rue ou sur vos serveurs, des versions « piratés » de tel film, musique ou logiciel, etc.

Que la contrefaçon, la copie illégale, le non respect des brevets… fassent du tort à une économie américaine qui repose beaucoup sur l’exploitation de sa « propriété intellectuelle » et constituent par là-même un grand manque à gagner, nul ne le conteste. Qu’adossés à l’USTR on trouve un certain nombre d’associations qui agissent comme des lobbys en poussant le gouvernement américain à faire pression sur les pays incriminés pour qu’ils prennent les mesures nécessaires afin d’améliorer la situation, c’est de bonne guerre, d’autant que l’on connait l’influence et la force de persuasion des États-Unis dans la géopolitique internationale.

Mais que, tenez-vous bien, la volonté d’un état à développer le logiciel libre dans son pays en fasse un ennemi des intérêts américains de la « propriété intellectuelle » propre à vouloir le faire figurer en bonne place dans le « Special 301 Report », c’est nouveau, c’est scandaleux, et c’est ô combien révélateur des craintes, pour ne pas dire de la panique, qu’il suscite désormais dans l’économie « traditionnelle » de la connaissance.

C’est pourtant ce que n’a pas hésité à suggérer la très sérieuse et puissante International Intellectual Property Alliance (ou IIPA), coalition d’associations représentants les plus grandes multinationales des secteurs de la culture, du divertissement et des nouvelles technologies. On y retrouve ainsi le RIAA pour l’industrie musicale (Universal, Warner…), le MPAA pour le cinéma (Walt Disney, Paramount…), l’IFTA pour la télévision, l’ESA pour le jeu vidéo (Electronic Arts, Epic Games…) sans oublier la BSA pour l’informatique (Apple, Microsoft…).

Donc ici l’Inde, la Brésil et surtout l’Indonésie sont pointés du doigt pour la simple et (très) bonne raison qu’ils souhaitent favoriser l’usage du logiciel libre au sein de leur administration ! Vous avez bien lu, mis à l’index non pas parce qu’on veut l’imposer (ce qui aurait pu alors se discuter) mais juste parce qu’on souhaite l’encourager !

Plus c’est gros mieux c’est susceptible de passer, comme dirait le dicton populaire. Mais quels sont alors les (pseudos) arguments avancés ? Vous le saurez en parcourant l’article ci-dessous, traduit du journal anglais The Guardian.

On veut clairement nous abuser en nous faisant croire qu’il y a la « propriété intellectuelle » d’un côté et le logiciel libre de l’autre (qui tel Attila détruirait toute valeur marchande sur son passage). C’est de la propagande économique mais ne nous y trompons pas, c’est également éminemment politique puisque derrière cette initiative se cache une certaine conception du libéralisme et du rôle des états, où vieille Europe et monde anglo-saxon ne sont d’ailleurs pas forcément toujours sur la même longueur d’onde.

Cet épisode est évidemment à rapprocher avec ce qui se passe en ce moment du côté de l’ACTA.

L’ironie de l’histoire (outre le fait que le logiciel libre soit « né » aux USA), c’est que le Framablog passe son temps à patiemment ajouter des pays à sa propre liste blanche des institutions légitimement intéressées par les logiciels, les contenus et les formats libres et ouverts : Suisse, Angleterre, Canada, Brésil, Équateur, Amérique latine… sans oublier les États-Unis d’Obama qui n’en sont plus à un paradoxe près.

La liste est blanche pour certains et noire pour d’autres. Un nouvel échiquier se dessine, et la partie peut alors commencer…

Vous utilisez l’open source ? Vous êtes un ennemi de la nation !

When using open source makes you an enemy of the state

Bobbie Johnson – 23 Février 2010 – The Guardian Blog Technology
(Traduction Framalang : Tinou et Goofy)

Le lobby du copyright aux États-Unis s’est longtemps battu contre les logiciels open source – c’est maintenant au tour de l’Indonésie d’être dans la ligne de mire pour avoir poussé à leur utilisation dans les institutions gouvernementales.

Nous ne sommes que mardi, et cette semaine s’est déjà révélée intéressante pour les droits numériques. Le gouvernement britannique a reformulé sa proposition controversée de riposte graduée, et le traité secret de lutte contre la contrefaçon, l’ACAC (NdT : ou ACTA en anglais), fait de nouveau les gros titres. Pendant ce temps, un juge américain est encore en train de délibérer dans l’affaire Google Books.

Et comme si cela ne suffisait pas, voilà une nouvelle pierre à ajouter à l’édifice branlant des dernières nouvelles, grâce à Andres Guadamuz, professeur de droit à l’université d’Édimbourg.

Suite à des recherches, Guadamuz a découvert qu’un lobby influent demande, en substance, au gouvernement des États-Unis de considérer l’open source comme l’équivalent de la piraterie — voire pire.

Pardon ?

Il apparaît que l’Alliance Internationale pour la Propriété Intellectuelle (NdT : International Intellectual Property Alliance ou IIPA en anglais), groupe qui allie des organisations comme la MPAA et la RIAA, a demandé au représentant américain au commerce d’envisager d’inclure des pays comme l’Indonésie, le Brésil et l’Inde dans sa « Liste de surveillance n°301 », parce qu’ils utilisent des logiciels libres.

Qu’est-ce que la « Liste de surveillance n°301 » ? C’est un rapport sur « le respect réel de la propriété intellectuelle » dans le monde – en réalité une liste de pays que le gouvernement des États-Unis considère comme des ennemis du capitalisme. Elle est souvent utilisée comme moyen de pression commerciale — souvent dans le domaine de l’industrie pharmaceutique et de la contrefaçon — pour essayer de forcer les gouvernements à changer d’attitude.

On pourrait avancer qu’il n’est pas surprenant de la part du représentant américain au commerce — supposé militer pour un capitalisme de l’économie de marché — de ne pas aimer pas les logiciels libres, mais la situation n’est pas aussi simple.

Je sais bien qu’on a tendance à rattacher l’open source aux idéaux socialistes, mais je pense aussi que c’est un exemple de l’économie de marché en action. Quand les entreprises ne peuvent pas jouer contre des concurrents écrasants, elles contournent le problème et trouvent d’autres moyens de réduire les coûts pour rester dans la course. La plupart des logiciels libres, qui n’appartiennent pas à des états, se contentent de pousser la logique de la réduction du coût jusqu’à son terme et se servent de la gratuité comme d’un bâton pour taper sur la concurrence (iriez-vous accuser Google, dont le produit phare est gratuit, d’être anti-capitaliste ?).

Ceci dit, dans les pays où le gouvernement a légiféré en faveur de l’adoption de logiciels libres et/ou open source, cette tactique ne manque pas de cohérence, puisqu’elle attaque des acteurs comme Microsoft. Mais ce n’est pas tout.

Là où ça devient intéressant, c’est que Guadamuz a découvert que les gouvernements n’ont même pas besoin de légiférer. Une simple recommandation suffit.

L’année dernière, par exemple, le gouvernement indonésien a envoyé une circulaire à tous ses ministères et aux entreprises nationales, les incitant à utiliser des logiciels libres. Selon l’IIPA, il « encourage les agences gouvernementales à utiliser des logiciels libres ou open source, avec l’objectif d’en avoir terminé le déploiement fin 2011. On aboutira ainsi, selon la circulaire, à un usage légitime de logiciels libres, ainsi qu’à une réduction générale des coûts en logiciel ».

Rien de grave là-dedans, non ? Après tout, le gouvernement britannique a déclaré qu’il mettrait le turbo sur l’usage de logiciel open source.

Mais l’IIPA suggère que l’Indonésie mérite sa place sur la liste n°301 parce qu’encourager (et non forcer) de telles initiatives « affaiblit l’industrie du logiciel » et « ne contribue pas au respect des droits relatifs à la propriété intellectuelle ».

Extraits de la recommandation :

« La politique du gouvernement indonésien (…) affaiblit l’industrie du logiciel et sabote sa compétitivité à long terme en créant une préférence artificielle pour des sociétés qui proposent des logiciels open source et des services dérivés, et va même jusqu’à refuser l’accès du marché gouvernemental à des entreprises reconnues.

Au lieu de promouvoir un système qui permettrait aux utilisateurs de bénéficier de la meilleure solution disponible sur le marché, indépendamment du modèle de développement, elle encourage un état d’esprit qui ne reconnaît pas à sa juste valeur la création intellectuelle.

Ainsi, elle échoue à faire respecter les droits liés à la propriété intellectuelle et limite également la capacité du gouvernement ou des clients du secteur public (comme par exemple les entreprises nationales) à choisir les meilleures solutions. »

Oublions que cet argument ne tient pas compte du grand nombre d’entreprises qui prospèrent autour du modèle du logiciel open source (RedHat, WordPress et Canonical, pour ne citer qu’eux). Au-delà de ça, voici ce qui me paraît stupéfiant : il suffit de recommander des produits open source — produits qui peuvent être facilement taillés sur mesure sans affecter les règles définies par la licence — pour être accusé de vouloir tout « saboter ».

En fait, la mise en œuvre du respect de la propriété intellectuelle est souvent plus stricte dans la communauté open source, et ceux qui enfreignent les licences ou oublient d’attribuer les crédits à qui de droit sont souvent cloués au pilori.

Si ce que vous lisez vous met hors de vous, vous avez raison. C’est abracadabrant. Mais l’IIPA et l’USTR n’en sont pas à leur coup d’essai : il y a quelques années, ils ont mis le Canada sur leur liste des pays à surveiller en priorité.

Notes

[1] Crédit photo : The U.S. Army (Creative Commons By)