À quoi ça sert de s’activer sur Internet ? Doctorow répond à Morozov

Anonymous9000 - CC byCory Doctorow est souvent traduit sur ce blog car c’est l’une des rares personnalités qui pense l’Internet et agit en conséquence pour qu’il conserve ses promesses initiales d’ouverture et de partage.

Il a rédigé un long mais passionnant article dans The Guardian qui prend appui sur un lecture (très) critique du récent mais déjà fort commenté livre The Net Delusion: The Dark Side of Internet Freedom de Evgeny Morozov.

Chercheur biélorusse à l’université de Georgetown et chroniqueur dans plusieurs journaux, Morozov remet radicalement en question, dans son ouvrage, le pouvoir libérateur d’Internet.

On peut le voir exposer son point de vue dans cette courte conférence au format TED : Comment Internet aide les dictatures, qui constitue un excellent préambule à ce qui va suivre.

Morozov y dénonce la « cyberutopie » qui draperait la technologie de vertus émancipatrices intrinsèques, comme celle d’être nécessairement vecteur de démocratie pourvu que l’information circule sans entrave (source Rue89). Une « cyberutopie » issue de l’ignorance ou de la paresse intellectuelle de nos contemporains, qui se laissent aller au « web-centrisme » en imaginant que toutes les questions qui se posent dans nos sociétés peuvent être résolues par le prisme d’Internet (source Webdorado). Cliquer sur « J’aime » ou rejoindre une cause sur Facebook, relayer frénétiquement une information non vérifiée sur Twitter, n’ont jamais révolutionné la société,

On comprendra dès lors aisément que le « net-activiste » Cory Doctorow ait pris sa plume pour répondre dans le détail à l’argumentaire de Morozov.

Internet n’est certainement pas synonyme de libération. Mais ce réseau possède des caractéristiques particulières qui font qu’il ne ressemble à rien de ce que l’on a connu auparavant. Raison de plus pour se battre afin de conserver son principe de neutralité et faire en sorte qu’il échappe au contrôle des États et aux logiques mercantiles des entreprises privées.

Wikileaks et ses anonymous[1], hier la Tunisie, l’Égypte aujourd’hui… L’actualité récente n’est pas évoquée, mais il semblerait qu’elle penche plutôt du côté de Doctorow que de celui de Morozov.

Nous avons besoin d’une critique sérieuse de l’activisme sur le Net

We need a serious critique of net activism

Cory Doctorow – 25 janvier 2011 – The Guardian
(Traduction Framalang : Penguin, Barbidule, Gilles, Siltaar, e_Jim, Goofy et Don Rico)

« Net Delusion » (NdT : que l’on pourrait traduire par « Les mirages du Net » ou « Internet, la désillusion ») avance la thèse que la technologie ne profite pas nécessairement à la liberté, mais par quel autre moyen les opprimés se feront-ils entendre ?

Net Delusion est le premier livre de l’écrivain et blogueur d’origine biélorusse Evgeny Morozov, dont le thème de prédilection est la politique étrangère. Morozov s’est bâti une réputation de critique pointu, et parfois mordant, d’Internet et du « cyber-utopisme », et ” Net Delusion ” développe les arguments qu’il a déjà présentés ailleurs. J’ai lu avec intérêt l’exemplaire que j’ai reçu en service de presse. J’apprécie Evgeny, lors de nos rencontres et de nos échanges de courriers, il m’a donné l’impression d’être intelligent et engagé.

Au cœur du livre, on trouve des remarques extrêmement judicieuses. Morozov a tout à fait raison lorsqu’il souligne que la technologie n’est pas intrinsèquement bonne pour la liberté, qu’on peut l’utiliser pour entraver, surveiller et punir, aussi facilement que pour contourner, libérer et partager.

Hélas, ce message est noyé au milieu d’une série d’attaques confuses et faiblement argumentées contre un mouvement « cyber-utopique » nébuleux, dont les points de vue sont évoqués en termes très généraux, souvent sous la forme de citations de CNN et d’autres agences de presse censées résumer un hypothétique consensus cyber-utopique. Dans son zèle à discréditer cette thèse, Morozov utilise tous les arguments qu’il peut trouver, quelle que soit leur faiblesse ou leur inanité, contre quiconque fait mine de soutenir que la technologie est libératrice.

Le rôle de Twitter

Morozov tente d’abord de remettre les pendules à l’heure sur le rôle qu’a joué Twitter lors des dernières élections iraniennes. On a présenté partout le réseau de microblogage comme un outil fondamental pour les initiatives de l’opposition sur le terrain, mais par la suite, il est apparu clairement que les Iraniens d’Iran n’avaient été présents que marginalement sur Twitter, bien qu’ils aient utilisé beaucoup d’autres outils de diffusion et que ceux-ci aient été en effet essentiels dans la réaction à l’élection iranienne.

Morozov décrit minutieusement le fait que beaucoup des trois millions d’Iraniens expatriés sont en effet actifs sur Twitter, et que c’est ce trafic, ainsi que les messages de sympathie d’utilisateurs non-iraniens, qui ont fait de l’élection iranienne et de ses conséquences un évènement majeur sur Twitter.

Il décrit également les liens étroits que ces expatriés ont avec leur famille en Iran, grâce à d’autres outils tels que Facebook. Mais il manque d’en conclure que les informations issues de Twitter ont trouvé écho sur Facebook (et vice-versa) via les Iraniens de l’étranger. Il préfère considérer que les millions d’expatriés Iraniens publiant des messages sur Twitter sont tellement isolés de leur proches relations sur Facebook que ces messages n’ont eu presque aucun impact.

Presque aucun, mais un impact quand même. Morozov poursuit en citant Golnaz Esfandiari, une correspondante de Radio Free Europe en Iran, « déplorant la complicité pernicieuse de Twitter qui a permis aux rumeurs de se propager » en Iran pendant la crise. J’ai été choqué de lire cela dans l’ouvrage de Morozov : comment Twitter pourrait-il être « complice » de la propagation de rumeurs ; Esfandiari or Morozov attendaient-ils des fournisseurs de services sur Internet qu’ils censurent de façon pro-active les contributions des utilisateurs avant de les laisser se diffuser librement sur ur leurs réseaux ? Et si c’était le cas, Morozov pensait-il vraiment que Twitter deviendrait un meilleur soutien de la liberté sur Internet en s’auto-proclamant censeur ?

Cela m’a tellement stupéfait que j’ai envoyé un e-mail à Morozov pour lui demander ce que le lecteur était censé y comprendre au juste. Morozov m’a répondu que d’après lui Esfandiari ne s’était pas exprimée clairement ; elle voulait dire que c’étaient les utilisateurs de Twitter qui étaient « complices » de la propagation des rumeurs. C’est sans doute mieux, mais sans preuves que Twitter n’est fait que pour propager de fausses rumeurs, cela ne suffit pas pour inculper Twitter. Pourquoi alors ce passage figure-t-il dans le livre – sachant que Morozov n’a cessé d’affirmer dans les pages précédentes qu’aucune information postée sur Twitter n’avait atteint l’Iran – si ce n’est comme un pan de la stratégie qui consiste à discréditer les « cyber-utopistes » en balançant tous les arguments possibles en espérant que certains tiennent debout ? Et je pense que c’est le cas : par la suite, Morozov reproche à la « culture Internet » la « persistance de nombreuses légendes urbaines », une idée fort singulière puisque des chercheurs spécialisés en légendes urbaines, tels que Jan Brunvand, ont montré que de nombreuses légendes urbaines contemporaines proviennent du Moyen-Âge et ont prospéré sans avoir besoin d’Internet comme moyen de reproduction.

Technologie et révolution

Morozov est sceptique quant à la capacité de la technologie à déclencher des révolutions et étendre la démocratie. Pour renverser un régime corrompu, dit-il, avoir librement accès à l’information n’est ni nécessaire, ni même important – c’est une antienne des Reaganistes avec leur vision romantique de Samizdat, Radio Free Europe et autres efforts d’information remontant à la guerre froide. L’Union soviétique ne s’est pas effondrée à cause d’un mouvement politique, de courageux dissidents ou de tracts photocopiés – elle s’est écroulée parce qu’elle était devenue un cauchemar mal géré qui a chancelé de crise en crise jusqu’à l’implosion finale.

En effet, le libre accès aux médias étrangers (comme en bénéficiaient les citoyens de RDA qui pouvaient capter les programmes d’Allemagne de l’Ouest) a souvent contribué à désamorcer le sentiment anti-autoritaire, anesthésiant les Allemands de l’Est avec tant d’efficacité que même la Stasi avait fini par chanter les louanges de la décadente télévision occidentale.

L’ironie, c’est que Morozov – involontairement, mais avec vigueur – rejoint sur ce point ses adversaires idéologiques, comme Clay Shirky, le professeur de l’université de New York que Morozov critique lourdement par ailleurs. Les travaux de Shirky – notamment le dernier en date, The Cognitive Surplus – parviennent exactement aux mêmes conclusions au sujet des médias occidentaux traditionnels, et en particulier de la télévision. Shirky soutient que la télé a principalement servi à atténuer le poids de l’ennui né de l’accroissement du temps de loisirs aux premiers jours de l’ère de l’information. Pour Shirky, Internet est palpitant parce qu’il constitue justement l’antidote à cette attitude de spectateur passif, et qu’il constitue un mécanisme incitant les gens à la participation au travers d’une succession d’engagements toujours plus importants.

Régulation et contrôle

Morozov ne discute cependant pas cette position en profondeur. En fait, quand il examine enfin Internet en tant que tel, indépendamment des réseaux téléphoniques, des programmes télé et des autres médias, il se contente de tourner en ridicule les « gourous de la technologie », qui « révèlent leur méconnaissance de l’histoire » lorsqu’ils se lancent dans des « tirades quasi-religieuses à propos de la puissance d’internet ». Il illustre cette caricature par un florilège de citations stupides, soigneusement choisies parmi deux décennies de discours sur Internet, mais il laisse soigneusement de côté tout le travail sérieux sur l’histoire du Net en tant que média pleinement original – et notamment, il oublie de mentionner ou de réfuter la critique posée par Timothy Wu dans l’excellent livre The Master Switch, paru l’an dernier.

Wu, professeur de droit des télécommunications, retrace avec mordant l’histoire de la régulation des médias en réponse à la possible décentralisation des monopoles et oligopoles dans les télécommunications. Replacé dans ce contexte, Internet apparaît véritablement comme un phénomène original. Morozov sait bien sûr qu’Internet est différent, il le reconnaît lui-même lorsqu’il parle de la manière dont le Net peut imiter et supplanter d’autres médias, et des problèmes que cela engendre.

C’est là que réside la plus sérieuse faiblesse de Net Delusion : dans ce refus de se confronter aux meilleurs textes sur le thème d’Internet et de sa capacité extraordinaire à connecter et émanciper. Quand Morozov parle des menaces pour la sécurité des dissidents lorsqu’ils utilisent Facebook – ce qui revient à faire de jolies listes de dissidents prêtes à être utilisées par les polices secrètes des États oppresseurs – il le fait sans jamais mentionner le fait que, de longue date, des avertissements pressants sur ce sujet ont été lancés par l’avant-garde des « cyber-utopistes », incarnée par des groupes comme l’Electronic Frontier Foundation, NetzPolitik, Knowledge Ecology International, Bits of Freedom, Public Knowledge, et des dizaines d’autres groupes de pression, d’organisations d’activistes et de projets techniques dans le monde entier.

Bien évidemment, presqu’aucune mention n’est faite des principaux défenseurs de la liberté du Net, tel que le vénérable mouvement des cypherpunks, qui ont passé des décennies à concevoir, diffuser et soutenir l’utilisation d’outils cryptographiques spécialement conçus pour échapper au genre de surveillance et d’analyse du réseau qu’il identifie (à juste titre) comme étant implicite dans l’utilisation de Facebook, Google, et autres outils privés et centralisés, pour organiser des mouvements politiques. Bien que Morozov identifie correctement les risques que les dissidents prennent pour leur sécurité en utilisant Internet, son analyse technique présente des failles sérieuses. Lorsqu’il avance, par exemple, qu’aucune technologie n’est neutre, Morozov néglige une des caractéristiques essentielles des systèmes cryptographiques : il est infiniment plus facile de brouiller un message que de casser le brouillage et de retrouver le message original sans avoir la clé.

Battre la police secrète à son propre jeu

En pratique, cela signifie que des individus disposant de peu de ressources et des groupes dotés de vieux ordinateurs bon marché sont capables de tellement bien chiffrer leurs messages que toutes les polices secrètes du monde, même si elles utilisaient tous les ordinateurs jamais fabriqués au sein d’un gigantesque projet s’étalant sur plusieurs décennies, ne pourraient jamais déchiffrer le message intercepté. De ce point de vue au moins, le jeu est faussé en faveur des dissidents – qui jouissent pour la première fois du pouvoir de cacher leur communication hors d’atteinte de la police secrète – au détriment de l’État, qui a toujours joui du pouvoir de garder ses secrets ignorés du peuple.

La façon dont Morozov traite de la sécurité souffre d’autres défauts. C’est une évidence pour tous les cryptologues que n’importe qui peut concevoir un système si sécurisé que lui-même ne peut pas trouver de moyen de le casser (ceci est parfois appelé la « Loi de Schneier », d’après le cryptologue Bruce Schneier). C’est la raison pour laquelle les systèmes de sécurité qui touchent à des informations critiques nécessitent toujours une publication très large et un examen des systèmes de sécurité par les pairs. Cette approche est largement acceptée comme la plus sûre, et la plus efficace, pour identifier et corriger les défauts des technologies de sécurité.

Pourtant, lorsque Morozov nous relate l’histoire de Haystack, un outil de communication à la mode censé être sécurisé, soutenu par le ministère américain des Affaires étrangères, et qui s’est révélé par la suite totalement non-sécurisé, il prend pour argent comptant les déclarations du créateur de Haystack affirmant que son outil devait rester secret car il ne voulait pas que les autorités iraniennes fassent de la rétro-ingénierie sur son fonctionnement (les vrais outils de sécurité fonctionnent même lorsqu’ils ont fait l’objet d’une rétro-ingénierie).


Au lieu de cela, Morozov concentre ses critiques sur l’approche « publier tôt, publier souvent » (NdT : Release early, release often) des logiciels libres et open source, et se moque de l’aphorisme « avec suffisamment de paires d’yeux, les bugs disparaissent » (NdT appelé aussi Loi de Linus). Pourtant, si cela avait été appliqué à Haystack, cela aurait permis de révéler ses défauts bien avant qu’il n’arrive entre les mains des activistes iraniens. En l’occurrence, Morozov se trompe complètement : si l’on veut développer des outils sécurisés pour permettre à des dissidents de communiquer sous le nez de régimes oppressifs, il faut largement rendre public le fonctionnement de ces outils, et les mettre à jour régulièrement au fur et à mesure que des pairs découvrent de nouvelles vulnérabilités.

Morozov aurait bien fait de se familiariser avec la littérature et les arguments des technologues qui s’intéressent à ces questions et y ont réfléchi (les rares fois où il leur accorde son attention c’est pour se moquer des fondateurs de l’EFF : Mitch Kapor pour avoir comparé Internet à un discours de Jefferson, et John Perry Barlow pour avoir écrit une Déclaration d’indépendance du cyberespace). Certains des experts les plus intelligemment paranoïaques au monde ont passé plus de vingt ans à imaginer les pires scénarios catastrophes technologiquement plausibles, tous plus effrayants que les spéculations de Morozv – comme son hypothèse farfelue selon laquelle la police secrète pourrait un jour prochain avoir la technologie pour isoler des voix individuelles dans un enregistrement de milliers de manifestants scandant des slogans, pour les confronter à une base de données d’identités.

Surveiller les surveillants

Le tableau que dépeint Morozov de la sécurité des informations est trompeusement statique. Notant que le web a permis un degré de surveillance alarmant par des acteurs commerciaux tels les réseaux de publicité, Morozov en tire la conclusion que cette sorte de traçage sera adoptée par les gouvernements adeptes de censure et d’espionnage. Mais les internautes sensibles à la menace des publicitaires peuvent sans difficulté limiter cet espionnage à l’aide de bloqueurs de pub ou de solutions équivalentes. Il est déplorable qu’assez peu de personnes tirent avantage de ces contre-mesures, mais de là à supposer que les dissidents sous des régimes répressifs auront la même confiance naïve dans leur gouvernement que le client moyen envers les cookies de traçage de Google, il y a un pas énorme à franchir. Dans l’analyse de Morozov, votre vulnérabilité sur le web reste la même, que vous ayez un a priori bienveillant ou hostile à l’égard du site que vous visitez ou du mouchard qui vous préoccupe.

Morozov est également prêt à faire preuve d’une improbable crédulité lorsque cela apporte de l’eau à son moulin – par exemple, il s’inquiète du fait que le gouvernement chinois ait imposé d’installer un programme de censure obligatoire, appelé « barrage vert », sur tous les PC, même si cette manœuvre a été tournée en ridicule par les experts en sécurité du monde entier, qui ont prédit, à raison, que cela serait un échec lamentable (si un programme de censure n’est pas capable d’empêcher votre enfant de 12 ans de regarder du porno, il n’empêchera pas des internautes chinois éduqués de trouver des informations sur Falun Gong). Dans le même temps, Morozov oublie complètement d’évoquer les projets de l’industrie du divertissement consistant à exploiter l’« informatique de confiance » dans le but de contrôler l’utilisation de votre PC et de votre connexion à Internet, ce qui constitue une menace plus crédible et plus insidieuse pour la liberté du Net.

Morozov n’est pas le seul à avoir cette vision erronée de la sécurité sur Internet. Comme il le fait remarquer, l’appareil diplomatique occidental regorge d’imbéciles heureux prenant leurs désirs pour la réalité en matière de technologie. L’experte de la Chine Rebecca MacKinnon, que l’auteur cite tout au long de Net Delusion, raille l’obstination aveugle des ingénieurs et des diplomates à percer les pare-feux de la censure (comme la « grande e-muraille de Chine »), alors même qu’ils négligent d’autres risques beaucoup plus importants et pernicieux que le politburo de Pékin fait peser sur la liberté. Si Net Delusion a pour but d’amener le corps diplomatique à écouter d’autres groupes d’experts, ou d’inciter la presse généraliste à mieux rendre compte des possibilités de la technologie, je suppose que c’est admirable. Mais je crois que Morozov espère toucher des personnes au-delà de la Maison Blanche, Bruxelles, ou Washington ; j’ai l’impression qu’il espère que le monde entier va cesser d’attendre de la technologie qu’elle soit une force libératrice, pour plutôt faire confiance à… à quoi donc ?

Je n’en suis pas sûr. Morozov voudrait semble-t-il voir le chaos des mouvements populaires remplacé par une espèce d’activisme bien ordonné et impulsé depuis le sommet, mené par des intellectuels dont les réflexions ne peuvent pas s’exprimer de manière concise dans des tweets de 140 caractères. Morozov se voit-il lui-même comme l’un de ces intellectuels ? Voilà un point qui n’est jamais exprimé clairement.

Il est important de se poser la question de la place des discours sérieux à l’ère d’Internet, et Morozov essaie ici d’étayer ses arguments techniques avec des arguments idéologiques. De son point de vue, Internet n’est que le dernier avatar d’une série de technologies de communication qui ne propagent que futilités, rumeurs et inepties, évinçant ainsi les pensées et les réflexions sérieuses. Il n’est pas le premier à remarquer que des médias qui livrent des informations à un rythme effréné conduisent à réfléchir de manière rapide et papillonnante ; Morozov cite le livre de Neil Postman publié en 1985, « Amusing Ourselves to Death » (NdT : « Se distraire à en mourir »), mais il aurait tout aussi bien pu citer Walden ou la vie dans les bois, de Henry David Thoreau : « Nous sommes prêts à creuser un tunnel sous l’Atlantique pour rapprocher de quelques semaines l’Ancien monde du Nouveau ; mais la première nouvelle qui passera jusqu’aux oreilles américaines sera sans doute que la princesse Adélaïde a la coqueluche. »

« Internet nous rendra stupide »

En d’autres termes, les intellectuels se sont de tout temps lamentés sur la futilisation inhérente aux médias de masse – je ne vois pas de grande différence entre les arguments de l’Église contre Martin Luther (permettre aux laïcs de lire la Bible va futiliser la théologie) et ceux de Thoreau, Postman et Morozov qui prétendent qu’Internet nous rend stupides car il nous expose à trop de « LOLCats ».

Mais comme le fait remarquer Clay Shirky, il existe une différence fondamentale entre entendre parler de la santé de la princesse Adélaïde grâce au télégraphe ou suivre les rebondissements de Dallas à la télévision, et faire des « LOLCats » sur le Net : créer un « LOLCat » et le diffuser dans le monde entier est à la portée de tous. Autrement dit, Internet offre la possibilité de participer, d’une manière que les autres médias n’avaient même jamais effleurés : quiconque a écrit un manifeste ou une enquête peut les mettre largement à disposition. Dans un monde où chacun est en mesure de publier, il devient plus difficile, c’est vrai, de savoir à quoi il faut prêter attention, mais affirmer que la liberté serait mieux servie en imposant le silence à 90% de la population afin que les intellectuels aient le champ libre pour éduquer les masses est complètement stupide.

Pourtant, Morozov présente comme un inconvénient la facilité à publier en ligne. D’abord parce que d’après lui les futilités finissent par submerger les sujets sérieux, ensuite parce que des cinglés nationalistes anti-démocratie peuvent utiliser le Net pour attiser la haine et l’intolérance, et enfin parce que les difficultés que l’on rencontrait autrefois pour s’organiser politiquement constituaient un moyen en soi de forger son engagement, les risques et les privations associés à la dissidence renforçant la résolution des opposants.

Il est vrai qu’Internet a mis à portée de clic plus de futilités que jamais auparavant, mais c’est seulement parce qu’il a mis à portée de clic davantage de tout. Il n’a jamais été aussi simple qu’aujourd’hui de publier, lire et participer à des discussions sérieuses et argumentées. Et même s’il existe une centaine (ou un millier) de Twitteurs futiles pour chaque blog sérieux et pertinent, du genre de Crooked Timber, il existe davantage de points d’entrée pour des discussions sérieuses – que ce soit sur des blogs, des forums, des services de vidéo, ou même sur Twitter – qu’il n’y en a jamais eu auparavant dans toute l’histoire de l’humanité.

Il est tentant d’observer toute cette diversité et d’y voir une caisse de résonance dans laquelle les personnes ayant les mêmes points de vue étriqués se rassemblent et sont toutes d’accord entre elles, mais un coup d’œil rapide sur les débats enflammés qui sont la marque de fabrique du style rhétorique d’Internet suffit pour nous en dissuader. En outre, si nous étions tous enfermés dans une caisse de résonance se limitant à une mince tranche de la vie publique, comment se fait-il que toutes ces futilités – vidéos marrantes de Youtube, coupures de presse people fascinantes et liens vers l’étrange et le saugrenu – continuent à parvenir jusqu’à nos écrans ? (Morozov essaie ici d’avoir le beurre et l’argent du beurre, en nous prévenant que nous sommes à la fois en danger de nous noyer dans des futilités, et que l’effet de caisse de résonance va tuer la sérendipité).

Je suis moins inquiet que Morozov sur le fait que le Net fournisse un refuge aux fous littéraires à tendance paranoïaque, aux racistes hyper-nationalistes et aux hordes de tarés violents. Les gens qui croient en la liberté d’expression ne doivent pas s’affliger du fait que d’autres utilisent cette liberté pour tenir des propos mauvais, méchants ou stupides ; comme le dit le mantra de la libre expression : « La réponse à de mauvaises paroles est davantage de paroles ».

Pour la liberté

Sur ce point également Internet n’est pas neutre, et penche plutôt en faveur des défenseurs de la liberté. Les gouvernements puissants ont toujours eu la possibilité de contrôler la parole publique par le biais de la censure, des médias officiels, de la tromperie, des agents provocateurs et de bien d’autres moyens visibles ou invisibles. Mais ce qui est original, c’est que les oligarques russes utilisant Internet pour faire de la propagande sont désormais obligés de le faire en utilisant un média que leurs opposants idéologiques peuvent également exploiter. A l’époque soviétique, les dissidents se limitaient d’eux-mêmes à des chuchottements et des samizdat copiés à la main ; de nos jours, leurs héritiers peuvent lutter à armes égales avec les propagandistes de l’Etat sur le même Internet, un lien plus loin. Bien sûr, c’est risqué, mais le risque n’est pas nouveau (et la création et l’amélioration d’outils permettant l’anonymat, ouverts et validés par des pairs, ouvre de nouvelles perspectives en terme de limitation des risques) ; ce qui est nouveau c’est le remplacement de canaux de propagande unidirectionnels, comme la télévision (qu’elle diffuse des contenus de l’Est ou de l’Ouest) par un nouveau média qui permet de placer n’importe quel message à côté de n’importe quel autre grâce à des concepts puissants comme les hyperliens.

Je partage avec Morozov l’ironie de la situation lorsque les radicaux islamistes utilisent Internet pour honnir la liberté, mais alors que Morozov trouve ironique que les outils de la liberté puissent être utilisés pour embrasser la censure, je trouve ironique que pour se faire entendre, des apprentis-censeurs s’appuient sur le caractère universellement accessible d’un des médias les plus difficiles à censurer jamais conçus.

Sur le fait que la privation est fondamentale pour renforcer l’engagement des activistes, je suis confiant dans le fait que pour chaque tâche automatisée par Internet, de nouvelles tâches, difficiles à simplifier, vont apparaître et prendre leur place. En tant qu’activiste politique durant toute ma vie, je me souviens des milliers d’heures de travail que nous avions l’habitude de consacrer à l’affichage sauvage, au remplissage d’enveloppes ou aux chaînes téléphoniques simplement dans le but de mobiliser les gens pour une manifestation, une pétition ou une réunion publique (Morozov minimise la difficulté de tout cela, lorsqu’il suppose, par exemple, que les Iraniens apprendraient par le bouche à oreille qu’une manifestation va avoir lieu, quels que soient les outils disponibles, ce qui m’amène à croire qu’il n’a jamais essayé d’organiser une manifestation à l’époque où Internet n’existait pas). Je suis convaincu que si nous avions eu la possibilité d’informer des milliers de gens d’un simple clic de souris, nous ne serions pas ensuite rentrés tranquillement chez nous ; ce travail besogneux engloutissait la majeure partie de notre temps et de notre capacité à imaginer de nouvelles façons de changer les choses.

En outre, Morozov ne peut pas gagner sur les deux tableaux : d’un côté, il tire le signal d’alarme à propos des groupes extrémistes et nationalistes qui sont constitués et motivés par le biais d’Internet en vue de réaliser leurs opérations terrifiantes ; et quelques pages plus loin, il nous dit qu’Internet facilite tellement les choses que plus personne ne sera suffisamment motivé pour sortir de chez lui pour faire quoi que ce soit de concret.

Morozov observe les centaines de milliers voire les millions de personnes qui sont motivées pour faire quelques minuscules pas pour le soutien d’une cause, comme par exemple changer son avatar sur Twitter ou signer une pétition en ligne, et il en conclut que la facilité de participer de façon minime a dilué leur énergie d’activiste. J’observe le même phénomène, je le compare au monde de l’activisme tel que je l’ai connu avant Internet, dans lequel les gens que l’on pouvait convaincre de participer à des causes politiques se chiffraient plutôt en centaines ou en milliers, et je constate que tous les vétérans de l’activisme que je connais ont commencé en effectuant un geste simple, de peu d’envergure, puis ont progressivement évolué vers un engagement toujours plus fort et plus profond ; j’en arrive donc à la conclusion que le Net aide des millions de personnes à se rendre compte qu’ils peuvent faire quelque chose pour les causes qui leur tiennent à cœur, et qu’une partie de ces personnes va continuer et en faire toujours plus, petit à petit.

Le pouvoir libérateur de la technologie

La plus étrange des thèses soutenues dans Net Delusion est que la confiance que place l’Occident dans le pouvoir libérateur de la technologie a mis la puce à l’oreille des dictateurs – qui n’étaient auparavant pas intéressés par le contrôle du Net – et a rendu Internet plus difficilement utilisable dans un but de propagation de la liberté. Morozov cite en exemple la réponse des autorités Iraniennes aux affirmations outrancières qu’a tenu le Département d’État américain sur le rôle qu’aurait joué Twitter dans les manifestations post-électorales. Selon Morozov, les hommes politiques au pouvoir en Iran étaient en grande partie indifférents au Net, jusqu’à ce que les Américains leur annoncent que celui-ci allait causer leur perte, suite à quoi ils prirent sur eux de transformer Internet en un outil d’espionnage et de propagande à l’encontre de leurs citoyens.

Morozov fait ensuite état de divers dirigeants, comme Hugo Chávez, qui ont utilisé la rhétorique des USA pour appuyer leurs propres projets concernant Internet.

Il accuse également Andrew Mc Laughlin, conseiller technique adjoint du gouvernement des États-Unis, d’avoir fourni des munitions aux dictateurs du monde entier en déclarant publiquement que les compagnies de télécommunications américaines censurent en secret leurs réseaux, car cela a permis aux dictateurs de justifier leurs propres politiques.

C’est peut-être le passage le plus bizarre de Net Delusion, car il revient à dénoncer le fait qu’un homme politique américain combatte la censure sur le territoire national, au prétexte que les dictateurs étrangers seront réconfortés d’apprendre qu’ils ne sont pas les seuls à pratiquer la censure. Il me semble peu vraisemblable que Morozov veuille véritablement que les hommes politiques occidentaux ferment les yeux sur la censure opérée dans leurs pays de peur que l’écho des imperfections de l’Occident ne parvienne à des oreilles hostiles.

Dans la foulée, Morozov nous prévient que les dictateurs ne sont ni des imbéciles ni des fous, mais plutôt des politiciens extrêmement retors, et techniquement très éclairés. Je pense qu’il a raison : la caricature occidentale dépeignant les dictatures comme des idiocraties criminelles vacillantes ne coïncide tout simplement pas avec les réalisations techniques et sociales de ces États – et c’est justement pourquoi je pense qu’il a tort sur les relations entre les dictatures et Internet. Le pouvoir découle directement de mécanismes de communication et d’organisation, et Internet est là depuis suffisamment longtemps pour que tout autocrate accompli en ait pris note. L’idée que l’élite gouvernante de l’Iran n’ait pris conscience du pouvoir d’Internet que lorsque le ministère des affaires étrangères des États-Unis ont publiquement demandé à Twitter de modifier son planning de maintenance (afin de ne pas interférer avec les tweets liés aux élections en Iran) me paraît aussi ridicule que la surestimation, par ce même ministère des affaires étrangères, de l’influence que peut avoir Twitter sur la politique étrangère. Les activistes qui ont fait attention à la manière dont les États autoritaires interfèrent dans l’utilisation d’Internet par leurs citoyens, savent que la méfiance – et la convoitise – à l’égard du pouvoir d’Internet s’est développée dans les dictatures du monde entier depuis le moment où l’opinion publique s’est intéressée à Internet.

Le véritable problème dans la présentation que Morozov fait des « net-utopistes » est qu’ils n’ont rien en commun avec le mouvement que je connais intimement et dont je fais partie depuis une décennie. Là où Morozov décrit des personnes qui voient Internet comme une « force uni-directionnelle et déterministe allant soit vers une émancipation globale, soit vers une oppression globale » ou « qui refusent de reconnaître que le Web peut tout autant renforcer les régimes autoritaires que les affaiblir », je ne vois que des arguments spécieux, des caricatures inspirées des gros titres de CNN, des extraits sonores de porte-paroles de l’administration américaine, et des réparties de conférence de presse.

Tous ceux que je connais dans ce mouvement – des donateurs aux concepteurs d’outils, en passant par les traducteurs, des activistes de choc aux mordus de l’ONU – savent qu’Internet représente un risque tout autant qu’une opportunité. Mais contrairement à Morozov, ces personnes ont un plan pour minimiser les risques émanant de l’utilisation d’Internet (ceci explique pourquoi il y a tant de campagnes autour de la vie privée et des problèmes de censure provenant des logiciels propriétaires, des services de réseaux sociaux et des systèmes centralisés de collecte de données comme Google) et pour maximiser son efficacité en tant qu’outil d’émancipation. Ce plan implique le développement de logiciels libres et la diffusion de pratiques qui garantissent un meilleur anonymat, des communications plus sécurisées, et même des outils abstraits comme des protocoles réseau à divulgation nulle de connaissance qui permettent une large propagation des informations à travers de vastes groupes de personnes sans révéler leurs identités.

Morozov a raison d’affirmer que les hommes politiques occidentaux ont une vue simpliste du lien entre Internet et la politique étrangère, mais ce n’est pas simplement un problème de politique étrangère, ces mêmes hommes politiques ont incroyablement échoué à percevoir les conséquences d’Internet sur le droit d’auteur, la liberté d’expression, l’éducation, l’emploi et tous les autres sujets d’importance. Morozov a raison de dire que les métaphores dignes de la Guerre Froide comme « Grande muraille électronique » occultent autant qu’elles dévoilent (Net Delusion vaut son prix ne serait-ce que pour sa brillante démonstration que les dictatures utilisent autant les « champs » que les « murs » dans leurs stratégies Internet, et que ceux-ci demandent à être « irrigués » plutôt que « renforcés » ou « démolis »).

Mais dans son zèle à éveiller les décideurs politiques aux nuances et aux aspects non-techniques de la politique étrangère, il est approximatif et paresseux. Il affirme que ce qui différencie Internet d’un fax de l’époque des samizdat, c’est qu’Internet est utile tout autant aux oppresseurs qu’aux opprimés – mais je n’ai jamais rencontré de bureaucrate qui n’aimait pas son fax.

Et bien que Morozov tienne à nous montrer que « ce ne sont pas les tweets qui font tomber les gouvernements, c’est le peuple », il déclare ensuite allègrement que le bloc soviétique s’est désagrégé de lui-même, et pas à cause du peuple, qui n’a eu aucun rôle dans cet inévitable coup de balai de l’Histoire. Morozov croit peut-être que c’est exact dans le cas de l’URSS, mais étant donné qu’une large part du reste du livre est consacrée à la situation difficile des dissidents sur le terrain, je pense que l’on peut affirmer que même Morozov serait d’accord avec lui-même pour dire que, parfois, le peuple joue un rôle dans le renversement des régimes autoritaires.

Pour parvenir à ce but, les dissidents ont besoin de systèmes pour communiquer et s’organiser. Toute entreprise humaine qui nécessite le travail de plusieurs personnes doit consacrer une certaine partie de ses ressources au problème de la coordination : Internet a simplifié grandement ce problème (rappelez-vous les heures consacrées par les activistes au simple envoi de cartes postales contenant les informations au sujet d’une prochaine manifestation). En cela, Internet a donné un avantage substantiel aux dissidents et aux outsiders (qui ont, par définition, moins de ressources de départ) par rapport aux personnes détenant le pouvoir (qui, par définition, ont amassé suffisamment de ressources pour en engloutir une partie dans la coordination et en conserver encore suffisamment pour gouverner).

Internet permet à d’avantage de personnes de s’exprimer et de participer, ce qui signifie inévitablement que les mouvements de protestation vont avoir un ensemble d’objectifs plus diffus qu’à l’époque des révolutions autoritaires orchestrées par le haut. Mais Morozov idéalise le consensus des révolutions passées – que ce soit en 1776, 1914 ou 1989, chaque révolution réussie est une fragile coalition d’intérêts et de points de vue antagonistes, rassemblés par le désir commun d’abolir l’ancien système, même s’il n’y a pas de consensus sur ce qui doit le remplacer.

Désormais, Internet est devenu tellement intégré au fonctionnement des États du monde entier qu’il semble difficile d’accorder crédit à la crainte de Morozov selon laquelle, en cas de menace révolutionnaire sérieuse, les gouvernements débrancheraient simplement la prise. Comme Morozov lui-même le fait remarquer, la junte brutale de Birmanie a laissé fonctionner Internet en permanence pendant les violentes répressions des émeutes politiques, en dépit de la désapprobation mondiale qu’elle a subie du fait des compte-rendus diffusés sur Internet; la Chine dépend tellement du Net pour son fonctionnement interne qu’il est impossible d’envisager une coupure du Net à l’échelle nationale (et les coupures régionales, comme celle de la province du Xinjiang pendant les émeutes des Ouïghours, sont justement remarquables par leur caractère exceptionnel).

Le monde a besoin de plus de personnes œuvrant à l’amélioration du sort des activistes qui utilisent Internet (c’est-à-dire de tous les activistes). Nous avons besoin d’un débat sérieux au sujet des tactiques comme les DDoS (distributed denial-of-service attack ou attaques distribuées par déni de service) – qui inondent les ordinateurs avec de fausses requêtes pour les rendre inaccessibles – que certains ont comparés à des sit-in. En tant que personne arrêtée lors de sit-ins, je pense que cette comparaison est fausse. Un sit-in ne tire pas uniquement son efficacité du blocage des portes de tel endroit blâmable, mais de la volonté affichée de se tenir devant ses voisins et d’assumer le risque d’une arrestation ou de blessures au bénéfice d’une cause juste, ce qui confère une légitimité éthique à la démarche et facilite l’adhésion. En tant que tactique, les DDoS s’apparentent plus à de la super glu dans les serrures d’une entreprise ou au sabotage des lignes de téléphone – risqué, c’est certain, mais plus proche du vandalisme et donc moins susceptible de rallier vos voisins à votre cause.

Nous devons réparer l’Internet mobile, qui – reposant sur des réseaux et des appareils fermés – est plus propice à la surveillance et au contrôle que l’Internet filaire. Nous devons nous battre contre les manœuvres– menées par les entreprises du divertissement et les géants de l’informatique comme Apple et Microsoft – consistant à concevoir des machines dont le fonctionnement est secret et échappe au consentement de leur propriétaire, au prétexte de protéger le copyright.

Nous devons prêter attention à Jonathan Zittrain (un autre universitaire que Morozov tout à la fois rejette puis rejoint sans même s’en rendre compte), dont « Le Futur d’Internet » met en garde sur le fait que l’augmentation des crimes, escroqueries et autres fraudes sur le Net fatigue l’utilisateur et rend les gens plus enclins à accepter d’utiliser des appareils et des réseaux verrouillés, pouvant être utilisés aussi bien pour les contrôler que pour les protéger.

Nous avons besoin de tout cela, et surtout d’une critique sérieuse et d’une feuille de route pour l’avenir de l’activisme sur le Net, car les régimes répressifs du monde entier (y compris les soit-disant gouvernements libres de notre Occident) usent pleinement des nouvelles technologies à leur avantage, et le seul moyen pour l’activisme d’être efficace dans cet environnement est d’utiliser les mêmes outils.

Notes

[1] Crédit photo : Anonymous9000 (Creative Commons By)




WebM contre H.264 : La FSF soutient le choix de Google

Dawn - CC byCe n’est pas forcément tous les jours que la Free Software Foundation (FSF) de Richard Stallman applaudit et soutient ouvertement Google dans ses choix de format vidéo pour le Web. Et d’appeler les internautes à en faire de même.

Google est même qualifié d’audacieux, puisque l’adoption d’un format ouvert – WebM – s’accompagne de la suppression d’un format fermé – H.264.

Pour en savoir sur le sujet, nous ne saurions trop vous conseiller notre article : Bataille de la vidéo sur le Web : Quand Google restreint pour mieux ouvrir ?[1].

Pas de double standard : soutenir l’appui de Google à WebM

No double standards: supporting Google’s push for WebM

Brett Smith – 19 Janvier 2011 – FSF.org (Traduction Framalang : Cheval boiteux, Jérémie et Antistress)

Nous avons décidé de soutenir le projet WebM et nous encourageons les autres fondations et organisations à nous rejoindre pour connaître la marche à suivre. Aujourd’hui, nous exhortons également les gestionnaires de sites web à distribuer les vidéos dans le format WebM et à abandonner le H.264.

La semaine dernière, Google a annoncé qu’il planifiait la suppression du support du codec vidéo H.264 des ses navigateurs au profit du codec WebM qui a récemment été libéré. Depuis, il y a eu beaucoup de discussions concernant les incidences possibles sur l’avenir du Web, au moment où la spécification HTML5 — dont la balise video — mûrit.

Nous applaudissons Google pour ce changement : c’est une avancée positive pour le logiciel libre, ses utilisateurs, et pour chaque personne qui utilise le Web. Cela fait un moment déjà que regarder une vidéo sur le Web peut s’avérer périlleux. La plupart d’entre elles sont publiées à l’aide de Flash qui est un logiciel non-standard et propriétaire. Les alternatives libres comme GNU Gnash sont disponibles, mais l’expérience utilisateur n’est pas toujours à la hauteur.

Quand le travail a commencé sur la nouvelle version du standard HTML, HTML5, le travail sur la diffusion et la lecture des vidéos était une priorité. Mais, bien que tout le monde était d’accord sur ce à quoi la balise <video> devait ressembler, il n’y avait pas de consensus sur le format d’encodage des vidéos. Microsoft et Apple soutenaient H.264, Mozilla et Opera soutenaient WebM et Ogg Theora. Jusque là, Google supportait tous ces codecs, mais aujourd’hui il a fait preuve d’audace en décidant de supporter les standards libres et ouverts et de laisser tomber H.264.

Ceci est une bonne nouvelle, car si H.264 devenait le standard de fait pour la vidéo sur le Web, cela ne serait pas mieux que la situation actuelle. H.264 est un codec lourdement breveté ; le consortium MPEG LA oblige les développeurs qui l’implémentent à accepter une licence de brevet. Cette licence est fondamentalement incompatible avec les logiciels libres. Elle exige des développeurs qu’ils restreignent l’utilisation qui sera faite de leur logiciel, et permet la collecte d’une redevance dans la plupart des situations.

Afin de s’assurer que le Web reste libre et ouvert pour tous, nous avons besoin qu’un codec libre s’impose comme standard de fait pour HTML5. WebM peut être ce codec : Google fournit avec le standard une licence de brevet qui est compatible avec les licences des logiciels libres et propose même une implémentation libre. Ils promeuvent également avec force ce codec, et leur décision de laisser tomber H.264 est une étape de plus dans cette direction.

Des réactions au geste de Google ont suggéré que cela représentait un pas en arrière pour les standards sur le Web, car H.264 est supporté par un plus grand nombre de matériels et de logiciels. Ces commentaires révèlent une incompréhension fondamentale de la vision d’un Web libre et ouvert. Nous ne pouvons être libres que si nous rejetons les formats de données qui sont assujettis à brevets.

Mais la question n’est pas encore règlée. C’est le moment pour tout le monde d’agir et de faire en sorte que WebM soit effectivement adopté par le plus grand nombre À cette fin, nous avons décidé de soutenir le projet WebM et nous encourageons les autres fondations et organisations à nous rejoindre — écrivez à webmaster AT webmproject.org pour connaître la marche à suivre. Aujourd’hui, nous exhortons également les gestionnaires de sites web à distribuer les vidéos dans le format WebM et à abandonner le H.264.

Bientôt, nous allons transformer notre campagne PlayOgg en PlayFreedom et nous allons mettre l’accent sur les moyens permettant à chacun d’encourager l’adoption de WebM. Vous pouvez vous inscrire dès maintenant pour en savoir plus sur la manière d’aider. Ensemble, nous pouvons veiller à ce que le Web remplisse sa promesse d’être libre pour tout le monde.

Notes

[1] Crédit photo : Dawn (Creative Commons By)




Microsoft et l’Open Source ensemble aux Antipodes

Robbie Grubbs - CC by-saS’il n’y a que les imbéciles qui ne changent pas d’avis, alors j’ai l’honneur de vous faire savoir que Microsoft n’en fait plus partie.

Un communiqué de presse de Microsoft Nouvelle-Zélande, datant de novembre dernier, est passé totalement inaperçu alors qu’il est pourtant tout simplement énorme pour des p’tits gars comme moi qui versent dans le Libre depuis une bonne dizaine d’années et dans l’éducation depuis encore plus longtemps.

Qu’il soit devenu « naturel » pour Microsoft de proposer un plugin à Word afin d’aider le monde de l’éducation à mieux travailler sur les wikis sous Mediawiki (à commencer par Wikipédia), cela passe encore. Qu’on y mentionne et soutienne alors explicitement les Ressources Éducatives Libres sous licence Creative Commons By, cela commence à surprendre. Mais qu’il soit devenu tout aussi « naturel » pour Microsoft de placer ce plugin sous licence libre pour mieux « le partager avec la communauté », c’est tout de même une sacrée (r)évolution.

Quand on pense que, jadis, le logiciel libre était qualifié de « cancer communiste » par les mêmes qui semblent aujourd’hui découvrir ses vertus, on mesure le chemin parcouru !

Certes, ça n’est qu’une extension et non une application toute entière, Word libre ce n’est pas pour tout de suite ! Il convient également de voir concrètement la qualité du convertisseur (ce que je n’ai pu faire faute d’avoir MS Office sur mon ordi), mais la déclaration (d’intention ?) ci-dessous vaut de toutes les façons son pesant de cacahuètes[1].

Certes aussi, il est question du programme Partners in Learning (PIL) dans le communiqué. Et nous avons souvent eu l’occasion de dire dans ces colonnes tout le bien que nous pensions de ce projet Microsoft fort ambigu (lire par exemple L’école Châteaudun d’Amiens ou le pion français de la stratégie planétaire Microsoft, Les industriels lorgnent le futur grand plan numérique de Luc Chatel – Mediapart ou encore En réponse au Café Pédagogique).

Il n’en demeure pas moins que les temps changent (quand même un peu), et Microsoft aussi, semble-t-il, vis-à-vis du logiciel libre et de sa culture.

Et vous vis-à-vis de Microsoft ?

Microsoft travaille avec les enseignants et l’open source pour prendre en charge un wiki libre de partage du savoir

Microsoft works with educators and open source to support free knowledge sharing wiki

Microsoft Nouvelle-Zélande – 17 novembre 2010 – Communiqué de presse
(Traduction Framalang : Goofy et Martin)

Une nouvelle extension open source pour Microsoft Word permet d’utiliser le format de fichier MediaWiki pour que les utilisateurs puissent mettre en ligne directement leurs documents sur des wikis.

Microsoft, travaillant en collaboration avec la Fondation OER (Open Education Resource) de l’Institut polytechnique d’Otago (Nouvelle-Zélande) et du Ministère de l’éducation, a mis au point une nouvelle extension open source pour Microsoft Word qui permet d’enregistrer des documents dans un format compatible avec les wikis sous MediaWiki, celui-là même qu’utilise la populaire encyclopédie en ligne Wikipédia.

La nouvelle extension aidera les enseignants à collaborer à la construction de nouvelles ressources éducatives ouvertes. Le directeur de la Fondation Otago, Dr Wayne Mackintosh, déclare : « grâce à la prise en charge du style MediaWiki dans Microsoft Office, les professeurs pourront partager vite et facilement leur matériel pédagogique sur des plateformes en ligne telles que Wikipédia et WikiEducator. Cela signifie que les institutions éducatives adoptant la démarche de l’OER pour fournir des ressources et des manuels libres pourront abaisser considérablement la barrière du coût à engager pour fournir aux étudiants les outils et les informations dont ils ont besoin pour apprendre ».

MediaWiki a reçu un soutien sans failles du Ministère de l’éducation qui partage les objectifs de la Fondation EOR dans ce domaine.

« Nous sommes ravis de la nouveauté que constitue une extension open source dans la boîte à outils de Microsoft Office. Elle permettra aux enseignants et étudiants de Nouvelle-Zélande de s’investir plus facilement dans le partage des ressources éducatives et les débats pédagogiques, dans l’esprit du wiki » déclare Leanne Gibson, directrice des systèmes d’information.

L’institut polytechnique d’Otago héberge les bureaux de la Fondation, qui est une organisation indépendante à but non lucratif visant à assurer la prise en main, le développement et le soutien d’un réseau international d’enseignants et institutions éducatives, à travers l’Open Education. WikiEducator est la vitrine de la Fondation EOR, qui s’efforce de rendre libres d’accès les matériels pédagogiques pour les étudiants du monde entier, particulièrement dans les pays en voie de développement pour lesquels les systèmes d’éducation classiques s’avèrent souvent hors de prix.

Microsoft a financé le développement d’une nouvelle fonctionnalité du logiciel Word pour permettre à tous les enseignants du monde de produire et partager des ressources pédagogiques à un coût modeste en utilisant des outils basés sur le wiki.

Le directeur de la plateforme stratégique de Microsoft pour la Nouvelle-Zélande, Andrew Gordon, déclare que l’entreprise s’implique dans la collaboration avec la communauté open source pour développer du matériel éducatif qui bénéficiera autant aux étudiants qu’aux enseignants.

« Microsoft a un lien étroit avec le monde éducatif via nos initiatives Citizenship (citoyenneté) en cours, telles que le concours Imagine, la plus grande compétition du monde étudiant dans le domaine technologique, si bien que MediaWiki était une solution tout à fait naturelle pour nous, comme pouvait l’être la publication du code source sous une licence open source et le fait de permettre son partage avec la communauté. Compte tenu de l’utilisation intensive de Word dans tous les établissements d’éducation à travers le monde, nous chez Microsoft, sommes ravis et fiers de pouvoir apporter notre pierre à l’édifice en rendant accessibles à chacun, quelle que soit sa situation, des ressources pédagogiques de bonne qualité. »

Le convertisseur MediaWiki est si simple qu’il peut être installé rapidement et facilement par des utilisateurs non expérimentés. De plus, son code a été publié sous une licence open source, ce qui signifie que l’application peut être ré-utilisée librement comme base pour d’autres extensions communes avec MediaWiki. Il est également une référence pour quiconque aurait besoin de publier des informations à partir de Microsoft Office. Le convertisseur MediaWiki fonctionnera avec toutes les versions de la suite Office depuis 2007 jusqu’à la version récente de 2010.

Peter Harrison, le vice-président de la New Zealand Open Source Society ne tarit pas d’éloges sur cette initiative : « Internet offre à l’humanité une occasion unique de mettre à profit les technologies de la communication pour éduquer la population du monde entier. À travers les technologies collaboratives telles que le wiki tout le monde pourra travailler de concert pour créer des ressources communes de qualité, ouvertes à tous. En permettant aux utilisateurs d’exporter leurs contenus de Word vers MediaWiki, Microsoft encourage la mise à disposition d’une gamme bien plus large de ressources éducatives en ligne. »

L’Institut polytechnique d’Otago est l’un des pionniers de l’Open Education, et c’est le premier établissement d’enseignement supérieur à avoir signé la déclaration du Cap sur l’Open Education. C’est également la première institution d’enseignement supérieur au monde à approuver et mettre en œuvre une politique de la propriété intellectuelle qui utilise la licence Creative Commons Attribution par défaut (NdT : cf cet article du Framablog Privilégier la licence Creative Commons Paternité CC-BY dans l’éducation), et qui s’investit dans l’éducation au point de l’inclure dans son programme.

Ce projet est complémentaire de l’initiative PIL (Partners in Learning) que Microsoft soutient depuis dix ans à hauteur de 500 millions de dollars : il s’agit d’aider les enseignants et directeurs d’écoles à utiliser les nouvelles technologies pour apprendre et enseigner plus efficacement. Pour davantage d’informations, voir http://www.microsoft.com/education/pil.

Notes

[1] Crédit photo : Robbie Grubbs (Creative Commons By-Sa)




Bataille de la vidéo sur le Web : Quand Google restreint pour mieux ouvrir ?

Justin De La Ornellas - CC byLa semaine dernière Google annonçait que Chrome, le navigateur de la firme, ne supporterait plus dorénavant le format vidéo fermé et payant H.264 pour la vidéo sur le Web, préférant promouvoir exclusivement les formats vidéo libres et gratuits tels que WebM (VP8) et Ogg Theora.

Cette décision a été diversement accueillie, certains félicitant Google de continuer à peser de tout son poids pour faire émerger un standard libre et gratuit pour la vidéo sur le Web (on se souvient que Google a racheté l’année dernière la société On2 à l’origine du codec vidéo VP8 – que l’on retrouve dans le format WebM – pour permettre à chacun de l’implémenter et de l’utiliser gratuitement). Tandis que d’autres ont reproché à Google son incohérence en continuant de supporter dans le même temps le greffon propriétaire Flash.

En effet, jusqu’à présent la vidéo sur le Web nécessitait un greffon (typiquement Flash, de la société Adobe, omniprésent) qui agissait comme une boite noire en s’intercalant entre le navigateur et l’utilisateur. La récente mise à jour de la spécification HTML (qui sert à créer et afficher les pages Web) offre depuis la possibilité d’afficher les vidéos directement dans n’importe quel navigateur à jour, sans avoir à dépendre d’un unique logiciel appartenant à une unique société privée avec tous les dangers que cela représente[1].

Mais il reste pour cela à se mettre d’accord sur le choix du format dans lequel encoder la vidéo. Apple (Safari) refuse d’implémenter autre chose que le format payant H.264 qu’il souhaiterait voir s’imposer, ce qui placerait la vidéo sur le Web entre les mains d’un consortium de sociétés privées chargé de récolter les redevances et créerait un péage incontournable pour toute société qui souhaiterait innover sur le Web (avec ce système, Firefox et bien d’autres n’auraient jamais pu voir le jour). Pour leur part, Mozilla (Firefox), Opera et Google (Chrome) soutiennent WebM et Ogg Theora en tant que technologies libres et gratuites pouvant être mises en œuvre par n’importe qui sans restriction. Pendant ce temps Microsoft compte les points, n’excluant aucune des solutions

Tristan Nitot, Président de Mozilla Europe, l’explique bien : « Si le Web est si participatif, c’est parce qu’il n’y a pas de royalties pour participer et créer un contenu. (Faire le choix du H.264) serait hypothéquer l’avenir du Web. On créerait un îlot technologique, un club de riches : on pourrait produire du texte ou des images gratuitement, mais par contre, pour la vidéo, il faudrait payer. »

Nous avons choisi de reproduire ici la réponse de Haavard, employé chez Opera Software, à ceux qui dénoncent la récente décision de Google.

Le retrait de Chrome du codec H.264 conduit-il à moins d’ouverture ?

Is the removal of H.264 from Chrome a step backward for openness?

par Haavard, employé chez Opera Software, le 13 janvier 2011
(Traduction Framalang : Antistress et Goofy)

Dans un long article publié sur le site Ars Technica, Peter Bright soutient que retirer de Chrome le support d’un standard fermé conduit à moins d’ouverture.

Je suis fermement en désaccord avec cette assertion et je vais essayer d’expliquer rapidement pourquoi et ce qui cloche avec les arguments mis en avant dans l’article.

1. « H.264 est un standard ouvert »

Malheureusement H.264 est un format breveté et vous ne pouvez l’utiliser sans bourse délier. Conformément à la politique du W3C sur les brevets, cela est incompatible avec la définition d’un standard ouvert, spécialement dans le contexte du Web. D’après la définition même de « ouvert », H.264 ne peut être ouvert car il ne peut être utilisé sans payer.

2. « VP8 n’est pas un standard ouvert »

Ce point est exact, en effet. Le format VP8 est une technologie avec une spécification, pas un standard. Pourtant Google a choisi de concéder à chacun le droit de l’utiliser sans payer de redevance. Ce qui signifie que VP8 est en fait un bon candidat pour devenir un véritable standard ouvert pour le Web.

3. « H.264 est libre d’utilisation à certaines conditions »

Rappelez-vous que H.264 coûte toujours de l’argent. Et même si des produits avec une faible base d’utilisateurs peuvent être exemptés dans un premier temps, vous devez toujours ouvrir votre portefeuille à un moment donné si vous voulez réaliser quelque chose sur le Web. Le consortium MPEG-LA a intelligemment « offert » la première dose. Une fois que vous êtes accro, ils peuvent commencer à vous présenter la facture.

C’est un leurre destiné à vous appâter.

4. « Le support de H.264 n’est pas requis dans la spécification HTML5 »

Mais cela deviendrait un autre standard de fait, fermé, comme l’était Internet Explorer 6. Et nous avons tous à l’esprit les dégâts que cela a causés au Web.

5. « Google fournit Chrome avec le greffon Flash préinstallé ; son attitude est hypocrite »

Cela revient à comparer des pommes avec des poires. Flash est un greffon que Google a choisit de fournir en même temps que son navigateur car il y a beaucoup de contenus qui nécessitent Flash sur le Web. H.264, loin de n’être qu’un simple greffon, ferait partie du navigateur lui-même.

Une chose qu’il est important d’avoir à l’esprit c’est que Flash est d’ores et déjà omniprésent. Si vous voulez profiter de la vidéo sur le Web, vous n’avez pas le choix : il vous faut Flash. Pourtant la « bataille » de la vidéo directement dans le navigateur, via HTML5, fait toujours rage sans qu’on puisse encore désigner le vainqueur. Mais à présent que Google laisse tomber le codec fermé H.264 dans son navigateur, la probabilité qu’un codec libre et ouvert finisse par s’imposer augmente.

Que Google continue de fournir le greffon Flash avec son navigateur est parfaitement compréhensible. La plupart des contenus vidéo sur le Web sont en Flash et Google Chrome peut ainsi continuer de les afficher, en attendant qu’un codec ouvert s’impose pour la vidéo directement dans le navigateur. Il n’y a aucune hypocrisie ici, seulement du pragmatisme.

Finalement le reproche fait à Google de livrer le greffon Flash avec son navigateur sert à détourner l’attention de la véritable question : est-ce que la vidéo directement dans le navigateur se fera au moyen d’une technologie ouverte ou fermée ?

Mise à jour : Certains brandiront iOS comme contre-argument mais ça ne résiste pas à l’analyse. Il y a une raison pour laquelle beaucoup d’utilisateurs d’iPhone/iPad sont prêts à payer même pour des solutions de transcodage de piètre qualité sur iOS : ils ne peuvent accéder à la plupart des sites de vidéos. La raison pour laquelle iOS trace sa route avec H.264 c’est basiquement que YouTube (le site d’hébergement de vidéos de Google, qui s’avère être le plus important sur le Web) le supporte. La vaste majorité des sites vidéo requièrent encore Flash. Cela dit, je comprends que certains des fans les plus importants d’Apple soient ennuyés par l’initiative de Google de promouvoir WebM. Perdre le support de YouTube serait un coup terrible pour Apple.

6. « H.264 est partout et le Web n’existe pas en vase clos »

Le fait qu’un format soit répandu en dehors d’Internet ne signifie pas qu’il convient pour le Web. Puisque le Web nécessite des formats ouverts, H.264 n’est pas adapté comme format de référence pour le Web, par définition.

Et l’argument selon lequel H.264 est partout et chacun devra faire avec ne tient pas la route à mon avis. Des sites comme YouTube doivent convertir et compresser les vidéos de toute façon, de sorte que très peu d’entre elles sont publiées telles qu’elles sortent de votre caméra.

Autrement dit : la recompression sera toujours là, et au lieu de réencoder le fichier en H.264 pour réduire sa taille et le jouer en ligne, il peut très bien être réencodé dans un format ouvert.

7. « H.264 peut être utilisé à la fois pour les vidéos en Flash et les vidéos HTML5, assurant une transition douce »

Comme je l’ai déjà expliqué, les vidéos sont habituellement recompressées d’une façon ou d’une autre. En effet, la plupart des sites offrent des vidéos de différents débits et de différentes tailles. Ils convertissent déjà les vidéos ! ils pourraient simplement les convertir dans un format ouvert à la place.

8. « Les utilisateurs de Firefox pourraient voir les vidéos H.264 en utilisant le greffon développé par Microsoft »

Notez bien le mot « greffon ». Cela veut dire que nous abandonnons la vidéo HTML5 pour retourner aux greffons. Tous les bénéfices de la vidéo directement dans le navigateur s’évanouissent (sans compter que le greffon n’existe que pour Windows 7). Par contre je pense qu’il est raisonnablement facile d’ajouter le support de WebM à Safari et Internet Explorer en complétant la liste des codecs supportés par le système d’exploitation[2].

9. « La part de marché des navigateurs qui supportent H.264 dépasse celle des navigateurs qui supportent WebM »

Google, avec son monopole de la publicité en ligne, met les bouchées doubles pour que ça n’arrive pas. Si je ne me trompe pas, la part des navigateurs basés sur les standards ouverts croît au détriment d’Internet Explorer. Bien qu’il soit impossible de mesurer de manière fiable les parts de marché de chaque navigateur, la plupart des données semblent le confirmer.

10 « La décision de Google restreint le choix des utilisateurs »

Nous attaquons maintenant le cœur du problème. Et malheureusement, c’est le format H.264 qui supprime le choix. Pendant que le format WebM maintient le Web comme plateforme ouverte, H.264 est un standard fermé détenu par un cartel d’industriels qui essaie d’éradiquer sans ménagement toute tentative de faire émerger une alternative.

Je suis également estomaqué de voir que Google est accusé de restreindre le choix des utilisateurs alors que Microsoft et Apple ne sont même pas mentionnés. Ils refusent de supporter WebM après tout.

11. « VP8 est contrôlé par Google et est propriétaire »

Je ne suis pas certain que cela fasse partie des griefs mais c’est l’interprétation que j’en ai. Et c’est un grief non fondé. Lisez la licence de WebM pour plus d’information]. WebM est un projet libre sponsorisé par Google et il est gratuitement disponible du fait de sa licence.

Propos finaux :

L’article tente de montrer que la décision de Google conduit à moins d’ouverture. En réalité l’article met sur la table toutes sortes de choses qui sont sans rapport avec cette question. Cela, je crois, pour embrouiller les choses, alors que la question des standards ouverts est une des plus importantes !

Nous pouvons facilement analyser ce qui permet plus d’ouverture dans le contexte du Web :

  • H264 est breveté, c’est donc un standard « fermé ». Il est incompatible avec la politique du W3C sur le brevets pour un Web ouvert. Par conséquent, promouvoir H.264 comme format de référence pour la vidéo HTML5 est le contraire de promouvoir l’ouverture.
  • De l’autre côté, WebM correspond bien plus à la politique des brevets du W3C. Google concède à chacun le droit d’utiliser cette technologie sans payer de redevance. Puisque WebM est ouvert, il promeut un Web ouvert.

Conclusion : En rejetant ce qui ferme le Web tout en promouvant des technologies ouvertes, Google contribue à un Web plus ouvert contrairement à ce qu’affirme l’article.

Notes

[1] Crédit photo : Justin De La Ornellas (Creative Commons By)

[2] Télécharger les codecs libres et gratuits WebM/VP8, Ogg Theora et Ogg Vorbis pour Windows – Télécharger le codec libre et gratuit WebM/VP8 pour MacOS avec les codecs libres et gratuits Ogg Vorbis et Ogg Theora pour MacOS (déposer le fichier dans votre bibliothèque QuickTime située sur votre disque dur à cet endroit : Macintosh HD/Bibliothèque/QuickTime).




Promouvoir le logiciel libre dès la maternelle

Michelle Adcock - CC by-sa Il y a quelques temps nous recevions une question fort pertinente via le formulaire de contact du Framablog. Une question du genre de celles dont on n’improvise pas la réponse dans la foulée, et il arrive alors que les réponses se fassent attendre un moment. Toutefois, les réponses une fois construites peuvent valoir le coup d’être partagées… [1]

Le plus facile, en matière de réponses, est de demander à ceux qui savent. Et les forums sont là pour ça. Mais pour aider dans le processus, la piqûre de rappel est un instrument qui se révèle efficace, et ainsi, le jeune père d’élève dont émanait la question, croisé samedi dernier au cours de l’une des nombreuses manifestations d’opposition à la LOPPSI qui animèrent le pays, en usa avec talent…

Pour la petite histoire, c’est un candidat aux élections de parents d’élèves de son école qui posa la question et c’est entre autre à un élu que s’adresse cette réponse, avec toutes nos félicitations et nos encouragements.

La question se présentait de la manière suivante :

Bonjour

Je vais me présenter aux élections de parents d’élève pour ma fille de 3 ans, en maternelle des petits. J’ai souvent lu des articles très intéressants sur le libre à l’école dans le Framablog et je suis moi même pirate et libriste. Je me demande si vous pourriez me conseiller sur, au niveau maternelle des petits, quels sont les actions que je pourrais tenter et sensibilisations que je pourrais entreprendre au niveau de l’école et de la municipalité, depuis ce poste de représentant des parents d’élèves. […]

La réponse que nous avons à lui fournir, dans la droite lignée de la catégorie Éducation de ce blog, émane d’un directeur d’école et animateur TICE. Il l’a découpée en quatre volets que voici.

Des difficultés

À l’école, l’informatique pour les élèves ce sont les TICE (Technologie de l’Information et de la Communication à l’École) parfois appelées TUIC (« U » pour « usuelle »).

Eh bien les TICE, le matériel informatique, ne sont plus mentionnés pour le cycle maternel dans les programmes 2008 de l’Éducation Nationale. Pas interdits, mais pas mentionnés : même pas comme exemple de support d’écrit.

Le niveau de maîtrise de l’outil informatique est très inégal parmi les enseignant(e)s de maternelle.

La dotation en matériel, pour les écoles maternelles et élémentaires, est du ressort de la municipalité. Les écoles maternelles sont souvent les parents pauvres en matière d’équipement informatique : souvent un poste pour la direction d’école… et c’est tout. Les parents d’élèves peuvent apporter leur concours en trouvant du matériel de récupération.

Des aides

Une remarque préalable : les enseignant(e)s sont responsables de leur pédagogie. On peut les aider, voire les inciter, mais en aucun cas les contraindre à faire utiliser l’outil informatique par les élèves.

Le mode de fonctionnement de la plupart des classes maternelles (en ateliers à certains moments) est favorable à l’utilisation de postes, par petits groupes, parmi d’autres activités. Il est nécessaire que le matériel soit fiable, et que les logiciels soient adaptés pour permettre rapidement une autonomie des élèves à cet atelier.

Dans de nombreuses circonscriptions, il existe un animateur TICE : un enseignant partiellement détaché. Parmi ces missions, il doit apporter son concours aux enseignants désirant mettre en œuvre une pédagogie utilisant les TICE. Il serait judicieux de se rapprocher de lui.

Il existe des packs logiciels (regroupant système d’exploitation et logiciels ludo-éducatifs) très bien conçus, et utilisables dès la maternelle à l’école ou à la maison. Ils se présentent sous forme de live-CD (on fait démarrer la machine sur le lecteur de cédérom) et on est assuré que les données contenues sur le disque dur ne risquent rien. Pratique pour l’ordinateur familial. On peut aussi les copier sur une clé USB, et la rendre amorçable [2]. On peut enfin les copier sur le disque dur à la place du système d’exploitation déjà existant (intéressant dans le cas d’une vieille machine un peu à bout de souffle).

Des réalisations très intéressantes

Il existe aussi la version monoposte d’AbulEdu (notice Framasoft), l’excellent FramaDVD École (page projet) et enfin de très nombreuses applications pédagogiques libres fonctionnant sous Windows.

Une remarque pour finir

Il me semble très maladroit de se présenter comme «  pirate et libriste ». Ça ne peut que renforcer la confusion dans l’esprit de certains, qui assimilent les deux termes. Ça ne peut que rendre plus difficile votre démarche d’aide aux équipes enseignantes.

Soyons clairs : le piratage à l’école… on n’en veut pas.

Pour des raisons éthiques : nous avons une mission d’éducation civique et morale. Tricher, voler, utiliser des logiciels piratés est en contradiction totale avec une démarche éducative.

Item 2.3 du Brevet Informatique et Internet (B2i)
Si je souhaite récupérer un document, je vérifie que j’ai le droit de l’utiliser et à quelles conditions.

Pour des raisons militantes : on sait bien que les pirates de logiciels font le jeu des maisons d’édition en renforçant la présence de leurs produits, en les rendant plus utilisés, donc plus désirables.

Soyons fiers des logiciels libres !

Notes

[1] Crédit photo : Michelle Adcock Creative Commons By-Sa

[2] On devrait même dire : « amorçante »




Ce que pense Jimmy Wales des App Stores et de la Neutralité du Net

Joi Ito - CC byVoici une courte traduction qui fait en quelque sorte la jonction entre les 10 ans de Wikipédia et notre récent billet évoquant la difficile cohabitation entre l’App Store d’Apple et les logiciels libres.

Il n’y pas que les libristes qui critiquent ces plateformes et qui y voient un possible « nœud d’étranglement », il y a aussi le fondateur de Wikipédia[1].

Pour ce qui concerne la neutralité du Net, il se montre plus prudent en ne partageant pas l’alarmisme de certains, mais il reconnaît que son avis est « fluctuant » sur le sujet.

Jimmy Wales, de Wikipédia : les App stores, une menace claire et actuelle

Wikipedia’s Jimmy Wales: App stores a clear and present danger

John Lister – 13 janvier 2011 – Tech.Blorge
(Traduction Framalang : Olivier Rosseler)

Le modèle des plateforme de téléchargement d’application (NdT : ou App Stores, du nom de la plus célèbres d’entre elles, celle d’Apple) est une menace plus immédiate pour la liberté d’Internet que les entorses à la neutralité du Net. C’est l’opinion de Jimmy Wales, le boss de Wikipédia.

D’après Wales, qui a clairement insisté sur le fait qu’il parlait en son nom propre, les plateformes de téléchargement d’applications, comme l’App Store d’iTunes, peuvent devenir des « nœuds d’étranglements très dangereux. » D’après lui, il est temps d’évaluer si ce modèle est « une menace pour la variété et l’ouverture des écosystèmes » en avançant que « lorsque nous achetons un appareil, nous devrions en avoir le contrôle. »

Wales s’exprimait lors d’un évènement à Bristol, en Angleterre, à l’occasion de l’anniversaire des 10 ans de Wikipédia. Pour lui, les inquiétudes exprimées sur la neutralité du Net ne sont souvent qu’hypothétiques et ne représentent pas un danger immédiat. Il reconnaît cependant que le sujet est complexe et que sa propre opinion est « sujette aux fluctuations » (ce qui signifie apparemment qu’il ne suivrait pas aveuglément un principe strict quelle que soit la situation). Il trouve que les arguments de la campagne pour la neutralité du Net sont « largement alarmistes » et plus centrés sur des craintes que sur des faits.

Wales s’est livré à une session de questions/réponses après une présentation sur le passé, le présent et le futur de Wikipédia. Il y cite notamment le tweet d’un enseignant qui disait : « Hier, j’ai demandé à une de mes étudiantes si elle savait ce qu’est une encyclopédie et elle m’a répondu « Quelque chose comme Wikipédia ? ». » D’après Wales, de tels exemples montrent que « la qualité de Wikipédia est un enjeu culturel majeur. » Mais il insiste sur le fait que les étudiants ne devraient pas citer WIkipédia dans leurs essais ou leurs dissertations, ni aucune autre encyclopédie d’ailleurs.

Partant du constat que 87% des contributeurs de Wikipédia sont des hommes, d’âge moyen 26 ans, et que les docteurs sont deux fois plus représentés que dans la population globale, l’un des plus grands défis du site est, selon lui, de s’ouvrir à une population plus diverse de contributeurs. Une solution serait de simplifier le système d’édition, éliminer autant que possible tout ce qui fait appel aux codes. Il reconnaît en particulier que la création de tableaux est un véritable « cauchemar ».

Mais il insiste également sur le fait que Wikipédia ne déviera pas de son but premier. S’il concède que l’ajout de fonctionnalités comme les e-mails ou le chat pourrait attirer plus de visiteurs, ce qui est l’objectif de services commerciaux, cela ne profiterait pas nécessairement à la qualité du contenu de Wikipédia, qui, d’après lui, devrait « égaler celle de l’encyclopédie Britannica, voire faire mieux. »

Notes

[1] Crédit photo : Joi Ito (Creative Commons By)




Pourquoi plus de dix ans de retard pour l’informatique à l’école ?

QThomas Bower - CC by-saAuriez-vous deviné que l’article que nous vous proposons aujourd’hui date de 1998 ? Oui car il est question de francs et non d’euros, mais sinon force est de constater qu’il est toujours d’actualité.

On pourrait même ajouter qu’il est malheureusement toujours d’actualité car les arguments avancés restent pertinents alors que, douze ans plus tard, les solutions envisagées n’ont toujours pas été prises. Et il est alors légitime de se demander pourquoi, et qui a et a eu intérêt à ce qu’il soit urgent de ne rien faire.

J’ai donc voulu profiter du fait que le Framablog est relativement bien intégré dans la sphère des blogs et autres réseaux sociaux pour le sortir de sa naphtaline et vous le faire partager. Nous devons cet article à Bernard Lang, directeur de recherche à l’Inria et membre fondateur de l’AFUL.

Le sujet de la place de l’informatique à l’école est un sujet qui semble a priori un peu à la marge des logiciels libres. Il n’en est rien pourtant. Et c’est pourquoi nous publions régulièrement des articles sur ce thème, en soutenant le travail, enfin proche d’aboutir, de Jean-Pierre Archambault et d’autres, au sein notamment de l’EPI et de l’ASTI :

C’est aussi pourquoi notre collection de livres libres Framabook accueille des titres comme Le C en 20 heurs ou Tout ce que vous avez toujours voulu savoir sur Unix sans jamais oser le demander.

Il ne s’agit pas de faire de tout citoyen un programmeur chevronné. Mais logiciels (libres ou pas), données (personnelles ou pas), réseaux, Cloud Computing, Internet (filtrage, neutralité), Hadopi, Acta, Loppsi, Facebook, Microsoft, Apple, Google, Wikileaks, Anonymous… comment comprendre et appréhender au mieux ce nouveau monde si l’on n’a pas un minimum de culture informatique ?

Parce que dans le cas contraire, on se met alors tranquillement à accepter, pour ne pas dire applaudir, l’entrée des iPad dans nos écoles, ce qui devrait d’ailleurs être le sujet de mon prochain billet[1].

L’Informatique : Science, Techniques et Outils

URL d’origine du document

Bernard Lang (INRIA) – décembre 1998

(Présenté à LexiPraxi 98, journée de réflexion sur le theme «Former des citoyens pour maîtriser la société de l’information», organisée le 9 décembre 1998 à la Maison de l’Europe (Paris) par l’AILF. L’auteur remercie Pierre Weis pour sa relecture et ses nombreux commentaires.)

« Le développement extrêmement rapide des technologies de l’information et de la communication ouvre un formidable potentiel de croissance et de création d’emplois, mêlant des enjeux industriels, économiques et sociaux considérables. Ces technologies constituent le premier secteur économique des prochaines années… » (Bernard Larrouturou – L’INRIA dans dix ans – 1997)

Devant une telle analyse, devant l’importance de l’enjeu, l’on imagine aisément que l’une des premières choses à faire est de développer les sciences de l’information dans l’enseignement, afin de préparer les élèves aux défis du prochain siècle. C’est effectivement ce qui se passe, et l’on voit les USA dépenser des sommes de l’ordre de 100 milliards de francs par an pour l’informatisation des écoles. Sans être du même ordre, les efforts consentis par la France dans ce domaine sont également considérables. Et pourtant, selon un article de Todd Oppenheimer, The Computer Delusion, paru dans la revue Atlantic Monthly en Juillet 1997, l’introduction de l’informatique dans les établissements scolaires est loin de donner les résultats que l’on pourrait attendre de tels investissements, et l’on peut légitimement se demander si des investissements moindres, mais autrement employés, ne donneraient pas de meilleurs résultats.

Où est l’erreur ?

L’une des premières remarques que l’on peut faire est que les plus ardents promoteurs de l’informatique à l’école sont les constructeurs de machines, et surtout les éditeurs de logiciels. Il s’agit donc de promotion corporatiste et commerciale, d’habituer les familles et les futurs consommateurs à ces produits, de capturer des marchés, bien plus que d’améliorer le système éducatif. À cet égard l’Union Européenne n’est pas en reste. Si l’on analyse une document comme le Rapport de la Task force Logiciels éducatifs et Multimédia de la Commission Européenne, on constate que la Commission est bien plus préoccupée de développer des marchés lucratifs que d’améliorer le système éducatif. Devant cet assaut mercantile, beaucoup de voix s’élèvent contre l’introduction excessive, trop vite planifiée et mal analysée de l’informatique à l’école, en se demandant si l’utilité pédagogique en est réelle, si l’on n’est pas en train d’appauvrir le système éducatif, que ce soit par le choix d’innovations faussement pédagogiques, ou simplement par une mauvaise évaluation des priorités d’investissement.

Nullement compétent en matière de théorie pédagogique, je me garderai bien de trancher dans un sens ou un autre. Force est cependant de constater qu’il est clair que les nouveaux outils informatiques ont déjà montré qu’ils pouvaient, au moins dans certaines circonstances, apporter un plus pédagogique. Mais de là à faire un investissement massif, sur des ressources chères, sans analyse sérieuse des différentes alternatives, sans expérimentation sur le long terme, simplement sous la pression des marchés et des média, est-ce bien raisonnable ?

Mais là n’est pas l’essentiel de notre propos. Car nous avons parlé de pédagogie, alors que les enjeux du prochain siècle sont d’abord, nous le disions, dans la maîtrise des nouvelles technologies, et au moins autant dans la maîtrise d’une transformation radicale de notre environnement due à l’utilisation massive des ressources informationnelles, en particulier grâce à l’Internet. Mais cet aspect des choses est curieusement très largement ignoré dans l’évolution de nos programmes éducatifs. L’attention se focalise trop sur l’informatique comme support de la pédagogie, au sens le plus traditionnel du terme (même si les techniques sont très nouvelles dans certains cas), et l’on ignore assez systématiquement l’informatique en tant que discipline d’enseignement, l’informatique comme sujet d’étude.

A cette distinction évidemment essentielle, il convient d’ajouter une troisième catégorie, l’informatique comme outil dans l’enseignement. Je pense en particulier à l’intrusion d’outils, d’intermédiaires informatiques, dans certaines disciplines. Sans vouloir m’étendre sur ce sujet, qui relève également de la pédagogie, on peut se demander si la trop grande présence de médiations informatiques, par exemple dans la conduite d’expériences de physique, n’introduit pas une trop grande distanciation par rapport à l’objet étudié. L’élève ne risque-t-il pas de prendre l’habitude de faire plus confiance à ce que lui dit l’ordinateur qu’à ses sens, son esprit critique, ses facultés d’analyse. Combien d’élèves sont déjà totalement dépendants de leur calculette, et incapable d’un calcul mental simple sur des ordres de grandeur sans vérifier immédiatement sur l’écran magique. On retrouve ce problème dans l’enseignement de l’informatique elle-même, quand l’apprentissage passif des outils se fait dans l’ignorance de toute compréhension des mécanismes, même les plus simples, qu’ils mettent en jeu.

Si les enjeux réels sont dans la maîtrise des sciences de l’information, ce sont ces sciences, et en particulier l’informatique, qu’il faut enseigner en tant que discipline scientifique.

Mais comme beaucoup d’autres disciplines, l’informatique a de multiples facettes, science théorique et expérimentale objet de recherches d’une grande diversité, technologie donnant lieu à une activité industrielle considérable, et ensemble d’outils des plus en plus intégrés à notre vie quotidienne, familiale ou professionnelle. Probablement en raison de la jeunesse de cette discipline, et précisément à cause de son manque actuel d’intégration dans le cursus scolaire, la distinction entre ces aspects complémentaires, mais indissociables, n’est pas faite dans les esprits. Beaucoup en sont encore à confondre les aspects fondamentaux et pérennes avec leur expression actuelle dans des outils destinés à évoluer rapidement. Comme mes collègues et moi-même l’écrivions dans Le Monde, les disciplines plus anciennes distinguent sans problème ces trois composantes, et nul ne confond la thermodynamique, la technologie des moteurs à explosion et le mode d’emploi d’un véhicule automobile. Cette confusion, encore présente dans le cas de l’informatique, est en outre renforcée par le fait que chacun pouvant s’essayer assez facilement à certains de ses aspects originaux, comme la programmation sur des problèmes simples, on a l’illusion que c’est une discipline facile à maîtriser et sans réelle profondeur. Mais en fait cela revient à se prétendre spécialiste du génie civil et de la résistance des matériaux parce que l’on sait établir un pont en jetant une planche sur un ruisseau.

Pour en revenir à l’enseignement des outils fondés sur l’informatique, et non des outils de l’informatique, il est malheureusement fréquent de voir appeler cours d’informatique un enseignement qui se fonde uniquement sur l’apprentissage de la mise en marche d’un ordinateur, et sur l’utilisation de quelques outils de bureautique. Mais c’est là un cours de bureautique, et non d’informatique, aussi bien que d’apprendre à conduire et à remplir le réservoir de sa voiture ne saurait constituer un cours de thermodynamique, ni même de technologie automobile. C’est utile, certes, dans la vie courante, mais ce n’est aucunement formateur pour l’esprit des élèves. De plus, la technologie informatique étant en évolution rapide, la pérennité de cet enseignement est très aléatoire, d’autant plus que le manque de variété des outils utilisés prive les élèves de toute espèce de recul par rapport à ces outils.

Mais le problème est à mon sens beaucoup plus grave en ce qui concerne l’enseignement de la technologie informatique, que ce soit à l’école ou à l’université. Cette technologie est complexe, en évolution permanente, et très largement contrôlée par l’industrie informatique et notamment les grands éditeurs. Or l’on constate que trop souvent, cet enseignement consiste plus à apprendre à se servir des réalisations technologiques de ces éditeurs qu’à en comprendre les principes, à savoir les critiquer, à savoir les comparer avec d’autres approches, commerciales ou non. Sous le pretexte fallacieux de préparer les étudiant à la vie active, en fait aux besoins les plus immédiats de leurs futurs employeurs, on fait passer pour formations universitaires ce qui n’est que formations kleenex, destinées à devenir obsolètes aussi vite que les produits (souvent déjà obsolètes par rapport à l’état de l’art) sur lesquels elles se fondent. Manquant de profondeur, ces formations ne sauraient être durables, et c’est ainsi que le système éducatif prépare de futur chomeurs et la pénurie de professionnels compétents pour notre industrie. Une bonne façon de garantir la qualité et la pérennité d’un enseignement – et de former l’esprit critique des élèves – c’est de toujours l’asseoir sur une assez large variété d’exemples, que l’on peut comparer et opposer pour en extraire les aspects les plus essentiels, en évitant de se cantonner à l’apprentissage d’un seul type de solutions techniques.

Une première étape en ce sens consisterait à se départir du totalitarisme actuel, en matière de systèmes d’exploitation, de réseaux et de solutions bureautiques notamment, et à faire pénétrer une plus grande diversité de logiciels dans le système éducatif. Il est vrai que la gestion de la diversité a un coût, mais le bénéfice pédagogique le justifie. En outre, il ne faut pas oublier que l’enseignement public a un devoir de laïcité, d’indépendance, et qu’il est donc impératif qu’il évite de se faire le champion d’une marque, d’un produit ou d’une école de pensée. Enfin, il ne faut pas oublier non plus que la diversité est aussi un facteur de progrès et de stabilité « écologique » qui sont essentiels pour le développement d’un secteur technologique. Introduire cette diversité à l’école, quoi que puissent en dire des entreprises qui vivent par nécessité avec un horizon à six mois, c’est aussi garantir un meilleur équilibre futur de notre économie.

Si l’informatique est enseignée comme science fondamentale à l’université, au moins dans les enseignements les plus avancés, cet aspect n’est ni abordé ni même évoqué au niveau de l’enseignement général. Cela ne peut que renforcer une attitude de passivité vis à vis de ce qui apparaît alors comme une technologie ancillaire, ne méritant pas que l’on s’attarde sur son influence croissante, sur le pouvoir qu’elle s’octroie dans toutes nos activitées. Ainsi une meilleure compréhension du rôle fondamental des mécanismes de représentation et d’échange des données nous rendraient certainement plus sensibles à cette forme de dépendance qui s’établit insidieusement dans notre société quand tous nos modes de gestion et de communication de l’information sont peu à peu entièrement contrôlés par des entreprises privées, dont les seuls objectifs sont de nature mercantile.

Outre que l’informatique a ses propres problèmes, sa propre façon de les traiter, ses propres résultats fondamentaux, elle est intéressante du point de vue de l’enseignement général parce que c’est une science carrefour. Il y a bien sûr des aspects classiquement scientifiques dans l’informatique, mais en plus, par les concepts qu’elle met en oeuvre, elle se rapproche d’autres disciplines littéraires. Par exemple, en informatique, les notions de langage, de syntaxe et de sémantique sont très importantes. Dans l’enseignement actuel, ces concepts relèvent du français ou de la philo… et voilà que l’on peut les illustrer de façon plus concrète – peut-être imparfaite car trop formalisée et mécanique, mais ce défaut-même est source de considérations enrichissantes – par des exemples opérationnels, presques tangibles. À côté de cela, on y rencontre des problèmes de logique, des questions strictement mathématiques, des problématiques apparentées à la physique la plus théorique… On peut donc y trouver matière à discuter de nombreux concepts qui sont aussi pertinents dans d’autres domaines, et donc à éventuellement réduire la dichotomie qui est souvent perçue entre les sciences et les humanités. C’est une situation assez extraordinaire, un champ d’ouverture intellectuelle, dont il est vraiment dommage de ne pas profiter.

Tout n’est cependant pas négatif dans l’informatisation de notre enseignement. Le fort accent mis sur le développement de la connectivité avec l’Internet, bien que souvent décrié, est une avancée essentielle, et cela pour au moins deux raisons majeures.

La première de ces raisons est tout simplement que les élèves d’aujourd’hui seront appelé à vivre dans un monde où la maîtrise de l’information omniprésente sera un élement majeur de la vie sociale. À bien des égards, celui qui ne saura pas gérer cet espace de données, de connaissances et de communication sera dans une situation de dépendance analogue à ceux qui, aujourd’hui, ne savent pas lire, ne savent pas trouver leur chemin sur une carte ou remplir un formulaire. « Apprendre l’Internet », c’est apprendre à vivre dans la société de demain.

La deuxième raison est sans doute encore plus fondamentale pour l’éducation citoyenne. Même sans l’informatique, notre monde a atteint une complexité extrème où les citoyens ont de moins en moins leur mot à dire, où même les pouvoirs politiques sont de plus en plus impuissants devant la complexification des structures économiques et sociales et surtout la mondialisation généralisée. Pour ne prendre qu’un exemple, majeur, les entreprises ont acquis une existence autonome, fortes de leur puissance économique et de leurs dispersion géographique, dans un système où les êtres humains, clients, employés, dirigeants ou actionnaires, ne sont plus que des pions sans aucun pouvoir indépendant. Elles en sont au point où elles disputent leur pouvoir aux nations, aux représentant élus de la population. Face à une situation où la place même de l’homme sur cette planète est radicalement remise en cause, il est nécessaire de trouver de nouvelles structures, de nouveaux modes d’échange, de communication et d’organisation qui permettent au citoyen de retrouver la place qui lui revient dans une société devenue mondiale. Et cela est possible, grâce à l’Internet, à condition d’apprendre à en maîtriser les ressources, à comprendre, voire à tolérer – ce qui n’est pas toujours facile – les points de vues d’autres cultures maintenant à notre porte, à communiquer, à partager et à coopérer avec les autres citoyens du monde. Ce discours, qui peut paraître à certains idéaliste, utopique, voire irréaliste ou fantaisiste, correspond pourtant à une réalité vécue par un nombre tous les jours croissant d’individus. L’action d’un individu sur l’Internet peut faire sentir ses effets dans le monde entier, si tant est qu’elle est pertinente. Et quand une fraction, même minuscule, des centaines de millions d’individus qui accèdent l’Internet décide de coopérer, cela fait une masse énorme susceptible de renverser des montagnes, de mettre en difficulté ou de faire concurrence aux entreprises les plus puissantes, de tenir en échec les tentatives hégémoniques les plus soigneusement préparées, comme cela s’est produit encore récemment pour l’AMI, l’Accord Multilatéral sur l’Investissement préparé en catimini par l’OCDE.

« Apprendre l’Internet », c’est apprendre la citoyenneté de demain.

Notes

[1] Crédit photo : QThomas Bower (Creative Commons By-Sa)




À qui la faute si les logiciels libres sous licence GPL sont éjectés de l’App Store ?

Chris Willis - CC byOn peut reprocher beaucoup de choses à Microsoft mais jamais on n’a vu un logiciel libre empêché de tourner sous Windows parce que la licence du premier était incompatible avec le contrat d’utilisation du second (sinon un projet comme Framasoft n’aurait d’ailleurs pas pu voir le jour).

Il semblerait qu’il en soit autrement avec Apple et son App Store, la plateforme de téléchargement d’applications pour les appareils mobiles fonctionnant sous iOS (iPod, iPhone et iPad).

C’est que révèle la récente « affaire VLC », célèbre logiciel libre de lecture vidéo, dont la licence semble tant et si bien poser problème à Apple qu’il a été brutalement et unilatéralement décidé de le retirer de l’App Store.

Et tout le monde se retrouve perdant, à commencer par l’utilisateur qui ne pourra plus jouir de cette excellente application sur son iPad & co[1].

Derrière ce malheureux épisode (qui n’est pas le premier du genre) se cache une question en apparence relativement simple : logiciels libres et App Store peuvent-ils cohabiter ? Un logiciel, dont les libertés d’usage, de copie, de modification et de distribution, sont garanties par sa licence, peut-il se retrouver dans un espace dont le contrat stipule un nombre limité de copies sur un nombre limité de machines ? Et comme la réponse est en l’occurrence négative, le risque est réel de voir les logiciels libres totalement écartés de l’App Store, et par extension des nombreuses autres plateformes privées qui poussent comme des champignons actuellement.

Mais attention, il s’avère que dans le détail c’est plus complexe que cela. Et c’est pourquoi nous avons pris la peine d’ajouter notre grain de sel au débat en traduisant l’article ci-dessous qui résume assez bien à nos yeux la situation. C’est complexe mais ça n’en est pas moins intéressant voire enrichissant car les particularités de la situation éclairent et illustrent de nombreux aspects du logiciel libre.

Il convient tout d’abord de préciser que ce n’est pas le logiciel libre en général mais le logiciel libre sous licence GPL (et son fameux copyleft) qui est pointé du doigt ici. Ensuite il y a l’existence d’un troisième larron en la personne de la société Applidium à qui l’on doit le portage de VLC dans iOS et sa présence dans l’App Store (dans un premier temps accepté puis aujourd’hui refusé). App Store dont les règles d’utilisation définies par Apple sont floues et changeantes. Enfin c’est bien moins la « communauté VLC » dans son ensemble que l’un de ses développeurs qui est impliqué dans cette histoire.

Choisir de placer son logiciel sous licence libre, a fortiori sous licence GPL, n’est pas un acte anodin. La liberté « en assurance-vie » que vous offrez là à vos utilisateurs peut s’opposer parfois frontalement à d’autres logiques et objectifs.

Tout le monde se retrouve perdant, mais le logiciel libre le serait davantage encore s’il devait céder en y perdant son âme.

La GPL, l’App Store et vous

The GPL, the App Store, and you

Richard Gaywood – 9 janvier 2011 – Tuaw.com
(Traduction Framalang : Olivier Rosseler et PaulK)

Mon collègue Chris a rédigé un article sur l’éviction de l’App Store du célèbre logiciel de lecture video VLC, après la plainte d’un développeur du projet sur la base d’une violation de la GNU Public License (l’application a depuis été mise à disposition sur Cydia pour les appareils jailbreakés).

Les réactions de la blogosphère Mac ont été virulentes après cette décision, et Chris s’est admirablement fait l’avocat des plaignants. Mais il ne faut pas oublier qu’une histoire a toujours plusieurs versions (et que la vérité se trouve souvent à mi-chemin entre les deux). Aujourd’hui, je me fais avocat de la défense : pourquoi Rémi Denis-Courmont était parfaitement dans son bon droit. Mais pour mieux étayer mon argumentation, je vais revenir un peu sur l’historique de l’Open Source. Alors accrochez-vous !

Commençons par le commencement : pourquoi VLC a été retiré de l’App Store

L’histoire a déjà été traitée, mais voici quelques faits que vous devez connaître. VLC (hébergé à l’adresse http://videolan.org) est un lecteur audio et vidéo complet, multi-plateforme qui a maintes fois fait ses preuves. VLC est publié sous la version 2 de la licence GNU Public License (GPL). Une entreprise nommée Applidium, sans lien avec le projet, a utilisé le code source de VLC pour en faire une application pour iOS gratuite, afin que les utilisateurs d’iPhone et d’iPad puissent s’en servir pour lire plus de formats de fichiers que leur appareil n’en supporte nativement, comme les fichiers AVI et MKV. En accord avec la GPL, Applidium a libéré le code source de la version modifiée de VLC.

L’accueil reçu par ce projet sur les listes de diffusion des développeurs de VLC fut contrasté. Alors que certains développeurs n’y voyaient pas d’inconvénient, le portage de leur travail (censé être ouvert) sur une plateforme, iOS, connue pour sa fermeture et ses restrictions sur la ré-utilisation du code des applications distribuées sur l’App Store, gênait les autres. En point d’orgue de cette histoire, l’un des développeurs, Rémi Denis-Courmont (auteur d’une bonne partie du code de VLC) demanda à Apple de retirer l’application VLC pour iOS de l’App Store pour violation de la GPL, à laquelle est soumise sa contribution au projet.

Finalement, quelques mois plus tard, il semblerait qu’Apple ait obtempéré sans poser de question puisque l’application a été retirée. Denis-Courmont s’interroge malgré tout sur les délais. Si c’était effectivement la réponse d’Apple à sa demande, l’entreprise aurait pu agir bien plus tôt.

Et donc, qui est dans le vrai ?

Une courte histoire des licences Open Source

Tout d’abord, à quoi sert l’Open Source ? Parfois, des programmeurs initient des projets sur leur temps libre (ou en tant qu’universitaire, ne subissent pas les pressions commerciales, tous les systèmes d’exploitation basés sur Unix trouvent leurs racines dans l’Open Source et dans les universités, ce qui n’est pas une coïncidence), puis ils deviennent trop gros pour s’en sortir seuls. Une aide extérieure est la bienvenue, par exemple pour réparer les bogues ou pour ajouter de nouvelles fonctionnalités, et grâce à Internet les volontaires sont nombreux. Ils mettent donc le code sous une licence Open Source afin d’en publier la source et de recruter des collaborateurs.

Dit ainsi, ça paraît assez utopique, mais le fait est que de nombreux logiciels de qualité sont nés ainsi, grâce à l’Open Source : le compilateur C GCC, le noyau Mach, le serveur web Apache HTTPd, l’interface de commande bash, les langages de programmation Perl et Python et le moteur de rendu Webkit utilisé par Safari. Ces quelques exemples ainsi que des centaines d’autres sont tous Open Source et font tous partie de Mac OS X. Apple utilise donc clairement l’Open Source.

Au-delà des logiciels, nous devons Wikipedia à la famille des licences Creative Commons, créées pour étendre les idées des logiciels Open Source à d’autres activités créatives. On peut même dire que l’Open Source reproduit approximativement les processus scientifiques où les chercheurs publient leurs méthodes et leurs découvertes librement afin que d’autres chercheurs puissent s’appuyer sur leurs travaux. Ce sont là des concepts très importants à mes yeux puisque je suis titulaire d’un doctorat en informatique. Je pense que l’on peut s’accorder sur le fait que les idées derrière les logiciels libres nous sont bénéfiques à tous.

Prenons l’exemple d’Alice, une programmeuse qui a écrit un petit utilitaire. Un autre programmeur, Pierre, apprécie beaucoup son programme, mais il voudrait le modifier pour qu’il réponde mieux à ses besoins. Alice décide alors de dévoiler le code source de son programme pour que Pierre puisse y apporter des changements.

La licence la plus simple qu’Alice puisse appliquer à son code est celle du domaine public. Cela signifie que l’auteur a volontairement abandonné tous ses droits sur le code et que chacun peut en faire ce qu’il veut. Pierre peut faire ses modifications et garder la nouvelle version pour lui-même, ou ouvrir sa boutique et la vendre. Il peut même en parler à son patron, Paul, chez Microsoft, et peut vendre l’outil d’Alice dans la prochaine version de Windows, sans qu’elle ne touche jamais un centime. Si vous vous dites que c’est pas très juste pour Alice, vous n’êtes pas les seuls. Gardez cet exemple à l’esprit.

Alice a également le choix entre des familles de licences similaires : la licence MIT, la licence BSD et la licence Apache. Grâce à elles, Alice conserve son droit d’auteur sur le code, mais elles octroient également à quiconque le télécharge le droit légal de le modifier et d’en distribuer la version modifiée. Différentes variantes de ces licences imposent également à Pierre de mentionner le nom d’Alice quelque part dans le logiciel, à l’instar de la licence Creative Commons Attribution. Mais rien ne l’empêche de le vendre sans rien verser à Alice en échange.

La GPL et les autres licences copyleft

En réponse à ce problème, la Fondation pour le Logiciel Libre (FSF) a créé la GNU Public License. Elle est aussi appelée copyleft pour bien marquer la rupture qu’elle représente par rapport aux autres licences dont il est question ici. Philosophiquement, la GPL a été créée pour assurer aux utilisateurs de logiciels sous GPL les quatres libertés suivantes :

  • La liberté d’exécuter le logiciel, pour n’importe quel usage ;
  • La liberté d’étudier le fonctionnement d’un programme et de l’adapter à ses besoins, ce qui passe par l’accès aux codes sources ;
  • La liberté de redistribuer des copies ;
  • La liberté de faire bénéficier à la communauté des versions modifiées.

Évidement, la licence en elle-même est un charabia juridique assez dense, dont le but est d’assurer une validité légale à cette philosophie, mais ces quatre libertés en sont vraiment le cœur. Vous remarquerez que la deuxième et la quatrième libertés imposent que le code source de tout programme sous GPL soit mis à disposition en plus de l’exécutable, que l’on utilise vraiment. C’est la raison pour laquelle de nombreuses entreprises qui font usage de code sous GPL dans leurs produits hébergent des pages entières de code source, comme le fait Netgear par exemple. Alors, évidemment, leurs concurrents peuvent analyser le fonctionnement exact de leurs produits, pourtant ils estiment que cet inconvénient est largement compensé par les avantages qu’il y a à s’appuyer sur des produits Open Source.

Si on reprend notre histoire d’Alice et Pierre, voyons ce qu’il se passe maintenant. Alice rend son code source public. Pierre rédige son patch et décide sournoisement de vendre cette nouvelle version du programme d’Alice. Mais Alice n’est pas bête et voit bien ce qu’il se trame. Elle pose alors un ultimatum à Pierre : soit il rend public le code source de sa version modifiée , soit ils se retrouveront devant un juge pour rupture du contrat grâce auquel il a obtenu la version d’Alice (c’est à dire, la GPL). Bob s’incline évidemment et publie son code. Aucun cas n’est allé jusqu’au tribunal dans la vraie vie. Pour beaucoup, cela prouve que la GPL est valide et incontournable : personne n’ose la contester.

L’App Store et la GPL peuvent-ils co-exister ?

Le conflit le plus évident entre l’App Store et la GPL réside dans la troisième liberté ? « La liberté de redistribuer des copies ».

Ce sujet a été largement débattu, chaque camp avançant ses arguments. Malheureusement, la résultat est que : premièrement, c’est un terrain plutôt flou et deuxièmement, il ne sera jamais certain qu’une des deux partise a plus raison que l’autre sans décision de justice. Il est peu probable que l’on en arrive à une telle situation car Apple (en tant que distributeur de logiciel pour tout l’App Store) n’ira probablement pas se battre en justice pour un logiciel Open Source. Concrètement, tant que le contraire n’est pas prouvé, l’App Store et la GPL sont incompatibles. C’est sans doute l’avis d’Apple en tout cas, ils n’auraient sûrement pas supprimé VLC (et d’autres logiciels Open Source comme GNU Go) de l’App Store dans le cas contraire.

Les membres de la Fondation pour le Logiciel Libre (FSF), auteurs de la GPL ne pensent pas non plus que l’on puisse concilier la GPL et l’App Store. Leur principal argument réside dans la clause suivante de la GPL v2 :

À chaque fois que vous redistribuez un programme (ou n’importe quelle réalisation basée sur le programme), l’utilisateur final reçoit automatiquement une licence du détenteur originel du programme l’autorisant à copier, distribuer et modifier le programme sujet à ces termes et conditions. Vous ne devez imposer à l’utilisateur final aucune autre restriction à l’exercice des droits garantis par la licence.

Regardons maintenant les Règles d’utilisation des produits App Store :

(i) Vous êtes autorisé à télécharger et synchroniser un Produit à des fins personnelles et non commerciales sur tout produit de la marque Apple tournant sur iOS (« Produit iOS ») que vous possédez ou contrôlez.

(ii) Si vous êtes une société commerciale ou un établissement scolaire, vous êtes autorisé à télécharger et synchroniser un Produit destiné à être utilisé soit (a) par une seule personne sur un ou plusieurs Produits iOS que vous possédez ou que vous contrôlez, soit (b) par plusieurs personnes sur un Produits iOS partagé dont vous êtes propriétaire ou que vous contrôlez. Par exemple, un seul salarié peut utiliser le Produit aussi bien sur son iPhone que sur son iPad, ou encore, plusieurs étudiants peuvent utiliser le Produit en série sur un seul iPad situé dans un centre de ressources ou une bibliothèque.

(iii) Vous pourrez simultanément stocker des Produits App Store à partir d’un nombre maximum de cinq Comptes différents sur des Produits iOS compatibles, tels qu’un iPad, un iPod ou un iPhone.

(iv) Vous pourrez procéder à la synchronisation manuelle de Produits App Store à partir d’un ou plusieurs appareils autorisés par iTunes vers des Produits iOS munis d’un mode de synchronisation manuel, à condition que le Produit App Store soit associé à un Compte existant sur l’appareil principal autorisé par iTunes, étant précisé que l’appareil principal est celui qui a été synchronisé en premier avec le Produit iOS ou celui que vous avez ultérieurement désigné comme tel en utilisant l’application iTunes.

Le conseil Légal de la FSF considère ces termes comme des restrictions à l’utilisation que peut faire l’utilisateur des logiciels obtenus sur l’App Store, c’est donc directement une atteinte à la GPL. Il importe peu que le port de VLC sur iOS soit libre. En fait, il aurait été plus simple d’imaginer qu’il ne l’était pas.

Imaginez, si Applidium avait fait payer 5$ pour leur port de VLC, tout en distribuant le code source complet sur leur site web. Rien dans la GPL n’empêche les développeurs de facturer leurs logiciels dérivés, c’est donc convenable. Mike achète une copie du logiciel pour 5$ et veut donner une copie à son ami Steve (c’est son droit, garanti par la GPL), mais il ne peut pas. Steve peut acheter sa propre copie à 5$, mais ne peut pas l’avoir par Mike ; il doit aller voir Apple.

Dans la réalité, VLC était gratuit, ce n’est donc pas gênant pour Steve de ne pas pouvoir dupliquer la copie de Mike ; mais ce ne sera pas forcément le cas avec d’autres logiciels et dans tous les cas, ça ne change rien, étant donné que les termes de la GPL n’acceptent pas plus que l’on restreigne la liberté de partager le logiciel parce que le logiciel dérivé se trouve être gratuit.

Notez que la FSF considère également le fait de ne pouvoir installer la même application que sur cinq iOS en même temps comme une autre restriction aux droits de l’utilisateurs ; cela semble être une erreur, puisque ce terme du contrat n’apparaît que sur la partie dédiée au contenu iTunes du Contrat de l’Utilisateur et ne s’applique donc pas aux applications de l’iOS. Il est également possible que le Contrat de l’Utilisateur pour iTunes ait été modifié après la publication de l’article de la FSF.

Qu’en est-il des autres programmes sous GPL présents dans l’App Store ?

On croit souvent, à tort, que lorsqu’un code est publié sous GPL, il ne peut plus l’être sous une autre licence. Ce n’est pas vrai. Si tous les ayants-droits, c’est-à-dire toutes les personnes ayant contribué au code, se mettent d’accord, le logiciel peut être placé sous une double licence.

Prenez l’exemple de Java. Java est placé sous GPL et Apple a pourtant utilisé la source de Sun pour la modifier (afin que la machine virtuelle Java sous OS X soit mieux intégrée à cet environnement) sans pour autant distribuer le code source de la version modifiée. Comment ? Simplement parce qu’ils ont utilisé le code source de Sun sous une autre licence, ce que Sun pouvait proposer car (à l’époque) le code de Java leur appartenait. Libre à eux donc de l’offrir au monde entier sous GPL tout en le proposant à Apple sous une autre licence.

Mais pour les grands projets, comme VLC, qui acceptent des correctifs publics de la communauté depuis longtemps, il n’est pas envisageable d’obtenir la permission rétroactive de tous les contributeurs pour appliquer une licence double. D’autres projets, en revanche, sont proposés sous GPL mais n’ont jamais accepté de correctifs extérieurs, ce qui signifie que leur code est toujours sous le contrôle d’une seule et même personne ou entreprise. On peut citer l’exemple de Doom, qui est sur l’App Store. BeTrains en est un autre exemple et les développeurs ont récemment décrit comment ils arrivent à concilier GPL et App Store.

Doit-on modifier la GPL pour la rendre compatible avec l’App Store ?

Cette question ne relève plus du problème légal, mais plutôt de la politique des logiciels. Les défenseurs de la GPL adoptent souvent une attitude méfiante, ce qui est, à mes yeux, souvent perçu comme du fanatisme en dehors de la communauté Open Source. Mais pourtant, les violations de la GPL sont malheureusement courantes. Par exemple, une étude récente de Matthew Garret montre que parmi des centaines de tablettes Android, la quasi-totalité violent la GPL. En d’autres termes, les systèmes de tous ces fabricants s’appuyent à 99% sur du code libre mais contiennent 1% de leurs propres modifications. Ensuite ils les vendent comme s’ils étaient à l’origine de la totalité du système.

Il va sans dire que les développeurs qui ont participé à ces projets sur leur temps libre sont indignés par ces pratiques, c’est pourquoi ils condamnent aussi facilement tout ce qui ressemble de près ou de loin à une violation de la GPL. C’est souvent pris pour du fanatisme ou même de l’hostilité, mais au fond, c’est juste l’expression du dégoût de groupes de bénévoles face aux pratiques d’entreprises qui tentent de se faire de l’argent facile avec leur travail.

Sans oublier cette peur que tout signe d’indulgence fasse basculer les choses du mauvais côté, que cela encourage plus encore les entreprises à violer la GPL, et que la FSF, avec ses maigres ressources, n’ait plus les moyens d’identifier et de menacer les entreprises qui se comportent mal pour qu’elles respectent la communauté sur laquelle elles s’appuient.

Les règles de l’App Store doivent-elles changer pour être compatibles avec la GPL ?

C’est ce qu’aimeraient certains développeurs de VLC, comme Ross Finlayson. Plutôt que de voir VLC banni de l’App Store, ils préfèreraient que ses règles soient modifiées afin de créer une exception pour les applications sous GPL. Rien n’est impossible, mais Apple (pourtant bien enclin à piocher largement dans l’Open Source pour créer Mac OS X) n’est pas vraiment réputé pour son ouverture aux compromis lorsqu’on touche à l’App Store. Il y a très peu de chance qu’un tel changement arrive, surtout pour des applications gratuites qui ne rapportent rien à Apple.

Est-ce que VLC pourrait être publié sous une autre licence ?

Actuellement, il serait presque impossible que VLC puisse paraître sous une autre licence, même réservée uniquement à Applidium, car chaque développeur ayant travaillé sur le projet devrait donner son accord, ce qui n’est pas gagné pour certains, dont Denis-Courmont.

Si VLC n’avait jamais été publié sous GPL, ou plutôt, s’ils n’avaient jamais accepté de contributions extérieures placées sous GPL, alors il n’y aurait pas de problème. Mais sans la forte protection apportée par la GPL, ils n’auraient certainement pas attiré autant de contributeurs. Impossible de dire si le projet aurait abouti ou pas.

Conclusion

Lorsqu’un projet choisit une licence comme la GPL ou tout autre licence copyleft, en opposition à des licences plus ouvertes, comme la MIT ou la BSD, les développeurs veulent s’assurer que toutes les œuvres dérivées seront libres. Cette protection a cependant un prix. En choisissant la GPL, l’équipe de développement originelle de VLC a fait la promesse à tous ses futurs collaborateurs que leur travail resterait libre, pour toujours. Ce que dit ouvertement la FSF et ce que concède implicitement Apple, c’est que l’App Store ne reconnaît cette définition de la liberté. Aucune des deux organisations n’est réputée pour accepter des compromis, donc, jusqu’à ce que l’une d’entre eux cède, les applications construites sur du code sous GPL, comme VLC, n’honoreront pas l’App Store de leur présence. C’est dommage, c’est sûr, mais pour les deux camps c’est une question de principes bien plus importants que quelques applications.

Je finirai en m’adressant aux commentateurs : ce débat englobe bien d’autres aspects, certains que j’ai juste abordés, d’autres que j’ai complètement omis, parfois par souci de clarté ou encore par manque de compétence. Je vous demanderai donc simplement d’être indulgents car c’est un sujet complexe et même un article de cette longueur ne permet pas d’en faire le tour. Mais je vous en prie, débattez-en !

Notes

[1] Crédit photo : Chris Willis (Creative Commons By)