Le rêve de Staline ou le cauchemar de Stallman

Eva Blue - CC byUne petite mise à jour de la pensée de Stallman avec cette interview donnée par un confrère américain ?

On y retrouve certaines constantes pour lesquelles il se bat depuis près de trente ans (« la conscience du logiciel libre a été presque entièrement cachée sous le tapis par l’open source »). Mais il donne également son avis, souvent lapidaire, sur des sujets d’actualité comme l’essor de la téléphonie mobile, qualifiée de « rêve de Staline » (où même l’OS Android ne trouve pas grâce à ses yeux).

En toute logique, il ne possède pas de téléphone portable. « Les décisions que vous prenez dépendent de vos valeurs. Et la plupart des gens sont conduits à penser uniquement au prix et à la performance des logiciels, et non au fait de savoir s’ils respectent votre liberté. Les gens qui prennent des décisions sur ces valeurs ne feront jamais aucune concession pour obtenir un logiciel libre, alors que moi je suis prêt à travailler pendant des années et des années pour ne pas avoir de logiciels propriétaires sur mon ordinateur ».

Et vous ?

Et de conclure l’entretien par un message plus politique en référence aux mouvements sociaux du Wisconsin : « Les entreprises et les medias de masse ont, dans une large mesure, convaincu les Américains qu’ils n’ont pas de légitimité pour refuser le système économique, quels que soient les objectifs de ce système économique. Nous avons besoin d’un esprit de résistance en Amérique. Nous devons retrouver l’esprit de liberté avec lequel nous avons bâti les États-Unis. »

PS : Pour ceux qui désireraient mieux connaître le personnage nous rappelons l’existence de notre framabook sur Richard Stallman. Eyrolles vient de nous communiquer les ventes de l’année 2010 qui sont plus qu’encourageantes avec un total dépassant les 2 300 exemplaires.

Les téléphones mobiles sont le « rêve de Staline », selon le fondateur du mouvement du logiciel libre

Cell phones are ‘Stalin’s dream,’ says free software movement founder

Jon Brodkin – 14 mars 2011 – Network World
(Traduction Framalang : Étienne, Siltaar, Pandark, Lolo le 13, Goofy, Ypll, Yoann, Garburst)

Richard Stallman[1] : Les iPhones et autres Androids sont des traceurs à la Big Brother.

Près de trente ans après le début de sa croisade pour débarrasser le monde du logiciel propriétaire, Richard Stallman constate que les smartphones sont une nouvelle menace pour la liberté des utilisateurs.

« Je n’ai pas de téléphone portable. Je n’utiliserai pas de téléphone portable », déclare Stallman, fondateur du mouvement des logiciels libres et créateur du système d’exploitation GNU. « C’est le rêve de Staline. Les téléphones mobiles sont les outils de Big Brother. Je ne vais pas porter sur moi un traceur qui enregistre où je vais en permanence, ni un outil de surveillance qui autorise les écoutes. »

Stallman croit fermement que seul le logiciel libre (NdT: free software dans le texte) peut nous préserver de ces technologies de contrôle, qu’elles soient dans les téléphones portables, les PCs, les tablettes graphiques, ou tout autre appareil. Et par free il n’entend pas gratuit mais la possibilité d’utiliser, de modifier et distribuer le logiciel de quelque façon que ce soit.

Stallman a fondé le mouvement du logiciel libre entre le début et le milieu des années 80, avec le projet GNU et la Free Software Foundation, dont il est toujours le président.

Quand j’ai demandé à Stallman de lister quelques-uns des succès du mouvement du logiciel libre, le premier à être mentionné était Android mais pas la version de Google, non, une autre version du système d’exploitation mobile débarrassé de tout logiciel propriétaire (voir également Stallman soutient LibreOffice).

« Ce n’est que très récemment qu’il est devenu possible de faire fonctionner des téléphones portables largement répandus avec du logiciel libre », dit Stallman. « Il existe une version d’Android appelée Replicant qui peut faire fonctionner le HTC Dream sans logiciel propriétaire, à part aux États-Unis. Aux États-Unis, il a quelques semaines, il y avait encore un problème avec certaines bibliothèques, même si elles fonctionnaient en Europe. À l’heure qu’il est, peut-être cela fonctionne-t’il, peut-être pas. Je ne sais pas. »

Bien qu’Android soit distribué sous des licences libres, Stallman note que les constructeurs peuvent produire et livrer le matériel avec des exécutables non libres, que les utilisateurs ne peuvent pas remplacer « parce qu’il y a un élément dans le téléphone qui vérifie si le logiciel a été changé, et ne laissera pas des exécutables modifiés se lancer». Stallman appelle cela la Tivoisation, parce que TiVo utilise des logiciels libres tout en plaçant des restrictions matérielles qui l’empêchent d’être altéré. « Si le constructeur peut remplacer l’exécutable, mais que vous ne pouvez pas, alors le produit est dans une cage », dit-il.

En théorie, les téléphones qui n’utilisent que des logiciels libres peuvent être à l’abri des risques d’espionnage électronique. « Si vous n’avez que des logiciels libres, vous pouvez probablement vous en protéger, parce que c’est par les logiciels qu’on peut vous espionner », explique Stallman. Petit paradoxe au passage, Stallman répondait à mes questions sur un téléphone portable. Pas le sien, bien entendu, mais celui qu’il avait emprunté à un ami espagnol pour sa tournée de conférneces en Europe. Pendant les 38 minutes de notre échange, la connexion a été coupée cinq fois, y compris juste après un commentaire de Stallman sur l’espionnage électronique et les logiciels libres sur les téléphones. Nous avons essayé de nous reconnecter plusieurs heures plus tard mais il nous a été impossible de terminer l’interview par téléphone. Stallman a répondu au reste de mes questions par email.

Sacrifier le confort est une chose dont Stallman est familier. Il refuse d’utiliser Windows ou Mac, bien évidemment, mais même un logiciel tel qu’Ubuntu, peut-être le système d’exploitation le plus populaire basé sur GNU et le noyau Linux, ne satisfait pas ses critères de liberté. « Peu de monde est prêt à faire les mêmes sacrifices », reconnaît-il.

« Les décisions que vous prenez dépendent de vos valeurs », dit-il. « Et la plupart des gens sont conduits à penser uniquement au prix et à la performance des logiciels, et non au fait de savoir s’ils respectent votre liberté. Les gens qui prennent des décisions sur ces valeurs ne feront jamais aucune concession pour obtenir un logiciel libre, alors que moi je suis prêt à travailler pendant des années et des années pour ne pas avoir de logiciels propriétaires sur mon ordinateur ».

Stallman utilise un ordinateur portable Lemote Yeeloong faisant tourner gNewSense, une distribution GNU/Linux ne comportant que des logiciels libres.

« Il y a des choses que je ne peux pas faire. J’utilise actuellement un ordinateur assez lent, parce que c’est le seul portable avec un BIOS libre. gNewSense est la seule distribution entièrement libre qui tourne sur Lemote, qui est équipé d’un processeur de type MIPS » explique Stallman. Une autre distribution était fournie avec le Lemote, mais elle comprenait des logiciels non libres que Stallman a remplacés par gNewSense.

Stallman, 57 ans, a commencé à faire l’expérience du partage de logiciels à ses débuts au Laboratoire d’intelligence artificielle du MIT en 1971. Cette communauté de partage s’est dispersée au début des années 80 à peu près au moment où Digital Equipment Corp. a arrêté le serveur central sur lequel s’organisait la communauté. Stallman aurait pu rejoindre le monde des logiciels propriétaires s’il avait accepté de « signer des accords de confidentialité et promettre de ne pas aider mes camarades hackers », selon ses propres mots. Au lieu de cela, il a lancé le mouvement du logiciel libre.

Stallman est un personnage fascinant du monde de l’informatique, admiré par beaucoup et injurié par des entreprises comme Microsoft, qui voient en lui une menace pour les profits qu’ils peuvent tirer des logiciels.

Stallman n’a pas réussi à casser la domination de Microsoft/Apple sur le marché de l’ordinateur de bureau, sans parler de celle d’Apple sur les tablettes. Par contre, le mouvement du logiciel libre qu’il a créé a directement participé à la prolifération de serveurs sous Linux dans les data centers qui propulsent une grande partie d’Internet. Il y a peut-être là une ironie, Stallman ayant exprimé de la rancoeur au sujet de la reconnaissance acquise par le noyau Linux aux dépens de son système d’exploitation GNU.

Stallman se dit « plutôt » fier de cette multiplication des serveurs libres, « mais je suis plus inquiet de la taille du problème à corriger que du chemin que nous avons déjà accompli ».

Les logiciels libres dans les data centers, c’est bien, mais « dans le but d’apporter la liberté aux utilisateurs, leurs propres PC de bureau, portable et téléphone sont ce qui a le plus d’effet sur leur liberté ». On se soucie principalement de logiciel plutôt que de matériel, mais le mouvement insiste sur « du matériel avec des spécifications telles que l’on peut créer des logiciels libres qui le supporte totalement », insiste-t-il. « Il est outrageux de proposer du matériel à la vente et de refuser de dire à l’acheteur comment l’utiliser. Cela devrait être illégal ».

Avant d’accepter d’être interviewé par Network World, Stallman a exigé que l’article utilise sa terminologie de référence — par ex. « logiciel libre » à la place d’« open source » et « GNU/Linux » au lieu de juste « Linux ». Il a aussi demandé que l’interview soit enregistrée et que, si l’enregistrement était mis en ligne, il soit publié dans un format compatible avec le libre.

Il y a quatre libertés logicielles essentielles, expliquées par Stallman. « La liberté zéro est la liberté d’utiliser le programme comme bon vous semble. La liberté 1 est la liberté d’étudier le code source, et de le changer pour qu’il fonctionne comme vous le souhaitez. La liberté 2 est la liberté d’aider les autres ; c’est la liberté de réaliser et de distribuer des copies exactes quand vous le souhaitez. Enfin la liberté 3 est la liberté de contribuer à votre communauté, c’est la liberté de distribuer des copies de vos versions modifiées quand vous le souhaitez ».

Stallman a évoqué le terme « copyleft » pour désigner les licences qui garantissent que le code d’un logiciel libre ne peut pas être redistribué dans des produits propriétaires.

La clé de la philsophie de Stallman est la suivante : « Sans ces quatre libertés, le propriétaire contrôle le programme et le programme contrôle les utilisateurs », a-t-il affirmé. « Le programme se retrouve alors être un instrument de pouvoir injuste. Les utilisateurs méritent d’avoir la liberté de contrôler leur informatique. Un programme non libre est un système de pouvoir injuste et ne devrait pas exister. L’existence et l’usage de logiciels non libres est un problème sociétal. C’est un mal. Et notre but est un monde délivré de ce problème. »

Ce problème n’a pas été créé par une entreprise en particulier, mais Microsoft est d’habitude la plus critiquée par les gens comme Stallman.

« Ils continuent à nous considérer comme leurs ennemis », insiste Stallman. Il y a dix ans, dans une saillie restée célèbre, le PDG de Microsoft Steve Ballmer traitait Linux de « cancer ». Depuis Microsoft a baissé le ton en public, mais Stallman ne s’en laisse pas compter : « D’un certain côté ils ont appris à être un peu plus subtils mais leur but est de faire utiliser Windows et non un système d’exploitation libre ». Après cette phrase, notre appel téléphonique s’est une fois de plus interrompu.

À part Microsoft, Stallman épingle « Apple et Adobe, ainsi qu’Oracle et beaucoup d’autres qui font des logiciels propriétaires et contraignent les gens à les utiliser ».

Google « fait de bonnes choses et d’autres mauvaises » dit Stallman. « Il a mis à disposition des logiciels libres comme le codec WebM, et pousse YouTube à adopter son support. Toutefois, le nouveau projet Google Art ne peut être utilisé qu’à travers des logiciels propriétaires. »

Stallman est également en porte-à-faux avec ce qu’on appelle la communauté open source. Les partisans de l’open source sont issus du mouvement du logiciel libre, et la plupart des logiciels open source sont aussi des logiciels libres. Cependant, pour Stallman, ceux qui se disent partisans du logiciel libre ont tendance à considérer que l’accès au code source est simplement un avantage pratique, et ignorent les principes éthiques du logiciel libre. Diverses entreprises commerciales ont pris en route le train de l’open source sans adhérer aux principes auquel croit Stallman et qui devraient selon lui être au cœur du logiciel libre.

« je ne veux pas présenter les choses de façon manichéenne », déclare Stallman. « Il est certain que beaucoup de gens qui ont des points de vue open source ont contribué à des logiciels utiles qui sont libres, et il existe des entreprises qui ont jeté les bases de logiciels utiles qui sont libres aussi. C’est donc du bon travail. Mais en même temps, à un niveau plus fondamental, mettre l’accent sur l’open source détourne l’attention des gens de l’idée qu’ils méritent la liberté. »

L’une des cibles de Stallman est Linus Torvalds, le créateur du noyau Linux et l’une des personnalités les plus célèbres du monde du logiciel libre.

Stallman et son équipe ont travaillé sur le système d’exploitation GNU pendant la majeure partie des années 80, mais il manquait une pièce au puzzle : un noyau, qui puisse fournir les ressources matérielles aux logiciels qui tournent sur l’ordinateur. Ce vide a été comblé par Torvalds en 1991 quand il a mis Linux au point, un noyau analogue à Unix.

Les systèmes d’exploitation qui utilisent le noyau Linux sont couramment appelés « Linux » tout court, mais Stallman se bat depuis des années pour que les gens emploient plutôt l’appellation « GNU/Linux ».

Stallman « voudrait être sûr que GNU reçoive ce qu’il mérite » dit Miguel de Icaza de chez Novell, qui a créé le l’environnement libre GNOME, mais a été critiqué par Stallman pour ses partenariats avec Microsoft et la vente de logiciel propriétaire. « Quand Linux est sorti, Richard n’y a pas prêté sérieusement attention pendant quelque temps, et il a continué à travailler sur son propre noyau. C’est seulement lorsque Linux s’est trouvé sous les feux de la rampe qu’il a pensé que son projet n’était pas assez reconnu. » Le problème, c’est qu’à cette époque, est apparue à l’improviste une communauté qui n’était pas nécessairement dans la ligne GNU.

Le noyau GNU, appelé Hurd, est toujours « en développement actif », selon le site internet du projet.

La contribution de Torvalds au logiciel libre sera largement célébrée cette année à l’occasion des 20 ans du noyau Linux. Mais Stallman n’en sera pas l’une de ses majorettes, et pas seulement à cause de cette querelle sur le nom.

« Je n’ai pas d’admiration particulière pour quelqu’un qui déclare que la liberté n’est pas importante », explique Stallman. « Torvalds a rendu un bien mauvais service à la communauté en utilisant ouvertement un programme non libre pour assurer la maintenance de Linux (son noyau, qui est sa contribution majeure au système d’exploitation GNU/Linux). je l’ai critiqué sur ce point, et bien d’autres avec moi. Quand il a cessé de le faire, ce n’était pas par choix délibéré. Plus récemment, il vient de rejeter la version 3 de la licence GPL pour Linux parce qu’elle protège la liberté de l’utilisateur contre la Tivoisation. Son refus de la GPL v.3 est la raison pour laquelle la plupart des téléphones sous Android sont des prisons ».

Même Red Hat et Novell, largement reconnus comme soutiens du logiciel libre, ne reçoivent pas une franche approbation. « Red Hat soutient partiellement le logiciel libre. Novell beaucoup moins », dit-il, notant que Novell a un agrément de brevet avec Microsoft.

En dépit de son pessimisme apparent, Stallman voit quelques points positifs motivant sa quête de logiciel libre. Quand il n’est pas chez lui à Cambridge (Massachusetts), Stallman parcourt le monde pour y donner des conférences et participer à des débats sur le logiciel libre.

Avant de voyager vers l’Espagne, Stallman s’est arrêté à Londres pour faire une conférence (dans laquelle il a qualifié Windows de « malware ») et pour rencontrer quelques membres du Parlement afin de leur expliquer les principes du logiciel libre. Il reçoit souvent un meilleur accueil en Europe que chez lui.

« Aux États-Unis, la conscience du logiciel libre a été presque entièrement cachée sous le tapis par l’open source. Dès lors on ne trouve aucun responsable gouvernemental qui accepte de parler avec moi ».

Mais hors de l’Amérique du Nord, quelques gouvernements s’engagent dans le logiciel libre. « J’ai découvert hier, qu’en France, les organismes d’État continuent à migrer vers le logiciel libre », dit-il. « Il n’y a pas une politique systématique qui leur enjoint de le faire, mais ils le font de plus en plus. Et dans certains pays, par exemple en Équateur, il existe une politique explicite pour que les organismes gouvernementaux migrent vers le logiciel libre, et ceux qui veulent continuer à utiliser des logiciels non libres doivent demander une dérogation temporaire pour le faire. »

Bien que Stallman ne l’ait pas mentionné, le gouvernement russe exige aussi des organismes qu’ils remplacent les logiciels propriétaires par des alternatives libres d’ici 2015, afin d’améliorer à la fois l’économie et la sécurité, selon le Wall Street Journal.

Au-delà du logiciel libre, Stallman se consacre aux questions politiques, et tient un blog pour le journal Huffington Post. De fait, il voit peu de différences entre les entreprises qui maltraitent la liberté logicielle et les « gredins de Washington » qui sont les obligés des lobbys d’entreprises qui leur font des dons.

Dans les mouvements sociaux récents du Wisconsin, Stallman retrouve quelque chose de son propre état d’esprit. « Quelquefois, la liberté demande des sacrifices et la plupart des Américains n’ont pas la volonté de faire le moindre sacrifice pour leur liberté », dit-il. « Mais peut-être que les manifestants du Wisconsin commencent à changer cela ». Les entreprises et les medias de masse « ont, dans une large mesure, convaincu les Américains qu’ils n’ont pas de légitimité pour refuser le système économique, quels que soient les objectifs de ce système économique. Nous avons besoin d’un esprit de résistance en Amérique. Nous devons retrouver l’esprit de liberté avec lequel nous avons bâti les États-Unis. »

Notes

[1] Crédit photo : Eva Blue (Creative Commons By)




La Freedom Box ou la petite boîte qui voulait que l’Internet restât libre

Thierry Ehrmann - CC byParadoxes apparents. Peut-on simultanément souhaiter la fermeture des données et l’ouverture d’Internet ? Peut-on se féliciter du rôle joué par Facebook et Twitter en Tunisie ou en Égypte tout en affirmant que ces sites sont à très court terme dangereux pour ceux qui les utilisent ?

C’est cette double problématique qui est au cœur de la FreedomBox Foundation, le nouveau projet du brillant juriste de la FSF Eben Moglen qui fait régulièrement l’objet de billets sur ce blog. Et la solution qu’il nous propose est aussi simple que de brancher son chargeur de téléphone, à ceci près que c’est alors un mini serveur que nous mettons dans la prise (sous OS libre évidemment)[1].

Il est ici question de nos données personnelles, de notre vie en ligne, de notre manière de communiquer et d’interagir avec les autres. Et il s’agit bien moins de se cacher que de pouvoir choisir et définir à notre guise les conditions du partage de ces données, dans un Internet menacé aujourd’hui dans ses fondements mêmes par la censure, le filtrage ou le non respect de sa neutralité originelle.

Personne ne nous a obligés. Mais puisque c’était gratuit, c’était pratique, nous avons mis nos infos et nos amis sur Facebook et Twitter, nos messages dans Gmail, nos photos sur Flickr, nos vidéos sur YouTube, nos documents dans Google Docs… Au final nous avons participé ensemble à un formidable mouvement de centralisation du Net, où un nombre très restreint de sites hébergent une quantité phénoménale de données personnelles.

Que se passe-t-il le jour où ces quelques sites sont rendus volontairement ou non inaccessibles ?[2] Et que font ou feront exactement ces sites, tous commerciaux (et tous américains), avec nos données ?

C’est avant tout cela aujourd’hui le cloud computing que des marketeux de génie osent encore nous présenter comme de « l’informatique dans les nuages ». Des nuages, il y en a de moins en moins en fait mais ils sont de plus en plus gros et annoncent à n’en pas douter de futures tempêtes si nous n’y faisons rien.

Agir, c’est en l’occurrence faire revenir nos données chez nous, à la maison, dans le mini serveur branché sur la prise. Cela peut paraitre totalement irréaliste vu l’état de la situation actuelle, mais les acteurs du Libre n’en sont plus à un projet fou près.

Ils nous auront prévenus en tout cas…

Moglen, la Freedom Box et la liberté du Net

Moglen on Freedom Box and making a free net

Jonathan Corbet – 8 février 2011 – LWN.net
(Traduction Framalang : Jean, Gilles, Antistress, Yonnel et Goofy)

Eben Moglen est d’habitude un orateur enthousiasmant et sa conférence au FOSDEM 2011 a tenu toutes ses promesses. Le logiciel libre demeure, comme toujours, à la base de son discours, mais il a adopté une perspective plus politique et il pense que la communauté devrait en faire autant. Notre liberté, a-t-il dit, dépend d’une conception revisitée du réseau afin de remplacer des services vulnérables et centralisés par des alternatives qui résisteraient au contrôle des gouvernements.

La publication du livre Code de Larry Lessig, dit Eben, a attiré notre attention sur le fait que, dans le monde dans lequel nous vivons, le code fonctionne de plus en plus comme la loi. Le code fait le travail que lui demande l’Ètat, mais il peut aussi servir la révolution contre l’état. Nous sommes aujourd’hui témoins de la démonstration magistrale du pouvoir du code, dit-il. Dans le même temps, il faut accorder beaucoup d’intérêt à la publication de The Net Desilusion d’Evgeny Morozov qui proclame qu’Internet a été choisi pour contrôler les libertés dans le monde entier. Le livre est conçu comme un cri d’alarme contre les techno-optimistes. Eben est, selon lui, un de ces optimistes. La leçon qu’il a tiré des événements actuels est que le bon réseau apporte la liberté, mais le mauvais réseau apporte la tyrannie.

Nous avons passé beaucoup de temps à élaborer des logiciels libres. Et ce faisant, nous avons joint nos forces à celles d’autres acteurs de la culture libre. Des personnes comme Jimmy Wales, mais aussi d’autres comme Julian Assange. Wikipédia et Wikileaks, dit-il, sont deux faces d’une même pièce. Au FOSDEM, il a déclaré qu’on peut voir une « troisième face » de cette pièce. Nous faisons tous partie de ceux qui se sont mis en ordre de bataille pour changer le monde sans créer de nouvelles hiérarchies dans l’opération. À la fin de l’année 2010, Wikileaks était perçue comme une opération criminelle. Les événements en Tunisie ont changé cette perception. Wikileaks s’est révélé être une tentative pour aider les gens à y voir plus clair sur leur propre monde. Wikileaks, a-t-il dit, n’est pas la destruction, c’est la liberté.

Mais maintenant il y a beaucoup d’Égyptiens dont la liberté dépend de la capacité à communiquer à travers des canaux commerciaux qui répondront à la pression du gouvernement. Nous voyons maintenant en temps réel les points faibles qui viennent de la mauvaise conception du système actuel (NdT : Cet article a été rédigé le 8 février dernier, alors que Moubarak étant encore en place et le Net censuré).

Les réseaux sociaux, a-t-il déclaré, ont modifié l’équilibre du pouvoir au détriment de l’État et au bénéfice du peuple. Les évènements dans des pays comme l’Iran, la Tunisie, et l’Égypte démontrent leur importance. Mais les formes de communication sociale actuelles sont « extrêmement dangereuses » à utiliser. Elles sont aussi centralisées et vulnérables au contrôle de l’État. Leur conception est dirigée par le profit, pas par la liberté. Donc les mouvements politiques se basent sur des fondations fragiles : le courage de M. Zuckerberg ou Google à résister à l’État – le même État qui peut facilement les faire fermer.

De la même manière, l’information en temps réel pour les personnes essayant de construire leur liberté dépend d’un seul service de micro-blogging basé en Californie et qui doit faire du profit. Cette organisation est capable de décider, seule, de donner tout son historique à la bibliothèque du Congrès Américain. Qui sait le genre de dons elle a pu faire ailleurs ?

Nous devons résoudre cette situation, et rapidement. Nous sommes « derrière la vague » des mouvements de libération qui dépendent essentiellement du code. Plus nous attendons, plus nous faisons partie du système. Et ça amènera rapidement des tragédies. Ce qui s’est déroulé en Égypte est riche d’enseignements, mais les choses auraient pu se passer de manière bien pire encore. L’État a été long à contrôler Internet et ne s’est pas montré aussi dur qu’il le pouvait. Selon Eben, ce n’est pas difficile de décapiter une révolution quand tout le monde est dans la base de données de M. Zuckerberg.

Il est temps de penser aux conséquences de ce que nous avons construit et de ce que nous n’avons pas encore construit. Nous avons parlé pendant des années de remplacer les services centralisés par des services fédérés ; la centralisation excessive est une vulnérabilité critique qui peut entraîner arrestations, torture, et meurtres. Les gens dépendent de la technologie qui est construite pour les vendre au plus offrant. Si nous nous soucions véritablement de la liberté, nous devons traiter ce problème. Parce que le temps presse et les gens sont dans une situation dangereuse. Eben ne veut pas que les gens qui prennent des risques pour la liberté utilisent un iPhone.

Ce que nous a montré l’Egypte, comme l’avait fait l’Iran, est qu’un réseau fermé est dangereux et que les « interrupteurs qui coupent le réseau » mettent en danger les gens épris de liberté. Que pouvons-nous faire quand un gouvernement verrouille les infrastructures du réseau ? Nous devons revenir à l’idée de réseaux en maille, conçus à partir des équipements existants, qui peuvent résister au contrôle gouvernemental. Et nous devons revenir à des communications sécurisées à chaque extrémité du réseau. Pouvons-nous le faire ? a-t-il demandé.

Bien sûr que nous pouvons mais le ferons-nous ? Si nous ne bougeons pas, la promesse du mouvement du logiciel libre commencera à ne plus être tenue. C’est la répression qui l’emportera en apportant la preuve que le réseau en tant que tel n’est en rien une garantie contre les régimes autoritaires.

L’Amérique du Nord, selon Eben, devient le cœur d’une industrie de data mining mondialisé. Quand le Président américain Dwight Eisenhower a quitté le pouvoir, il nous a mis en garde contre la montée en puissance du complexe militaro-industriel. En dépit de cet avertissement, les États-Unis ont, depuis, investi dans leur armée plus que tous les autres pays réunis. Depuis les évènements du 11 Septembre 2001, un nouveau pas dans l’industrie de la surveillance a été franchi. Eben a fortement recommandé de lire les article du dossier « Top Secret America » publiés par le Washington Post. Ils nous permettent d’ouvrir les yeux sur un certain nombre d’opérations à-la-Google, toutes sous le contrôle du gouvernement. La protection des données en Europe a tellement bien fonctionné qu’elle a causé la migration de toutes ces données en Amérique du Nord, où leur usage n’est pas contrôlé. Le data mining, comme toutes les industries, a tendance à se déplacer dans les endroits où il y a le moins de contrôle. En aucun cas le gouvernement américain ne va changer cette situation, il en dépend bien trop fortement. Pendant la campagne présidentielle, Barack Obama excluait de donner l’immunité à l’industrie des télécommunications pour son rôle dans l’espionnage des Américains. Cette position n’a même pas duré le temps de l’élection. La politique actuelle d’Obama n’est pas très différente de celle de ses prédécesseurs, excepté dans les domaines où elle est moins agressive.

L’industrie privée ne changera pas les choses non plus, l’appât du gain n’entraînera ni le respect de la vie privée ni la défense des gens dans la rue. Les sociétés qui essaient de faire du profit n’y parviennent pas sans l’aval des gouvernements. Donc nous devons construire le Net en partant du principe que le réseau n’est pas intrinsèquement digne de confiance, et que les services centralisés peuvent aller jusqu’à tuer des gens. Nous ne pouvons pas nous permettre d’être nonchalants et indifférents avec ça, nous devons remplacer tous ces points faibles.

Or nous savons comment nous sortir de cette situation. Nous devons créer des serveurs-prises qui sont bon marché et nécessitent peu de courant, et nous devons les remplir de « logiciels libres sympas ». Nous devons concevoir des réseaux maillés, élaborer des plateformes de téléphonie auto-construits avec des outils comme OpenBTS ou Asterisk, des réseaux sociaux fédérés, et des plateformes de publication anonymes. Nous devons conserver nos données dans nos maisons où elles sont protégées par des lois contre la recherche physique. Nous devons toujours chiffrer nos emails. Ces systèmes peuvent aussi être utilisés défensivement et servir de serveur proxy pour contourner les pare-feux nationaux. Nous pouvons faire tout cela a déclaré Eben, c’est tout à fait réalisable vu ce que nous avons déjà sous la main.


Eben a conclu en annonçant la création de la Freedom Box Foundation, qui a vocation à rendre tout cela disponible et « moins cher que des chargeurs de téléphone portable ». Il y a une génération, nous avons pris le chemin de la liberté, et nous y sommes encore. Mais nous devons passer à la vitesse supérieure, et donner à nos outils un objectif plus politique. Nos amis sont dans la rue ; si nous ne les aidons pas, ils seront en danger. La bonne nouvelle est que nous avons déjà presque tout ce dont nous avons besoin, et qu’il n’y a plus qu’à se retrousser les manches.

Notes

[1] Pour avoir plus de détails sur les caractéristiques techniques des serveurs-prises, nous vous invitons à lire le billet de Philippe Scoffoni : FreedomBox Foundation, une initiative pour communiquer en sécurité sur internet.

[2] Crédit photo : Thierry Ehrmann (Creative Commons By)




La nouvelle version Squeeze de Debian lavera encore plus blanc

Mark Robinson - CC byC’est un billet un peu technique que nous vous proposons aujourd’hui. Il évoque la « quête du 100% libre » des distributions GNU/Linux.

En effet, vous l’ignoriez peut-être, mais rares sont les distributions GNU/Linux qui soient « totalement libres ».

Ainsi la fort pratique distribution Linux Mint installe dès le départ des codecs (MP3, divX…) et des plugins (Java, flash…) propriétaires. On ne peut donc la considérer comme libre.

Mais, plus subtil, la très populaire distribution Ubuntu non plus, car elle embarque en son sein des drivers propriétaires comme ceux pour les cartes graphiques Nvidia et ATI.

Ces drivers sont des exemples de firmwares (ou micrologiciel), ces logiciels intégrés dans un composant matériel, et ils constituent le sujet principal de notre billet, et traduction, du jour.

Debian est l’une des plus anciennes et célèbres distributions GNU/Linux. Elle sert de base de développement à de nombreuses autres distributions, dont justement Ubuntu et Linux Mint.

L’une des principales caractéristiques de Debian, outre sa stabilité reconnue et le grand nombre d’architectures matérielles supportées, est de ne dépendre directement d’aucune société commerciale : comme le navigateur Firefox de la fondation Mozilla, Debian est le fruit d’une association à but non lucratif. Et si Mozilla possède son Manifesto, Debian a son fameux contrat social.

Elle se trouve actuellement dans sa version 5.0 mais la nouvelle version 6 (nom de code « Squeeze ») devrait sortir d’ici quelques jours.

Or le projet Debian a annoncé que cette nouvelle version bénéficierait, à sa sortie, d’un noyau Linux « libéré», c’est à dire débarrassé de tout firmware qui ne serait pas libre[1]. Cette décision a suscité un certain nombre de d’interrogations autour des conséquences pratiques pour l’utilisateur : allait-il pouvoir continuer à faire fonctionner pleinement sa machine avec cette nouvelle version ?

C’est à ces interrogations que répond l’un des développeurs du projet ci-dessous.

Mythes et réalités concernant les firmwares et leur non-retrait de Debian

Myths and Facts about Firmwares and their non-removal from Debian

Alexander Reichle-Schmehl – 20 janvier 2011 – Tolimar’s Blog
(Traduction Framalang : Antistress, Penguin et Goofy)

L’annonce par le projet Debian de la publication de Squeeze avec un noyau Linux complètement libre a retenu l’attention, ce qui n’est pas une mauvaise chose. Pourtant il semble que cette annonce ait parfois été mal interprétée ou mal relayée. Je vais essayer de résumer les principales erreurs et d’y répondre.

  • Mythe : Debian a retiré tous les firmwares de ses noyaux !
  • Réalité : Non, cette décision ne concerne que les noyaux qui seront inclus dans la prochaine version Debian 6.0 Squeeze. Les noyaux de la version stable actuelle Debian 5.0 Lenny restent tels quels… sauf que, bien sûr, nous réaliserons les mises à jour de sécurité qui s’imposent les concernant, mais ils continueront de contenir les mêmes firmwares qu’actuellement.
  • Mythe : Debian est en train de dégrader ses noyaux en en retirant des choses.
  • Réalité : Debian a transféré certains firmwares de sa section principale (NdT : main) vers sa section non-libre (NdT : non-free). Ils sont toujours présents, dans la section dédiée aux logiciels qui ne répondent à nos critères tels qu’ils résultent des principes du logiciel libre selon Debian (NdT : The Debian Free Software Guidelines – ou DFSG).
  • Mythe : La plupart des utilisateurs ne vont plus pouvoir installer Debian.
  • Réalité : les firmwares non-libres resteront disponibles à travers notre infrastructure. Ceux qui sont requis durant l’installation (par exemple pour contrôler l’accès au réseau ou au périphérique de stockage) peuvent également être chargés durant l’installation (qu’ils soients sur un CD ou une clé USB). Nous proposons des archives compressées de ces fichiers (décompressez les simplement sur une clé USB et branchez-la quand cela vous est demandé durant l’installation) ainsi que des images ISO permettant de créer un CD d’installation par le réseau qui contiennent déjà ces fichiers. Bien entendu, elles vont continuer d’exister, même aprés la publication de Squeeze.
  • Mythe : Ces fimwares sont requis, les ôter ne sert à rien et ne rend pas service à l’utilisateur.
  • Réalité : Oui, ces firmwares sont en effet nécessaires au fonctionnement de certains pilotes de certains matériels. Mais tout le monde n’en veut pas. À présent que nous sommes capables de charger ces firmwares sur demande (au lieu de devoir les compiler dans le pilote lui-même), nous pouvons les proposer séparément. Cela permet ainsi à ceux qui ont besoin de firmwares non-libres de les utiliser tandis que que ceux qui n’en veulent pas bénéficieront d’une installation qui en sera dénuée.
  • Mythe : Ah, encore un coup des fêlés de la liberté du projet Debian…
  • Réalité : Il n’y a pas que nous en réalité : nous n’y serions jamais parvenus sans la coopération d’un certain nombre de développeurs du noyau Linux. Et nous ne sommes pas les seuls intéressés par la création d’un noyau libre, d’autres distributions importantes ont également conscience du problème. Citons par exemple le récent commentaire d’un développeur du projet Fedora évoquant des changements dans un de ces firmwares non-libres. Il semble donc que Debian ait simplement été le premier à réaliser le problème des firmwares non-libres.
  • Mythe : Debian fait allégeance à Stallman.
  • Réalité : Je ne me suis pas entretenu avec Richard Stallman à ce sujet mais je pense que Debian n’est pas encore assez libre pour lui ; pour autant que je sache, il aimerait la disparition pure et simple de la section non-libre, ou au minimum qu’elle ne soit plus mentionnée nulle part.

Il reste donc une question : qu’il y a t-il de mal avec les firmwares non-libres ? Ne s’agit-il pas simplement de petits programmes exécutés par le microprocesseur du périphérique concerné ? Pourquoi s’en faire ? Bonne question ! Mettons de côté les problèmes juridiques qui sont susceptibles de se poser, et concentrons-nous sur l’aspect pratique. Le nœud du problème tient au fait que, sans leur code source (et les outils pour les compiler), les firmwares ne sont qu’une suite aléatoire de nombres pour nous. Nous ne savons pas ce qu’ils font, nous ne pouvons pas les analyser ni les améliorer. Nous ne pouvons pas les changer, nous ne pouvons pas assurer leur suivi. Peut-être avez-vous été lire le commentaire du développeur Fedora dont le lien a été donné plus haut ? Je le cite à nouveau car il me semble qu’il a très bien résumé le problème :

Mise à jour des firmwares qlogic 2400 et 2500 vers la version 5.03.13. Que fait la version 5.03.13 ? Personne ne le sait hormis QLogic et ils ne le disent pas. Je leur ai posé la question et ils m’ont répondu que l’information ne pouvait être donnée sans accord de confidentialité. Je vous invite donc à imaginer ce que fait ce firmware et les bogues qu’il corrige. Tant que vous y êtes, imaginez un monde où les fabricants publieraient le code source de leurs firmwares.

À présent que vous savez que nous ne pouvons assurer le suivi de ces firmwares, vous pourriez vous demander si c’est vraiment utile de toute façon. Quels dégâts pourraient bien faire à votre ordinateur un simple petit programme logé dans un périphérique ? Eh bien un scientifique a déjà fait la démonstration d’un firmware pour certaines cartes réseau qui dissimulait un cheval de troie. Donc non seulement c’est un problème en soi, mais cela peut même être un problème de sécurité !

Résumons-nous. Oui, Debian a modifié quelque chose dans ses noyaux. Non, ils vont continuer de fonctionner comme d’habitude. Certains utilisateurs devront peut-être activer le dépôt non-libre mais ce n’est pas obligatoire. Les firmwares nécessaires à l’installation sont aussi disponibles et peuvent être chargés lors du processus d’installation. Alors pourquoi tout ce ramdam ?

À propos, ceux d’entre vous qui craignent de ne pas se rappeler les liens des images ISO et des archives compressées, souvenez-vous de deux choses: wiki et Firmware. Vous trouverez tout ce dont vous avez besoin sur la page Firmware du wiki Debian.

Notes

[1] Crédit photo : Mark Robinson (Creative Commons By)




Wikipédia ou quand prendre soin peut faire des miracles

Alice Popkorn - CC by-saComme tout miracle il était imprévu, mais en l’occurrence il a bien eu lieu.

C’est que nous rappelle ici Clay Shirky, considéré comme l’une des têtes pensantes du Web.

Parce que « si on pose un regard traditionnel sur le fonctionnement du monde, Wikipédia ne devrait même pas exister ».

Et pourtant cette encyclopédie tourne. Et elle tourne parce que suffisamment de gens se sentent concernés et veulent en prendre soin. C’est le double et joli sens du verbe « to care » (plus proche ici de Bernard Stiegler que de Martine Aubry !).

« Imaginez un mur sur lequel il serait plus facile d’effacer des graffitis que d’en rajouter. La quantité de graffitis dépendrait alors du degré de motivation de ses défenseurs. Il en va de même pour Wikipédia : Si tous ses fervents participants ne se sentaient plus concernés, tout le projet s’écroulerait en moins d’une semaine, envahie par les vandales et autres spammers. Si vous pouvez continuer à voir Wikipédia en ce moment même, cela veut dire qu’une fois de plus le bien a triomphé du mal. »[1]

Cet article vient clore en beauté notre petite série d’articles consacrés à Wikipédia à l’occasion de la célébration de son dixième anniversaire.

Wikipédia – un miracle imprévu

Wikipedia – an unplanned miracle

Clay Shirky – 14 janvier 2011 – The Guardian
(Traduction Framalang : DaphneK)

Depuis sa naissance il y a tout juste dix ans, Wikipédia s’améliore de jour en jour. C’est pourtant incroyable qu’il puisse même exister.

Wikipédia est l’outil de référence le plus utilisé au monde. Cette affirmation est à la fois ordinaire et stupéfiante : c’est le simple reflet du nombre considérable de ses lecteurs et pourtant, si on pose un regard traditionnel sur le fonctionnement du monde, Wikipédia ne devrait même pas exister. Et encore moins avoir atteint un succès aussi spectaculaire en à peine une dizaine d’années.

Grâce à l’effort cumulé des millions de contributeurs de Wikipédia, il suffit d’un clic pour savoir ce qu’est un infarctus du myocarde, connaître les causes de la guerre de la Bande d’Agacher, ou encore découvrir qui était Spangles Muldoon.

Il s’agit d’un miracle imprévu, comme lorsque « le marché » décide de la quantité de pain disponible en magasin. Wikipédia est cependant encore plus bizarre que le marché : Non seulement tout le contenu est rédigé gratuitement, mais il est aussi disponible gratuitement. Même les serveurs et systèmes d’administration sont financés par des dons. On aurait pourtant eu du mal à imaginer un tel miracle à ses débuts. C’est pourquoi, à l’occasion du dixième anniversaire du site, cela vaut la peine de revenir sur l’invraisemblable histoire de sa genèse.

Il y a dix ans jour pour jour, Jimmy Wales et Larry Sanger s’efforçaient en vain de créer Nupedia, une encyclopédie en ligne dotée d’un système de publication en sept étapes. Malheureusement, cela représentait aussi sept endroits où les choses pouvaient s’immobiliser. Et après presque un an de travail, pratiquement aucun article n’avait encore été publié.

Alors il y a dix ans et un jour, Wales et Sanger décidèrent d’opter pour un wiki, afin de raccourcir une partie du processus. Sanger a alors envoyé un mail aux collaborateurs de Nupedia en les informant de cette nouveauté : « Faites-moi plaisir. Allez-y et ajoutez un petit article. Cela prendra cinq ou dix minutes, grand maximum. »

Le « Faites-moi plaisir » était nécessaire car le wiki est le média social par excellence. Inventé au milieu des années 90 par Ward Cunningham, le wiki n’a qu’une fonction primordiale : produire immédiatement du contenu. Pas besoin de permission pour ajouter, modifier ou supprimer du texte, et une fois le travail terminé, pas besoin de permission non plus pour le publier.

Mais ce qui est plus intéressant, c’est qu’au centre du wiki se trouve une seule action sociale qui pourrait se résumer à : je me sens concerné (NdT : I care, que l’on aurait aussi pu traduire par « J’en prends soin »). Les gens qui rédigent des pages sont ceux qui se sentent assez concernés pour les rédiger. Confier le travail à ces gens plutôt qu’aux sacro-saints experts était quelque chose de tellement audacieux, que Wales et Sanger décidèrent de ne pas remplacer Nupedia par le wiki, ce dernier n’étant là que comme une sorte de brouillon pour Nupedia.

Les participants, cependant, ne l’entendaient pas ainsi. La possibilité de créer un article en cinq minutes et d’en améliorer un autre encore plus rapidement devint une pratique si communicative qu’en quelques jours à peine, il y eut plus d’articles sur le wiki nouveau-né que sur Nupedia. Le wiki fut tellement performant et si différent de Nupedia qu’il migra vite sur un site à part entière. Wikipédia était né (quelques mois plus tard, Nupedia ferma définitivement et Sanger abandonna le projet).

C’est ce processus qui se poursuit aujourd’hui, transformant Wikipédia en un miracle ordinaire pour plus de 250 millions de personnes par mois. Chaque jour de ces dix dernières années, Wikipédia s’est amélioré car quelqu’un – plusieurs millions de quelqu’un en tout – a décidé de l’améliorer.

Parfois il s’agit de commencer un nouvel article. La plus souvent il faut juste retoucher un texte déjà rédigé. Parfois il faut défendre Wikipédia contre le vandalisme. Mais il faut toujours se sentir concerné. La plupart des participants se sentent un peu concernés, ne rédigeant qu’un article. Une poignée se sent toutefois très concernée, produisant des centaines de milliers de lignes à travers des milliers d’articles au fil des années. Le plus important c’est que dans l’ensemble, nous avons tous produit assez pour faire de Wikipédia ce qu’il est aujourd’hui. Ce qui nous apparaît comme quelque chose de stable est en fait le résultat d’incessantes tentatives pour préserver ce qui est bon et améliorer ce qui ne l’est pas. Ainsi, Wikipédia ne se définit pas comme un objet, fut-il virtuel, soutenu par une organisation, mais comme une activité qui entraîne une encyclopédie dans son sillage.

Ce glissement de l’objet vers l’activité a entraîné une des plus incroyables expansions de révisions jamais vue : Le rédacteur en chef de Wikipédia est un quorum tournant composé d’individus particulièrement attentifs. Beaucoup de critiques de Wikipédia se sont concentrées sur le fait que le logiciel laisse n’importe qui écrire n’importe quoi. Ce qui leur échappe, c’est que les liens sociaux entre ces éditeurs motivés permet justement de contrôler cette fonctionnalité. Si le logiciel permet facilement de causer des dégâts, il permet tout aussi facilement de les réparer.

Imaginez un mur sur lequel il serait plus facile d’effacer des graffitis que d’en rajouter. La quantité de graffitis dépendrait alors du degré de motivation de ses défenseurs. Il en va de même pour Wikipédia : Si tous ses fervents participants ne se sentaient plus concernés, tout le projet s’écroulerait en moins d’une semaine, envahie par les vandales et autres spammers. Si vous pouvez continuer à voir Wikipédia en ce moment même, cela veut dire qu’une fois de plus le bien a triomphé du mal.

Bien sûr, Wikipédia n’est pas parfait. Beaucoup d’articles médiocres ont besoin d’être améliorés. L’âge, le sexe ou le groupe ethnique des rédacteurs ne sont pas assez variés et les biographies des personnes vivantes sont continuellement truffées d’erreurs. De plus, les protections mises en place contre les vandales et les spammers font bien souvent fuir les novices et épuisent les anciens. Mais Wikipédia n’est pas seulement une activité au niveau des articles. Partant de la production individuelle pour atteindre la culture de tous, Wikipédia est un bien commun créé par le public. C’est donc aux gens qui se sentent concernés d’essayer aussi de résoudre ces problèmes. Tant que cette culture continuera de considérer « soyez audacieux » comme valeur principale, le site demeurera l’un des actes collectifs de générosité les plus importants de l’Histoire.

Souhaitons donc un joyeux anniversaire à Wikipédia, accompagné de chaleureux remerciements aux millions de personnes qui ont ajouté, modifié, discuté, rectifié, ces gens qui ont créé l’outil de référence le plus utilisé au monde. Merci de nous raconter l’histoire des émeutes de Stonewall et comment Pluton a été reléguée au rang de « planète naine », merci de nous parler de la vallée du grand rift et du tsunami de l’Océan Indien, des rascasses volantes, des « Tiger teams » et du « Bear Market ».

Et avec nos meilleurs vœux pour ce dixième anniversaire, souhaitons d’être assez nombreux à nous sentir concernés pour permettre à Wikipédia de souffler ses vingt bougies en parfaite santé.

Notes

[1] Crédit photo : AlicePopkorn (Creative Commons By-Sa)




À quoi ça sert de s’activer sur Internet ? Doctorow répond à Morozov

Anonymous9000 - CC byCory Doctorow est souvent traduit sur ce blog car c’est l’une des rares personnalités qui pense l’Internet et agit en conséquence pour qu’il conserve ses promesses initiales d’ouverture et de partage.

Il a rédigé un long mais passionnant article dans The Guardian qui prend appui sur un lecture (très) critique du récent mais déjà fort commenté livre The Net Delusion: The Dark Side of Internet Freedom de Evgeny Morozov.

Chercheur biélorusse à l’université de Georgetown et chroniqueur dans plusieurs journaux, Morozov remet radicalement en question, dans son ouvrage, le pouvoir libérateur d’Internet.

On peut le voir exposer son point de vue dans cette courte conférence au format TED : Comment Internet aide les dictatures, qui constitue un excellent préambule à ce qui va suivre.

Morozov y dénonce la « cyberutopie » qui draperait la technologie de vertus émancipatrices intrinsèques, comme celle d’être nécessairement vecteur de démocratie pourvu que l’information circule sans entrave (source Rue89). Une « cyberutopie » issue de l’ignorance ou de la paresse intellectuelle de nos contemporains, qui se laissent aller au « web-centrisme » en imaginant que toutes les questions qui se posent dans nos sociétés peuvent être résolues par le prisme d’Internet (source Webdorado). Cliquer sur « J’aime » ou rejoindre une cause sur Facebook, relayer frénétiquement une information non vérifiée sur Twitter, n’ont jamais révolutionné la société,

On comprendra dès lors aisément que le « net-activiste » Cory Doctorow ait pris sa plume pour répondre dans le détail à l’argumentaire de Morozov.

Internet n’est certainement pas synonyme de libération. Mais ce réseau possède des caractéristiques particulières qui font qu’il ne ressemble à rien de ce que l’on a connu auparavant. Raison de plus pour se battre afin de conserver son principe de neutralité et faire en sorte qu’il échappe au contrôle des États et aux logiques mercantiles des entreprises privées.

Wikileaks et ses anonymous[1], hier la Tunisie, l’Égypte aujourd’hui… L’actualité récente n’est pas évoquée, mais il semblerait qu’elle penche plutôt du côté de Doctorow que de celui de Morozov.

Nous avons besoin d’une critique sérieuse de l’activisme sur le Net

We need a serious critique of net activism

Cory Doctorow – 25 janvier 2011 – The Guardian
(Traduction Framalang : Penguin, Barbidule, Gilles, Siltaar, e_Jim, Goofy et Don Rico)

« Net Delusion » (NdT : que l’on pourrait traduire par « Les mirages du Net » ou « Internet, la désillusion ») avance la thèse que la technologie ne profite pas nécessairement à la liberté, mais par quel autre moyen les opprimés se feront-ils entendre ?

Net Delusion est le premier livre de l’écrivain et blogueur d’origine biélorusse Evgeny Morozov, dont le thème de prédilection est la politique étrangère. Morozov s’est bâti une réputation de critique pointu, et parfois mordant, d’Internet et du « cyber-utopisme », et ” Net Delusion ” développe les arguments qu’il a déjà présentés ailleurs. J’ai lu avec intérêt l’exemplaire que j’ai reçu en service de presse. J’apprécie Evgeny, lors de nos rencontres et de nos échanges de courriers, il m’a donné l’impression d’être intelligent et engagé.

Au cœur du livre, on trouve des remarques extrêmement judicieuses. Morozov a tout à fait raison lorsqu’il souligne que la technologie n’est pas intrinsèquement bonne pour la liberté, qu’on peut l’utiliser pour entraver, surveiller et punir, aussi facilement que pour contourner, libérer et partager.

Hélas, ce message est noyé au milieu d’une série d’attaques confuses et faiblement argumentées contre un mouvement « cyber-utopique » nébuleux, dont les points de vue sont évoqués en termes très généraux, souvent sous la forme de citations de CNN et d’autres agences de presse censées résumer un hypothétique consensus cyber-utopique. Dans son zèle à discréditer cette thèse, Morozov utilise tous les arguments qu’il peut trouver, quelle que soit leur faiblesse ou leur inanité, contre quiconque fait mine de soutenir que la technologie est libératrice.

Le rôle de Twitter

Morozov tente d’abord de remettre les pendules à l’heure sur le rôle qu’a joué Twitter lors des dernières élections iraniennes. On a présenté partout le réseau de microblogage comme un outil fondamental pour les initiatives de l’opposition sur le terrain, mais par la suite, il est apparu clairement que les Iraniens d’Iran n’avaient été présents que marginalement sur Twitter, bien qu’ils aient utilisé beaucoup d’autres outils de diffusion et que ceux-ci aient été en effet essentiels dans la réaction à l’élection iranienne.

Morozov décrit minutieusement le fait que beaucoup des trois millions d’Iraniens expatriés sont en effet actifs sur Twitter, et que c’est ce trafic, ainsi que les messages de sympathie d’utilisateurs non-iraniens, qui ont fait de l’élection iranienne et de ses conséquences un évènement majeur sur Twitter.

Il décrit également les liens étroits que ces expatriés ont avec leur famille en Iran, grâce à d’autres outils tels que Facebook. Mais il manque d’en conclure que les informations issues de Twitter ont trouvé écho sur Facebook (et vice-versa) via les Iraniens de l’étranger. Il préfère considérer que les millions d’expatriés Iraniens publiant des messages sur Twitter sont tellement isolés de leur proches relations sur Facebook que ces messages n’ont eu presque aucun impact.

Presque aucun, mais un impact quand même. Morozov poursuit en citant Golnaz Esfandiari, une correspondante de Radio Free Europe en Iran, « déplorant la complicité pernicieuse de Twitter qui a permis aux rumeurs de se propager » en Iran pendant la crise. J’ai été choqué de lire cela dans l’ouvrage de Morozov : comment Twitter pourrait-il être « complice » de la propagation de rumeurs ; Esfandiari or Morozov attendaient-ils des fournisseurs de services sur Internet qu’ils censurent de façon pro-active les contributions des utilisateurs avant de les laisser se diffuser librement sur ur leurs réseaux ? Et si c’était le cas, Morozov pensait-il vraiment que Twitter deviendrait un meilleur soutien de la liberté sur Internet en s’auto-proclamant censeur ?

Cela m’a tellement stupéfait que j’ai envoyé un e-mail à Morozov pour lui demander ce que le lecteur était censé y comprendre au juste. Morozov m’a répondu que d’après lui Esfandiari ne s’était pas exprimée clairement ; elle voulait dire que c’étaient les utilisateurs de Twitter qui étaient « complices » de la propagation des rumeurs. C’est sans doute mieux, mais sans preuves que Twitter n’est fait que pour propager de fausses rumeurs, cela ne suffit pas pour inculper Twitter. Pourquoi alors ce passage figure-t-il dans le livre – sachant que Morozov n’a cessé d’affirmer dans les pages précédentes qu’aucune information postée sur Twitter n’avait atteint l’Iran – si ce n’est comme un pan de la stratégie qui consiste à discréditer les « cyber-utopistes » en balançant tous les arguments possibles en espérant que certains tiennent debout ? Et je pense que c’est le cas : par la suite, Morozov reproche à la « culture Internet » la « persistance de nombreuses légendes urbaines », une idée fort singulière puisque des chercheurs spécialisés en légendes urbaines, tels que Jan Brunvand, ont montré que de nombreuses légendes urbaines contemporaines proviennent du Moyen-Âge et ont prospéré sans avoir besoin d’Internet comme moyen de reproduction.

Technologie et révolution

Morozov est sceptique quant à la capacité de la technologie à déclencher des révolutions et étendre la démocratie. Pour renverser un régime corrompu, dit-il, avoir librement accès à l’information n’est ni nécessaire, ni même important – c’est une antienne des Reaganistes avec leur vision romantique de Samizdat, Radio Free Europe et autres efforts d’information remontant à la guerre froide. L’Union soviétique ne s’est pas effondrée à cause d’un mouvement politique, de courageux dissidents ou de tracts photocopiés – elle s’est écroulée parce qu’elle était devenue un cauchemar mal géré qui a chancelé de crise en crise jusqu’à l’implosion finale.

En effet, le libre accès aux médias étrangers (comme en bénéficiaient les citoyens de RDA qui pouvaient capter les programmes d’Allemagne de l’Ouest) a souvent contribué à désamorcer le sentiment anti-autoritaire, anesthésiant les Allemands de l’Est avec tant d’efficacité que même la Stasi avait fini par chanter les louanges de la décadente télévision occidentale.

L’ironie, c’est que Morozov – involontairement, mais avec vigueur – rejoint sur ce point ses adversaires idéologiques, comme Clay Shirky, le professeur de l’université de New York que Morozov critique lourdement par ailleurs. Les travaux de Shirky – notamment le dernier en date, The Cognitive Surplus – parviennent exactement aux mêmes conclusions au sujet des médias occidentaux traditionnels, et en particulier de la télévision. Shirky soutient que la télé a principalement servi à atténuer le poids de l’ennui né de l’accroissement du temps de loisirs aux premiers jours de l’ère de l’information. Pour Shirky, Internet est palpitant parce qu’il constitue justement l’antidote à cette attitude de spectateur passif, et qu’il constitue un mécanisme incitant les gens à la participation au travers d’une succession d’engagements toujours plus importants.

Régulation et contrôle

Morozov ne discute cependant pas cette position en profondeur. En fait, quand il examine enfin Internet en tant que tel, indépendamment des réseaux téléphoniques, des programmes télé et des autres médias, il se contente de tourner en ridicule les « gourous de la technologie », qui « révèlent leur méconnaissance de l’histoire » lorsqu’ils se lancent dans des « tirades quasi-religieuses à propos de la puissance d’internet ». Il illustre cette caricature par un florilège de citations stupides, soigneusement choisies parmi deux décennies de discours sur Internet, mais il laisse soigneusement de côté tout le travail sérieux sur l’histoire du Net en tant que média pleinement original – et notamment, il oublie de mentionner ou de réfuter la critique posée par Timothy Wu dans l’excellent livre The Master Switch, paru l’an dernier.

Wu, professeur de droit des télécommunications, retrace avec mordant l’histoire de la régulation des médias en réponse à la possible décentralisation des monopoles et oligopoles dans les télécommunications. Replacé dans ce contexte, Internet apparaît véritablement comme un phénomène original. Morozov sait bien sûr qu’Internet est différent, il le reconnaît lui-même lorsqu’il parle de la manière dont le Net peut imiter et supplanter d’autres médias, et des problèmes que cela engendre.

C’est là que réside la plus sérieuse faiblesse de Net Delusion : dans ce refus de se confronter aux meilleurs textes sur le thème d’Internet et de sa capacité extraordinaire à connecter et émanciper. Quand Morozov parle des menaces pour la sécurité des dissidents lorsqu’ils utilisent Facebook – ce qui revient à faire de jolies listes de dissidents prêtes à être utilisées par les polices secrètes des États oppresseurs – il le fait sans jamais mentionner le fait que, de longue date, des avertissements pressants sur ce sujet ont été lancés par l’avant-garde des « cyber-utopistes », incarnée par des groupes comme l’Electronic Frontier Foundation, NetzPolitik, Knowledge Ecology International, Bits of Freedom, Public Knowledge, et des dizaines d’autres groupes de pression, d’organisations d’activistes et de projets techniques dans le monde entier.

Bien évidemment, presqu’aucune mention n’est faite des principaux défenseurs de la liberté du Net, tel que le vénérable mouvement des cypherpunks, qui ont passé des décennies à concevoir, diffuser et soutenir l’utilisation d’outils cryptographiques spécialement conçus pour échapper au genre de surveillance et d’analyse du réseau qu’il identifie (à juste titre) comme étant implicite dans l’utilisation de Facebook, Google, et autres outils privés et centralisés, pour organiser des mouvements politiques. Bien que Morozov identifie correctement les risques que les dissidents prennent pour leur sécurité en utilisant Internet, son analyse technique présente des failles sérieuses. Lorsqu’il avance, par exemple, qu’aucune technologie n’est neutre, Morozov néglige une des caractéristiques essentielles des systèmes cryptographiques : il est infiniment plus facile de brouiller un message que de casser le brouillage et de retrouver le message original sans avoir la clé.

Battre la police secrète à son propre jeu

En pratique, cela signifie que des individus disposant de peu de ressources et des groupes dotés de vieux ordinateurs bon marché sont capables de tellement bien chiffrer leurs messages que toutes les polices secrètes du monde, même si elles utilisaient tous les ordinateurs jamais fabriqués au sein d’un gigantesque projet s’étalant sur plusieurs décennies, ne pourraient jamais déchiffrer le message intercepté. De ce point de vue au moins, le jeu est faussé en faveur des dissidents – qui jouissent pour la première fois du pouvoir de cacher leur communication hors d’atteinte de la police secrète – au détriment de l’État, qui a toujours joui du pouvoir de garder ses secrets ignorés du peuple.

La façon dont Morozov traite de la sécurité souffre d’autres défauts. C’est une évidence pour tous les cryptologues que n’importe qui peut concevoir un système si sécurisé que lui-même ne peut pas trouver de moyen de le casser (ceci est parfois appelé la « Loi de Schneier », d’après le cryptologue Bruce Schneier). C’est la raison pour laquelle les systèmes de sécurité qui touchent à des informations critiques nécessitent toujours une publication très large et un examen des systèmes de sécurité par les pairs. Cette approche est largement acceptée comme la plus sûre, et la plus efficace, pour identifier et corriger les défauts des technologies de sécurité.

Pourtant, lorsque Morozov nous relate l’histoire de Haystack, un outil de communication à la mode censé être sécurisé, soutenu par le ministère américain des Affaires étrangères, et qui s’est révélé par la suite totalement non-sécurisé, il prend pour argent comptant les déclarations du créateur de Haystack affirmant que son outil devait rester secret car il ne voulait pas que les autorités iraniennes fassent de la rétro-ingénierie sur son fonctionnement (les vrais outils de sécurité fonctionnent même lorsqu’ils ont fait l’objet d’une rétro-ingénierie).


Au lieu de cela, Morozov concentre ses critiques sur l’approche « publier tôt, publier souvent » (NdT : Release early, release often) des logiciels libres et open source, et se moque de l’aphorisme « avec suffisamment de paires d’yeux, les bugs disparaissent » (NdT appelé aussi Loi de Linus). Pourtant, si cela avait été appliqué à Haystack, cela aurait permis de révéler ses défauts bien avant qu’il n’arrive entre les mains des activistes iraniens. En l’occurrence, Morozov se trompe complètement : si l’on veut développer des outils sécurisés pour permettre à des dissidents de communiquer sous le nez de régimes oppressifs, il faut largement rendre public le fonctionnement de ces outils, et les mettre à jour régulièrement au fur et à mesure que des pairs découvrent de nouvelles vulnérabilités.

Morozov aurait bien fait de se familiariser avec la littérature et les arguments des technologues qui s’intéressent à ces questions et y ont réfléchi (les rares fois où il leur accorde son attention c’est pour se moquer des fondateurs de l’EFF : Mitch Kapor pour avoir comparé Internet à un discours de Jefferson, et John Perry Barlow pour avoir écrit une Déclaration d’indépendance du cyberespace). Certains des experts les plus intelligemment paranoïaques au monde ont passé plus de vingt ans à imaginer les pires scénarios catastrophes technologiquement plausibles, tous plus effrayants que les spéculations de Morozv – comme son hypothèse farfelue selon laquelle la police secrète pourrait un jour prochain avoir la technologie pour isoler des voix individuelles dans un enregistrement de milliers de manifestants scandant des slogans, pour les confronter à une base de données d’identités.

Surveiller les surveillants

Le tableau que dépeint Morozov de la sécurité des informations est trompeusement statique. Notant que le web a permis un degré de surveillance alarmant par des acteurs commerciaux tels les réseaux de publicité, Morozov en tire la conclusion que cette sorte de traçage sera adoptée par les gouvernements adeptes de censure et d’espionnage. Mais les internautes sensibles à la menace des publicitaires peuvent sans difficulté limiter cet espionnage à l’aide de bloqueurs de pub ou de solutions équivalentes. Il est déplorable qu’assez peu de personnes tirent avantage de ces contre-mesures, mais de là à supposer que les dissidents sous des régimes répressifs auront la même confiance naïve dans leur gouvernement que le client moyen envers les cookies de traçage de Google, il y a un pas énorme à franchir. Dans l’analyse de Morozov, votre vulnérabilité sur le web reste la même, que vous ayez un a priori bienveillant ou hostile à l’égard du site que vous visitez ou du mouchard qui vous préoccupe.

Morozov est également prêt à faire preuve d’une improbable crédulité lorsque cela apporte de l’eau à son moulin – par exemple, il s’inquiète du fait que le gouvernement chinois ait imposé d’installer un programme de censure obligatoire, appelé « barrage vert », sur tous les PC, même si cette manœuvre a été tournée en ridicule par les experts en sécurité du monde entier, qui ont prédit, à raison, que cela serait un échec lamentable (si un programme de censure n’est pas capable d’empêcher votre enfant de 12 ans de regarder du porno, il n’empêchera pas des internautes chinois éduqués de trouver des informations sur Falun Gong). Dans le même temps, Morozov oublie complètement d’évoquer les projets de l’industrie du divertissement consistant à exploiter l’« informatique de confiance » dans le but de contrôler l’utilisation de votre PC et de votre connexion à Internet, ce qui constitue une menace plus crédible et plus insidieuse pour la liberté du Net.

Morozov n’est pas le seul à avoir cette vision erronée de la sécurité sur Internet. Comme il le fait remarquer, l’appareil diplomatique occidental regorge d’imbéciles heureux prenant leurs désirs pour la réalité en matière de technologie. L’experte de la Chine Rebecca MacKinnon, que l’auteur cite tout au long de Net Delusion, raille l’obstination aveugle des ingénieurs et des diplomates à percer les pare-feux de la censure (comme la « grande e-muraille de Chine »), alors même qu’ils négligent d’autres risques beaucoup plus importants et pernicieux que le politburo de Pékin fait peser sur la liberté. Si Net Delusion a pour but d’amener le corps diplomatique à écouter d’autres groupes d’experts, ou d’inciter la presse généraliste à mieux rendre compte des possibilités de la technologie, je suppose que c’est admirable. Mais je crois que Morozov espère toucher des personnes au-delà de la Maison Blanche, Bruxelles, ou Washington ; j’ai l’impression qu’il espère que le monde entier va cesser d’attendre de la technologie qu’elle soit une force libératrice, pour plutôt faire confiance à… à quoi donc ?

Je n’en suis pas sûr. Morozov voudrait semble-t-il voir le chaos des mouvements populaires remplacé par une espèce d’activisme bien ordonné et impulsé depuis le sommet, mené par des intellectuels dont les réflexions ne peuvent pas s’exprimer de manière concise dans des tweets de 140 caractères. Morozov se voit-il lui-même comme l’un de ces intellectuels ? Voilà un point qui n’est jamais exprimé clairement.

Il est important de se poser la question de la place des discours sérieux à l’ère d’Internet, et Morozov essaie ici d’étayer ses arguments techniques avec des arguments idéologiques. De son point de vue, Internet n’est que le dernier avatar d’une série de technologies de communication qui ne propagent que futilités, rumeurs et inepties, évinçant ainsi les pensées et les réflexions sérieuses. Il n’est pas le premier à remarquer que des médias qui livrent des informations à un rythme effréné conduisent à réfléchir de manière rapide et papillonnante ; Morozov cite le livre de Neil Postman publié en 1985, « Amusing Ourselves to Death » (NdT : « Se distraire à en mourir »), mais il aurait tout aussi bien pu citer Walden ou la vie dans les bois, de Henry David Thoreau : « Nous sommes prêts à creuser un tunnel sous l’Atlantique pour rapprocher de quelques semaines l’Ancien monde du Nouveau ; mais la première nouvelle qui passera jusqu’aux oreilles américaines sera sans doute que la princesse Adélaïde a la coqueluche. »

« Internet nous rendra stupide »

En d’autres termes, les intellectuels se sont de tout temps lamentés sur la futilisation inhérente aux médias de masse – je ne vois pas de grande différence entre les arguments de l’Église contre Martin Luther (permettre aux laïcs de lire la Bible va futiliser la théologie) et ceux de Thoreau, Postman et Morozov qui prétendent qu’Internet nous rend stupides car il nous expose à trop de « LOLCats ».

Mais comme le fait remarquer Clay Shirky, il existe une différence fondamentale entre entendre parler de la santé de la princesse Adélaïde grâce au télégraphe ou suivre les rebondissements de Dallas à la télévision, et faire des « LOLCats » sur le Net : créer un « LOLCat » et le diffuser dans le monde entier est à la portée de tous. Autrement dit, Internet offre la possibilité de participer, d’une manière que les autres médias n’avaient même jamais effleurés : quiconque a écrit un manifeste ou une enquête peut les mettre largement à disposition. Dans un monde où chacun est en mesure de publier, il devient plus difficile, c’est vrai, de savoir à quoi il faut prêter attention, mais affirmer que la liberté serait mieux servie en imposant le silence à 90% de la population afin que les intellectuels aient le champ libre pour éduquer les masses est complètement stupide.

Pourtant, Morozov présente comme un inconvénient la facilité à publier en ligne. D’abord parce que d’après lui les futilités finissent par submerger les sujets sérieux, ensuite parce que des cinglés nationalistes anti-démocratie peuvent utiliser le Net pour attiser la haine et l’intolérance, et enfin parce que les difficultés que l’on rencontrait autrefois pour s’organiser politiquement constituaient un moyen en soi de forger son engagement, les risques et les privations associés à la dissidence renforçant la résolution des opposants.

Il est vrai qu’Internet a mis à portée de clic plus de futilités que jamais auparavant, mais c’est seulement parce qu’il a mis à portée de clic davantage de tout. Il n’a jamais été aussi simple qu’aujourd’hui de publier, lire et participer à des discussions sérieuses et argumentées. Et même s’il existe une centaine (ou un millier) de Twitteurs futiles pour chaque blog sérieux et pertinent, du genre de Crooked Timber, il existe davantage de points d’entrée pour des discussions sérieuses – que ce soit sur des blogs, des forums, des services de vidéo, ou même sur Twitter – qu’il n’y en a jamais eu auparavant dans toute l’histoire de l’humanité.

Il est tentant d’observer toute cette diversité et d’y voir une caisse de résonance dans laquelle les personnes ayant les mêmes points de vue étriqués se rassemblent et sont toutes d’accord entre elles, mais un coup d’œil rapide sur les débats enflammés qui sont la marque de fabrique du style rhétorique d’Internet suffit pour nous en dissuader. En outre, si nous étions tous enfermés dans une caisse de résonance se limitant à une mince tranche de la vie publique, comment se fait-il que toutes ces futilités – vidéos marrantes de Youtube, coupures de presse people fascinantes et liens vers l’étrange et le saugrenu – continuent à parvenir jusqu’à nos écrans ? (Morozov essaie ici d’avoir le beurre et l’argent du beurre, en nous prévenant que nous sommes à la fois en danger de nous noyer dans des futilités, et que l’effet de caisse de résonance va tuer la sérendipité).

Je suis moins inquiet que Morozov sur le fait que le Net fournisse un refuge aux fous littéraires à tendance paranoïaque, aux racistes hyper-nationalistes et aux hordes de tarés violents. Les gens qui croient en la liberté d’expression ne doivent pas s’affliger du fait que d’autres utilisent cette liberté pour tenir des propos mauvais, méchants ou stupides ; comme le dit le mantra de la libre expression : « La réponse à de mauvaises paroles est davantage de paroles ».

Pour la liberté

Sur ce point également Internet n’est pas neutre, et penche plutôt en faveur des défenseurs de la liberté. Les gouvernements puissants ont toujours eu la possibilité de contrôler la parole publique par le biais de la censure, des médias officiels, de la tromperie, des agents provocateurs et de bien d’autres moyens visibles ou invisibles. Mais ce qui est original, c’est que les oligarques russes utilisant Internet pour faire de la propagande sont désormais obligés de le faire en utilisant un média que leurs opposants idéologiques peuvent également exploiter. A l’époque soviétique, les dissidents se limitaient d’eux-mêmes à des chuchottements et des samizdat copiés à la main ; de nos jours, leurs héritiers peuvent lutter à armes égales avec les propagandistes de l’Etat sur le même Internet, un lien plus loin. Bien sûr, c’est risqué, mais le risque n’est pas nouveau (et la création et l’amélioration d’outils permettant l’anonymat, ouverts et validés par des pairs, ouvre de nouvelles perspectives en terme de limitation des risques) ; ce qui est nouveau c’est le remplacement de canaux de propagande unidirectionnels, comme la télévision (qu’elle diffuse des contenus de l’Est ou de l’Ouest) par un nouveau média qui permet de placer n’importe quel message à côté de n’importe quel autre grâce à des concepts puissants comme les hyperliens.

Je partage avec Morozov l’ironie de la situation lorsque les radicaux islamistes utilisent Internet pour honnir la liberté, mais alors que Morozov trouve ironique que les outils de la liberté puissent être utilisés pour embrasser la censure, je trouve ironique que pour se faire entendre, des apprentis-censeurs s’appuient sur le caractère universellement accessible d’un des médias les plus difficiles à censurer jamais conçus.

Sur le fait que la privation est fondamentale pour renforcer l’engagement des activistes, je suis confiant dans le fait que pour chaque tâche automatisée par Internet, de nouvelles tâches, difficiles à simplifier, vont apparaître et prendre leur place. En tant qu’activiste politique durant toute ma vie, je me souviens des milliers d’heures de travail que nous avions l’habitude de consacrer à l’affichage sauvage, au remplissage d’enveloppes ou aux chaînes téléphoniques simplement dans le but de mobiliser les gens pour une manifestation, une pétition ou une réunion publique (Morozov minimise la difficulté de tout cela, lorsqu’il suppose, par exemple, que les Iraniens apprendraient par le bouche à oreille qu’une manifestation va avoir lieu, quels que soient les outils disponibles, ce qui m’amène à croire qu’il n’a jamais essayé d’organiser une manifestation à l’époque où Internet n’existait pas). Je suis convaincu que si nous avions eu la possibilité d’informer des milliers de gens d’un simple clic de souris, nous ne serions pas ensuite rentrés tranquillement chez nous ; ce travail besogneux engloutissait la majeure partie de notre temps et de notre capacité à imaginer de nouvelles façons de changer les choses.

En outre, Morozov ne peut pas gagner sur les deux tableaux : d’un côté, il tire le signal d’alarme à propos des groupes extrémistes et nationalistes qui sont constitués et motivés par le biais d’Internet en vue de réaliser leurs opérations terrifiantes ; et quelques pages plus loin, il nous dit qu’Internet facilite tellement les choses que plus personne ne sera suffisamment motivé pour sortir de chez lui pour faire quoi que ce soit de concret.

Morozov observe les centaines de milliers voire les millions de personnes qui sont motivées pour faire quelques minuscules pas pour le soutien d’une cause, comme par exemple changer son avatar sur Twitter ou signer une pétition en ligne, et il en conclut que la facilité de participer de façon minime a dilué leur énergie d’activiste. J’observe le même phénomène, je le compare au monde de l’activisme tel que je l’ai connu avant Internet, dans lequel les gens que l’on pouvait convaincre de participer à des causes politiques se chiffraient plutôt en centaines ou en milliers, et je constate que tous les vétérans de l’activisme que je connais ont commencé en effectuant un geste simple, de peu d’envergure, puis ont progressivement évolué vers un engagement toujours plus fort et plus profond ; j’en arrive donc à la conclusion que le Net aide des millions de personnes à se rendre compte qu’ils peuvent faire quelque chose pour les causes qui leur tiennent à cœur, et qu’une partie de ces personnes va continuer et en faire toujours plus, petit à petit.

Le pouvoir libérateur de la technologie

La plus étrange des thèses soutenues dans Net Delusion est que la confiance que place l’Occident dans le pouvoir libérateur de la technologie a mis la puce à l’oreille des dictateurs – qui n’étaient auparavant pas intéressés par le contrôle du Net – et a rendu Internet plus difficilement utilisable dans un but de propagation de la liberté. Morozov cite en exemple la réponse des autorités Iraniennes aux affirmations outrancières qu’a tenu le Département d’État américain sur le rôle qu’aurait joué Twitter dans les manifestations post-électorales. Selon Morozov, les hommes politiques au pouvoir en Iran étaient en grande partie indifférents au Net, jusqu’à ce que les Américains leur annoncent que celui-ci allait causer leur perte, suite à quoi ils prirent sur eux de transformer Internet en un outil d’espionnage et de propagande à l’encontre de leurs citoyens.

Morozov fait ensuite état de divers dirigeants, comme Hugo Chávez, qui ont utilisé la rhétorique des USA pour appuyer leurs propres projets concernant Internet.

Il accuse également Andrew Mc Laughlin, conseiller technique adjoint du gouvernement des États-Unis, d’avoir fourni des munitions aux dictateurs du monde entier en déclarant publiquement que les compagnies de télécommunications américaines censurent en secret leurs réseaux, car cela a permis aux dictateurs de justifier leurs propres politiques.

C’est peut-être le passage le plus bizarre de Net Delusion, car il revient à dénoncer le fait qu’un homme politique américain combatte la censure sur le territoire national, au prétexte que les dictateurs étrangers seront réconfortés d’apprendre qu’ils ne sont pas les seuls à pratiquer la censure. Il me semble peu vraisemblable que Morozov veuille véritablement que les hommes politiques occidentaux ferment les yeux sur la censure opérée dans leurs pays de peur que l’écho des imperfections de l’Occident ne parvienne à des oreilles hostiles.

Dans la foulée, Morozov nous prévient que les dictateurs ne sont ni des imbéciles ni des fous, mais plutôt des politiciens extrêmement retors, et techniquement très éclairés. Je pense qu’il a raison : la caricature occidentale dépeignant les dictatures comme des idiocraties criminelles vacillantes ne coïncide tout simplement pas avec les réalisations techniques et sociales de ces États – et c’est justement pourquoi je pense qu’il a tort sur les relations entre les dictatures et Internet. Le pouvoir découle directement de mécanismes de communication et d’organisation, et Internet est là depuis suffisamment longtemps pour que tout autocrate accompli en ait pris note. L’idée que l’élite gouvernante de l’Iran n’ait pris conscience du pouvoir d’Internet que lorsque le ministère des affaires étrangères des États-Unis ont publiquement demandé à Twitter de modifier son planning de maintenance (afin de ne pas interférer avec les tweets liés aux élections en Iran) me paraît aussi ridicule que la surestimation, par ce même ministère des affaires étrangères, de l’influence que peut avoir Twitter sur la politique étrangère. Les activistes qui ont fait attention à la manière dont les États autoritaires interfèrent dans l’utilisation d’Internet par leurs citoyens, savent que la méfiance – et la convoitise – à l’égard du pouvoir d’Internet s’est développée dans les dictatures du monde entier depuis le moment où l’opinion publique s’est intéressée à Internet.

Le véritable problème dans la présentation que Morozov fait des « net-utopistes » est qu’ils n’ont rien en commun avec le mouvement que je connais intimement et dont je fais partie depuis une décennie. Là où Morozov décrit des personnes qui voient Internet comme une « force uni-directionnelle et déterministe allant soit vers une émancipation globale, soit vers une oppression globale » ou « qui refusent de reconnaître que le Web peut tout autant renforcer les régimes autoritaires que les affaiblir », je ne vois que des arguments spécieux, des caricatures inspirées des gros titres de CNN, des extraits sonores de porte-paroles de l’administration américaine, et des réparties de conférence de presse.

Tous ceux que je connais dans ce mouvement – des donateurs aux concepteurs d’outils, en passant par les traducteurs, des activistes de choc aux mordus de l’ONU – savent qu’Internet représente un risque tout autant qu’une opportunité. Mais contrairement à Morozov, ces personnes ont un plan pour minimiser les risques émanant de l’utilisation d’Internet (ceci explique pourquoi il y a tant de campagnes autour de la vie privée et des problèmes de censure provenant des logiciels propriétaires, des services de réseaux sociaux et des systèmes centralisés de collecte de données comme Google) et pour maximiser son efficacité en tant qu’outil d’émancipation. Ce plan implique le développement de logiciels libres et la diffusion de pratiques qui garantissent un meilleur anonymat, des communications plus sécurisées, et même des outils abstraits comme des protocoles réseau à divulgation nulle de connaissance qui permettent une large propagation des informations à travers de vastes groupes de personnes sans révéler leurs identités.

Morozov a raison d’affirmer que les hommes politiques occidentaux ont une vue simpliste du lien entre Internet et la politique étrangère, mais ce n’est pas simplement un problème de politique étrangère, ces mêmes hommes politiques ont incroyablement échoué à percevoir les conséquences d’Internet sur le droit d’auteur, la liberté d’expression, l’éducation, l’emploi et tous les autres sujets d’importance. Morozov a raison de dire que les métaphores dignes de la Guerre Froide comme « Grande muraille électronique » occultent autant qu’elles dévoilent (Net Delusion vaut son prix ne serait-ce que pour sa brillante démonstration que les dictatures utilisent autant les « champs » que les « murs » dans leurs stratégies Internet, et que ceux-ci demandent à être « irrigués » plutôt que « renforcés » ou « démolis »).

Mais dans son zèle à éveiller les décideurs politiques aux nuances et aux aspects non-techniques de la politique étrangère, il est approximatif et paresseux. Il affirme que ce qui différencie Internet d’un fax de l’époque des samizdat, c’est qu’Internet est utile tout autant aux oppresseurs qu’aux opprimés – mais je n’ai jamais rencontré de bureaucrate qui n’aimait pas son fax.

Et bien que Morozov tienne à nous montrer que « ce ne sont pas les tweets qui font tomber les gouvernements, c’est le peuple », il déclare ensuite allègrement que le bloc soviétique s’est désagrégé de lui-même, et pas à cause du peuple, qui n’a eu aucun rôle dans cet inévitable coup de balai de l’Histoire. Morozov croit peut-être que c’est exact dans le cas de l’URSS, mais étant donné qu’une large part du reste du livre est consacrée à la situation difficile des dissidents sur le terrain, je pense que l’on peut affirmer que même Morozov serait d’accord avec lui-même pour dire que, parfois, le peuple joue un rôle dans le renversement des régimes autoritaires.

Pour parvenir à ce but, les dissidents ont besoin de systèmes pour communiquer et s’organiser. Toute entreprise humaine qui nécessite le travail de plusieurs personnes doit consacrer une certaine partie de ses ressources au problème de la coordination : Internet a simplifié grandement ce problème (rappelez-vous les heures consacrées par les activistes au simple envoi de cartes postales contenant les informations au sujet d’une prochaine manifestation). En cela, Internet a donné un avantage substantiel aux dissidents et aux outsiders (qui ont, par définition, moins de ressources de départ) par rapport aux personnes détenant le pouvoir (qui, par définition, ont amassé suffisamment de ressources pour en engloutir une partie dans la coordination et en conserver encore suffisamment pour gouverner).

Internet permet à d’avantage de personnes de s’exprimer et de participer, ce qui signifie inévitablement que les mouvements de protestation vont avoir un ensemble d’objectifs plus diffus qu’à l’époque des révolutions autoritaires orchestrées par le haut. Mais Morozov idéalise le consensus des révolutions passées – que ce soit en 1776, 1914 ou 1989, chaque révolution réussie est une fragile coalition d’intérêts et de points de vue antagonistes, rassemblés par le désir commun d’abolir l’ancien système, même s’il n’y a pas de consensus sur ce qui doit le remplacer.

Désormais, Internet est devenu tellement intégré au fonctionnement des États du monde entier qu’il semble difficile d’accorder crédit à la crainte de Morozov selon laquelle, en cas de menace révolutionnaire sérieuse, les gouvernements débrancheraient simplement la prise. Comme Morozov lui-même le fait remarquer, la junte brutale de Birmanie a laissé fonctionner Internet en permanence pendant les violentes répressions des émeutes politiques, en dépit de la désapprobation mondiale qu’elle a subie du fait des compte-rendus diffusés sur Internet; la Chine dépend tellement du Net pour son fonctionnement interne qu’il est impossible d’envisager une coupure du Net à l’échelle nationale (et les coupures régionales, comme celle de la province du Xinjiang pendant les émeutes des Ouïghours, sont justement remarquables par leur caractère exceptionnel).

Le monde a besoin de plus de personnes œuvrant à l’amélioration du sort des activistes qui utilisent Internet (c’est-à-dire de tous les activistes). Nous avons besoin d’un débat sérieux au sujet des tactiques comme les DDoS (distributed denial-of-service attack ou attaques distribuées par déni de service) – qui inondent les ordinateurs avec de fausses requêtes pour les rendre inaccessibles – que certains ont comparés à des sit-in. En tant que personne arrêtée lors de sit-ins, je pense que cette comparaison est fausse. Un sit-in ne tire pas uniquement son efficacité du blocage des portes de tel endroit blâmable, mais de la volonté affichée de se tenir devant ses voisins et d’assumer le risque d’une arrestation ou de blessures au bénéfice d’une cause juste, ce qui confère une légitimité éthique à la démarche et facilite l’adhésion. En tant que tactique, les DDoS s’apparentent plus à de la super glu dans les serrures d’une entreprise ou au sabotage des lignes de téléphone – risqué, c’est certain, mais plus proche du vandalisme et donc moins susceptible de rallier vos voisins à votre cause.

Nous devons réparer l’Internet mobile, qui – reposant sur des réseaux et des appareils fermés – est plus propice à la surveillance et au contrôle que l’Internet filaire. Nous devons nous battre contre les manœuvres– menées par les entreprises du divertissement et les géants de l’informatique comme Apple et Microsoft – consistant à concevoir des machines dont le fonctionnement est secret et échappe au consentement de leur propriétaire, au prétexte de protéger le copyright.

Nous devons prêter attention à Jonathan Zittrain (un autre universitaire que Morozov tout à la fois rejette puis rejoint sans même s’en rendre compte), dont « Le Futur d’Internet » met en garde sur le fait que l’augmentation des crimes, escroqueries et autres fraudes sur le Net fatigue l’utilisateur et rend les gens plus enclins à accepter d’utiliser des appareils et des réseaux verrouillés, pouvant être utilisés aussi bien pour les contrôler que pour les protéger.

Nous avons besoin de tout cela, et surtout d’une critique sérieuse et d’une feuille de route pour l’avenir de l’activisme sur le Net, car les régimes répressifs du monde entier (y compris les soit-disant gouvernements libres de notre Occident) usent pleinement des nouvelles technologies à leur avantage, et le seul moyen pour l’activisme d’être efficace dans cet environnement est d’utiliser les mêmes outils.

Notes

[1] Crédit photo : Anonymous9000 (Creative Commons By)




Les partisans de l’ouverture participent-ils d’un maoïsme numérique ?

Luca Vanzella - CC by-saOpen, open, open ! les partisans de l’ouverture n’auraient, d’après Jason Lanier[1], que ce mot à la bouche, qu’ils s’appellent WikiLeaks, hackers, logiciels libres ou Wikipédia.

En plus, vous savez quoi ? Cette ouverture signifie la mort de la vie privée, la qualité nivelée par les masses, l’innovation en hibernation et une économie confisquée par une minorité. Ce que Jason Lanier résume par l’expression pas forcément très heureuse de « maoïsme numérique ».

Il n’en fallait pas plus que pour notre ami Glyn Moody, souvent traduit ici, ne réagisse !

La parole est à la défense des hackers et de l’Open Source

Glyn Moody – 18 janvier 2011 – The H Open Source
(Traduction Framalang : Olivier Rosseler)

In defence of hackers and open source

À mes yeux, l’avènement de WikiLeaks est un évènement marquant car il apporte un nouvel éclairage sur de nombreux domaines, pas forcément ceux auxquels on pense, parmi ceux-ci : l’éthique des hackers et le monde de l’Open Source.

Jaron Lanier s’y est intéressé récemment dans un article amusant, mais il reste dubitatif. Si vous ne connaissez pas ses hauts faits d’armes, voilà ce que l’autre Wiki, Wikipédia, dit de lui :

Jaron Zepel Lanier (né le 3 mai 1960) est un informaticien américain, compositeur, artiste graphique et essayiste. Il est l’auteur d’un film expérimental, mais ne se considère pas comme un producteur. Au début des années 80, il est l’un des pionniers de ce qu’il contribuera à faire connaître sous le terme de « Réalité Virtuelle ». Il fonda à l’époque la société VPL Research, la première entreprise à commercialiser des produits de réalité virtuelle. Actuellement, il est entre autres, professeur honoraire à l’université de Berkeley, Californie. Il figure dans la liste des 100 personnes les plus influentes du magazine Time de 2010.

Le titre de son essai est « Les dangers de la suprématie des nerds : Le cas de WikiLeaks » (NdT : nerd, qu’on aurait pu traduire par polard ou intello), ce qui vous donne une idée de son point de vue sur les hackers et l’Open Source. Je pense qu’il se trompe dans son argumentaire contre WikiLeaks, comme je l’ai déjà évoqué, mais je me concentrerai ici sur les prises de position contre les hackers et l’ouverture qu’il distille au passage.

Point de départ de sa critique : une rencontre de la plus haute importance qui aurait, selon ses dires, mené à la création de WikiLeaks.

Le nid qui vit éclore WikiLeaks est un forum organisé par John Gilmore, l’un des fondateurs de l’Electronic Frontier Foundation. J’aurais d’ailleurs pu moi-même devenir l’un des fondateurs de l’EFF. J’étais présent quand tout a commencé, lors d’un repas à San Francisco, dans le quartier de Mission, avec John, John Perry Barlow et Mitch Kapor. C’est un pressentiment qui m’a empêché de suivre les autres dans la création de l’EFF, le pressentiment que quelque chose clochait.

Il poursuit :

Le chiffrement les obsédait, le Graal qui rendrait les hackers aussi puissants que les gouvernements, et ça me posait un problème. Les têtes enflaient : Nous, hackers, pouvions changer le cours de l’Histoire. Mais si l’Histoire nous a appris quelque chose, c’est bien que la quête du pouvoir ne change pas le monde. Vous devez vous changer vous-même en même temps que vous changez le monde. La désobéissance civile est avant tout une question de discipline spirituelle.

Mais c’est là, je pense, que son argumentation est fausse : les hackers ne sont pas en « quête de pouvoir ». Les actions qu’ils entreprennent leur confèrent peut-être un certain pouvoir, mais ce n’est qu’un effet secondaire. Par définition, les hackers hackent car ils aiment hacker : c’est l’équivalent au XXIe siècle de « l’art pour l’art ». Je concède que Richard Stallman et ses sympathisants ajoutent une dimension hautement morale au hack : apporter la liberté aux peuples. Mais, je le répète, ils ne sont pas en « quête de pouvoir » : ils veulent le donner, pas le prendre.

Vers la fin de son article, Lanier écrit :

J’ai toujours pensé qu’un monde ouvert favoriserait l’honnête et le juste et dé-crédibiliserait le magouilleur et l’arnaqueur. Appliquée avec modération, cette idée est attrayante, mais si le concept de vie privée venait à disparaître, les gens deviendraient d’abord sans intérêt, puis incompétents et ils finiraient eux-mêmes par disparaître. Derrière cette idée d’ouverture radicale se cache une allégeance de l’Homme aux machines.

Là encore il nous sert une hypothèse sans fondement : « si le concept de vie privée venait à disparaître ». Il ne me semble pas que beaucoup de hackers aient appelé à la «disparition du concept de vie privée » (aucun nom ne me vient à l’esprit d’ailleurs). Il y a confusion entre « ouverture » et « absence de vie privée » alors que ce sont deux choses bien distinctes (bien que l’ouverture ait certainement des implications sur la vie privée, mais de là à définir le premier par l’absence du second, il y a un grand pas).

Cette tendance à créer des épouvantails et à passer allégrement dans le hors-sujet est récurrente chez Lanier. Sa précédente diatribe sur tout ce qui est ouvert, « Maoïsme numérique » en est un bon exemple. Voilà le passage consacré à l’Open Source :

Il faut que je m’accorde une parenthèse sur Linux et les projets similaires. Qu’ils soient « libres » ou « Open Source », ces logiciels ne sont pas, à bien des égards, comme Wikipédia, à vouloir agréger tous les contenus. Les programmeurs de Linux ne sont pas anonymes, au contraire, la reconnaissance personnelle fait partie de leurs motivations, c’est ce qui fait avancer de tels projets. Mais des points communs existent, comme l’absence d’opinion représentative ou de sens du design (au sens esthétique du terme), ce sont des défauts que partagent les logiciels Open Source et Wikipédia.

Ces mouvements excellent dans la création de tout ce qui est infrastructure cachée, comme les serveurs Web. Mais ils sont incapables de créer des interfaces utilisateurs léchées ou d’améliorer l’expérience utilisateur. Si le code de l’interface utilisateur de Wikipédia était aussi ouvert que ses articles, vous pouvez être sûr que ça deviendrait rapidement un bourbier inextricable. L’intelligence collective parvient avec brio à résoudre des problèmes qui peuvent être évalués sur des critères objectifs, mais elle n’est pas adaptée ici lorsque les goûts et les couleurs comptent.

Il a raison, c’est simplement une question de critères. Pour le code source, de nombreux critères objectifs existent, vitesse, poids, portabilité, etc. Mais pour ce qui est d’imaginer une interface, tout est très subjectif, difficile donc de s’assurer que les choses évoluent dans le bon sens à chaque transformation. Mais ce n’est pas l’« ouverture » ou le « collectif » qui posent problème ici : les projets extrêmement centralisés rencontrent les mêmes difficultés pour mesurer les « progrès » dans les domaines très subjectifs, alors que pour eux aussi, les questions plus objectives sont plus simples à résoudre.

Il semblerait que Lanier s’en prend une nouvelle fois à l’« ouverture » dans son dernier livre You Are Not a Gadget (NdT : Vous n’êtes pas un gadget). Je dis « il semblerait », car je ne l’ai pas lu : il y a bien d’autres livres que j’aimerais commencer avant, surtout si je me fie à ce résumé (et d’après ses autres écrits, je peux) :

Dans son ouvrage paru en 2010 (You Are Not A Gadget), Lanier critique l’« esprit de ruche » et compare l’Open Source et l’expropriation de la production intellectuelle orchestrée par les contenus ouverts à une forme de maoïsme numérique. Il trouve qu’ils ont ralenti le développement de l’informatique et l’innovation musicale. Il s’en prend à quelques icônes sacrées telles que Wikipédia et Linux dans son manifeste, Wikipédia pour la toute-puissance des auteurs et éditeurs anonymes qui font régner leur loi, pour la faiblesse de son contenu non-scientifique et pour l’accueil brutal réservé aux personnes qui ont effectivement une expertise dans leur domaine. Il affirme également que certains aspects de l’« Open Source » et de l’« Open Content » possèdent leurs limitations et qu’au fond ils ne créent rien de vraiment neuf ou innovant. Il poursuit en disant que ces approches ont retiré aux classes moyennes des opportunités de financer la création et ont concentré la richesse dans les mains de ceux qu’il nomme les « dieux dans les nuages » : ceux qui, plutôt que d’innover deviennent des intermédiaires, des concentrateurs de contenus, présents au bon endroit au bon moment, dans les « nuages ».

Le fait qu’il ressorte ce bon vieux troll montre que ses arguments sont usés jusqu’à la corde, a-t-il seulement entendu parler de ce truc qu’on appelle Internet, dont la création repose entièrement sur des protocoles et du code ouvert ?

De même, l’idée que le financement de la création de contenu par la classe moyenne est moins probable nie le fait que les gens créent plus de contenu que jamais, gratuitement, pour l’amour de la création, vous voyez on retrouve « l’art pour l’art ». Je vous accorde que ce ne sont pas que des chefs-d’œuvre, mais bon, cela a toujours été le cas, non ? La grande majorité des créations ont toujours été médiocres. Par contre, maintenant on s’en rend mieux compte car nous jouissons d’un accès sans précédent à la création. C’est cette richesse, cette variété dans l’abondance que Lanier semble ne pas apprécier lorsqu’il écrit :

L’idéologie qui pousse une bonne partie du monde connecté, pas seulement WikiLeaks, mais aussi des sites très visités comme Facebook par exemple, est que l’information en suffisamment grande quantité devient automatiquement une Vérité. Cela implique pour les extrémistes qu’Internet est en train de devenir une nouvelle forme de vie, singulière, mondiale, supérieure, post-humaine. Pour les sympathisants plus modérés, si l’information est vérité et que la vérité vous rend libre, alors enrichir l’Internet de plus d’informations rend automatiquement les gens plus libres et le monde meilleur.

Pour les hackers, ce n’est pas tant la quantité qui compte, mais plutôt la qualité, c’est ce qui fait la force des logiciels libres. L’ouverture a simplement pour but d’encourager les gens à s’appuyer sur l’existant pour améliorer les choses, pas juste pour amasser des lignes de code. De plus, la culture hacker valorise fortement les échanges interpersonnels. Le don et la collaboration sont des éléments clés de la méthodologie Open Source. Ça fonctionne car l’un des piliers de la culture hacker est l’attribution : ne pas indiquer que l’on s’appuie sur le travail d’autres personnes est une bévue monumentale. C’est une bonne protection contre les personnes mal intentionnées qui voudraient siphonner la bonne volonté de la communauté.

Au fond, Lanier devrait plutôt louer les hackers et l’Open Source, puisqu’ils partagent son désire d’allégeance aux Hommes plutôt qu’aux machines. Quel dommage qu’une personne de sa qualité ne s’en rende pas compte.

Notes

[1] Crédit photo : Luca Vanzella (Creative Commons By-Sa)




Bataille de la vidéo sur le Web : Quand Google restreint pour mieux ouvrir ?

Justin De La Ornellas - CC byLa semaine dernière Google annonçait que Chrome, le navigateur de la firme, ne supporterait plus dorénavant le format vidéo fermé et payant H.264 pour la vidéo sur le Web, préférant promouvoir exclusivement les formats vidéo libres et gratuits tels que WebM (VP8) et Ogg Theora.

Cette décision a été diversement accueillie, certains félicitant Google de continuer à peser de tout son poids pour faire émerger un standard libre et gratuit pour la vidéo sur le Web (on se souvient que Google a racheté l’année dernière la société On2 à l’origine du codec vidéo VP8 – que l’on retrouve dans le format WebM – pour permettre à chacun de l’implémenter et de l’utiliser gratuitement). Tandis que d’autres ont reproché à Google son incohérence en continuant de supporter dans le même temps le greffon propriétaire Flash.

En effet, jusqu’à présent la vidéo sur le Web nécessitait un greffon (typiquement Flash, de la société Adobe, omniprésent) qui agissait comme une boite noire en s’intercalant entre le navigateur et l’utilisateur. La récente mise à jour de la spécification HTML (qui sert à créer et afficher les pages Web) offre depuis la possibilité d’afficher les vidéos directement dans n’importe quel navigateur à jour, sans avoir à dépendre d’un unique logiciel appartenant à une unique société privée avec tous les dangers que cela représente[1].

Mais il reste pour cela à se mettre d’accord sur le choix du format dans lequel encoder la vidéo. Apple (Safari) refuse d’implémenter autre chose que le format payant H.264 qu’il souhaiterait voir s’imposer, ce qui placerait la vidéo sur le Web entre les mains d’un consortium de sociétés privées chargé de récolter les redevances et créerait un péage incontournable pour toute société qui souhaiterait innover sur le Web (avec ce système, Firefox et bien d’autres n’auraient jamais pu voir le jour). Pour leur part, Mozilla (Firefox), Opera et Google (Chrome) soutiennent WebM et Ogg Theora en tant que technologies libres et gratuites pouvant être mises en œuvre par n’importe qui sans restriction. Pendant ce temps Microsoft compte les points, n’excluant aucune des solutions

Tristan Nitot, Président de Mozilla Europe, l’explique bien : « Si le Web est si participatif, c’est parce qu’il n’y a pas de royalties pour participer et créer un contenu. (Faire le choix du H.264) serait hypothéquer l’avenir du Web. On créerait un îlot technologique, un club de riches : on pourrait produire du texte ou des images gratuitement, mais par contre, pour la vidéo, il faudrait payer. »

Nous avons choisi de reproduire ici la réponse de Haavard, employé chez Opera Software, à ceux qui dénoncent la récente décision de Google.

Le retrait de Chrome du codec H.264 conduit-il à moins d’ouverture ?

Is the removal of H.264 from Chrome a step backward for openness?

par Haavard, employé chez Opera Software, le 13 janvier 2011
(Traduction Framalang : Antistress et Goofy)

Dans un long article publié sur le site Ars Technica, Peter Bright soutient que retirer de Chrome le support d’un standard fermé conduit à moins d’ouverture.

Je suis fermement en désaccord avec cette assertion et je vais essayer d’expliquer rapidement pourquoi et ce qui cloche avec les arguments mis en avant dans l’article.

1. « H.264 est un standard ouvert »

Malheureusement H.264 est un format breveté et vous ne pouvez l’utiliser sans bourse délier. Conformément à la politique du W3C sur les brevets, cela est incompatible avec la définition d’un standard ouvert, spécialement dans le contexte du Web. D’après la définition même de « ouvert », H.264 ne peut être ouvert car il ne peut être utilisé sans payer.

2. « VP8 n’est pas un standard ouvert »

Ce point est exact, en effet. Le format VP8 est une technologie avec une spécification, pas un standard. Pourtant Google a choisi de concéder à chacun le droit de l’utiliser sans payer de redevance. Ce qui signifie que VP8 est en fait un bon candidat pour devenir un véritable standard ouvert pour le Web.

3. « H.264 est libre d’utilisation à certaines conditions »

Rappelez-vous que H.264 coûte toujours de l’argent. Et même si des produits avec une faible base d’utilisateurs peuvent être exemptés dans un premier temps, vous devez toujours ouvrir votre portefeuille à un moment donné si vous voulez réaliser quelque chose sur le Web. Le consortium MPEG-LA a intelligemment « offert » la première dose. Une fois que vous êtes accro, ils peuvent commencer à vous présenter la facture.

C’est un leurre destiné à vous appâter.

4. « Le support de H.264 n’est pas requis dans la spécification HTML5 »

Mais cela deviendrait un autre standard de fait, fermé, comme l’était Internet Explorer 6. Et nous avons tous à l’esprit les dégâts que cela a causés au Web.

5. « Google fournit Chrome avec le greffon Flash préinstallé ; son attitude est hypocrite »

Cela revient à comparer des pommes avec des poires. Flash est un greffon que Google a choisit de fournir en même temps que son navigateur car il y a beaucoup de contenus qui nécessitent Flash sur le Web. H.264, loin de n’être qu’un simple greffon, ferait partie du navigateur lui-même.

Une chose qu’il est important d’avoir à l’esprit c’est que Flash est d’ores et déjà omniprésent. Si vous voulez profiter de la vidéo sur le Web, vous n’avez pas le choix : il vous faut Flash. Pourtant la « bataille » de la vidéo directement dans le navigateur, via HTML5, fait toujours rage sans qu’on puisse encore désigner le vainqueur. Mais à présent que Google laisse tomber le codec fermé H.264 dans son navigateur, la probabilité qu’un codec libre et ouvert finisse par s’imposer augmente.

Que Google continue de fournir le greffon Flash avec son navigateur est parfaitement compréhensible. La plupart des contenus vidéo sur le Web sont en Flash et Google Chrome peut ainsi continuer de les afficher, en attendant qu’un codec ouvert s’impose pour la vidéo directement dans le navigateur. Il n’y a aucune hypocrisie ici, seulement du pragmatisme.

Finalement le reproche fait à Google de livrer le greffon Flash avec son navigateur sert à détourner l’attention de la véritable question : est-ce que la vidéo directement dans le navigateur se fera au moyen d’une technologie ouverte ou fermée ?

Mise à jour : Certains brandiront iOS comme contre-argument mais ça ne résiste pas à l’analyse. Il y a une raison pour laquelle beaucoup d’utilisateurs d’iPhone/iPad sont prêts à payer même pour des solutions de transcodage de piètre qualité sur iOS : ils ne peuvent accéder à la plupart des sites de vidéos. La raison pour laquelle iOS trace sa route avec H.264 c’est basiquement que YouTube (le site d’hébergement de vidéos de Google, qui s’avère être le plus important sur le Web) le supporte. La vaste majorité des sites vidéo requièrent encore Flash. Cela dit, je comprends que certains des fans les plus importants d’Apple soient ennuyés par l’initiative de Google de promouvoir WebM. Perdre le support de YouTube serait un coup terrible pour Apple.

6. « H.264 est partout et le Web n’existe pas en vase clos »

Le fait qu’un format soit répandu en dehors d’Internet ne signifie pas qu’il convient pour le Web. Puisque le Web nécessite des formats ouverts, H.264 n’est pas adapté comme format de référence pour le Web, par définition.

Et l’argument selon lequel H.264 est partout et chacun devra faire avec ne tient pas la route à mon avis. Des sites comme YouTube doivent convertir et compresser les vidéos de toute façon, de sorte que très peu d’entre elles sont publiées telles qu’elles sortent de votre caméra.

Autrement dit : la recompression sera toujours là, et au lieu de réencoder le fichier en H.264 pour réduire sa taille et le jouer en ligne, il peut très bien être réencodé dans un format ouvert.

7. « H.264 peut être utilisé à la fois pour les vidéos en Flash et les vidéos HTML5, assurant une transition douce »

Comme je l’ai déjà expliqué, les vidéos sont habituellement recompressées d’une façon ou d’une autre. En effet, la plupart des sites offrent des vidéos de différents débits et de différentes tailles. Ils convertissent déjà les vidéos ! ils pourraient simplement les convertir dans un format ouvert à la place.

8. « Les utilisateurs de Firefox pourraient voir les vidéos H.264 en utilisant le greffon développé par Microsoft »

Notez bien le mot « greffon ». Cela veut dire que nous abandonnons la vidéo HTML5 pour retourner aux greffons. Tous les bénéfices de la vidéo directement dans le navigateur s’évanouissent (sans compter que le greffon n’existe que pour Windows 7). Par contre je pense qu’il est raisonnablement facile d’ajouter le support de WebM à Safari et Internet Explorer en complétant la liste des codecs supportés par le système d’exploitation[2].

9. « La part de marché des navigateurs qui supportent H.264 dépasse celle des navigateurs qui supportent WebM »

Google, avec son monopole de la publicité en ligne, met les bouchées doubles pour que ça n’arrive pas. Si je ne me trompe pas, la part des navigateurs basés sur les standards ouverts croît au détriment d’Internet Explorer. Bien qu’il soit impossible de mesurer de manière fiable les parts de marché de chaque navigateur, la plupart des données semblent le confirmer.

10 « La décision de Google restreint le choix des utilisateurs »

Nous attaquons maintenant le cœur du problème. Et malheureusement, c’est le format H.264 qui supprime le choix. Pendant que le format WebM maintient le Web comme plateforme ouverte, H.264 est un standard fermé détenu par un cartel d’industriels qui essaie d’éradiquer sans ménagement toute tentative de faire émerger une alternative.

Je suis également estomaqué de voir que Google est accusé de restreindre le choix des utilisateurs alors que Microsoft et Apple ne sont même pas mentionnés. Ils refusent de supporter WebM après tout.

11. « VP8 est contrôlé par Google et est propriétaire »

Je ne suis pas certain que cela fasse partie des griefs mais c’est l’interprétation que j’en ai. Et c’est un grief non fondé. Lisez la licence de WebM pour plus d’information]. WebM est un projet libre sponsorisé par Google et il est gratuitement disponible du fait de sa licence.

Propos finaux :

L’article tente de montrer que la décision de Google conduit à moins d’ouverture. En réalité l’article met sur la table toutes sortes de choses qui sont sans rapport avec cette question. Cela, je crois, pour embrouiller les choses, alors que la question des standards ouverts est une des plus importantes !

Nous pouvons facilement analyser ce qui permet plus d’ouverture dans le contexte du Web :

  • H264 est breveté, c’est donc un standard « fermé ». Il est incompatible avec la politique du W3C sur le brevets pour un Web ouvert. Par conséquent, promouvoir H.264 comme format de référence pour la vidéo HTML5 est le contraire de promouvoir l’ouverture.
  • De l’autre côté, WebM correspond bien plus à la politique des brevets du W3C. Google concède à chacun le droit d’utiliser cette technologie sans payer de redevance. Puisque WebM est ouvert, il promeut un Web ouvert.

Conclusion : En rejetant ce qui ferme le Web tout en promouvant des technologies ouvertes, Google contribue à un Web plus ouvert contrairement à ce qu’affirme l’article.

Notes

[1] Crédit photo : Justin De La Ornellas (Creative Commons By)

[2] Télécharger les codecs libres et gratuits WebM/VP8, Ogg Theora et Ogg Vorbis pour Windows – Télécharger le codec libre et gratuit WebM/VP8 pour MacOS avec les codecs libres et gratuits Ogg Vorbis et Ogg Theora pour MacOS (déposer le fichier dans votre bibliothèque QuickTime située sur votre disque dur à cet endroit : Macintosh HD/Bibliothèque/QuickTime).




À lire et à faire lire : Biens Communs – La Prospérité par le Partage

Ed Yourdon - CC by-saEn avril dernier nous mettions en ligne un remarquable article de Silke Helfrich « Les biens communs ou le nouvel espoir politique du XXIe siècle ? ». Cette fois-ci nous avons le plaisir de relayer l’annonce de la traduction française d’un rapport d’une cinquantaine de pages sur ces fameux Biens communs, où l’on retrouve Silke Helfrich parmi les nombreux auteurs de cet ouvrage collectif. Il a pour titre « Biens Communs – La Prospérité par le Partage » et il est naturellement placé sous licence libre Creative Commons By-Sa.

Nous avons déjà eu l’occasion de dire que nous pensions que « les Biens communs seront à n’en pas douter non seulement l’un des mots clés de ces temps nouveaux qui s’offrent à nous, mais aussi, si nous le voulons bien, l’un des éléments moteurs et fédérateurs des politiques progressistes de demain ». Ce rapport est une pièce important à verser au dossier, tellement importante que d’aucuns pourraient presque y voir une sorte de manifeste pour les générations à venir[1].

Il n’est pas toujours aisé de définir avec précision ce que sont les Biens communs, d’ailleurs ceci fait l’objet d’un chapitre dédié en guise de préambule. Mais à chaque fois que l’on tente d’en dresser une liste, les logiciels en font partie, à la condition d’être libres. On ne s’étonnera donc pas qu’ils soient souvent cités ici.

Il est également dit que « les biens communs ont besoin d’hommes et de femmes qui soient prêts à les défendre et qui s’en sentent responsables ». Aussi modeste soit notre contribution, nous en sommes 😉

Vous trouverez le rapport en version PDF en suivant ce lien. Et pour vous donner plus encore envie de le lire (ce qui implique le dur sacrifice de devoir laisser au repos son compte Twitter pendant une petite heure), nous en avons reproduit ci-dessous la quatrième de couverture, l’introduction et la conclusion.

Remarque : Le document est agrémenté de citations comme, par exemple, celle-ci de Benni Bärmann que je soumets à votre sagacité : « Les biens communs plairont aux conservateurs par leur dimension de préservation et de communauté, aux libéraux par la mise à distance de l’État et l’absence d’incompatibilité avec le marché, aux anarchistes par la mise en avant de l’auto-organisation, et aux socialistes et communistes par l’idée de propriété commune sous contrôle collectif. »

Biens Communs – La Prospérité par le Partage (extraits)

URL d’origine du document (dans son intégralité)

Un rapport de Silke Helfrich, Rainer Kuhlen, Wolfgang Sachs, Christian Siefkes
Publié en décembre 2009 par la Fondation Heinrich Böll
Traduit par Jeremy Marham et Olivier Petitjean (Ritimo.org)
Sous licence Creative Commons By-Sa

Quatrième de couverture

Ce sont de grands inconnus, et pourtant nous vivons tous grâce à eux. Ils sont au fondement même de notre vie collective. Ce sont les biens communs. L’air, l’eau, les savoirs, les logiciels et les espaces sociaux. Et bien d’autres choses qui rendent possible la vie quotidienne et le bon fonctionnement de l’économie.

De nombreux biens communs sont cependant menacés – ils sont ôtés à la collectivité, commercialisés, détruits de manière irréversible. Au lieu de cela, ils devraient être cultivés et développés.

Nous avons besoin d’une nouvelle conscience de l’importance de ces « choses qui nous sont communes ». Sans eux, il n’y a en effet pas de bien-être et pas de prospérité possibles. Les biens communs ont besoin d’hommes et de femmes qui soient prêts à les défendre et qui s’en sentent responsables.

De nombreux problèmes de notre époque pourraient être résolus si nous dirigions l’énergie et la créativité dont nous disposons vers ce qui fonde notre richesse, ce qui fonctionne, et ce qui aide les hommes et les femmes à développer leur potentiel.

Ce rapport vise précisément à mettre ces choses, ainsi que les principes d’une «production par les pairs basée sur les biens communs», au centre de l’attention publique.

Objet de ce rapport

Ce que l’on appelait traditionnellement res communes – les choses qui nous appartiennent en commun – a été sinon oublié, du moins supplanté par les res privatae organisées par le marché, ainsi que par les res publicae mises à disposition par l’État. Elles sont dès lors traitées comme des res nullius, c’est-à-dire des « choses de personne ».

L’air et l’eau sont de parfaits exemples de biens communs qui, malgré leur importance, partagent bien souvent le triste sort des « choses de personne », de ces choses dont personne ne s’occupe. Les conséquences catastrophiques pour nous tous d’un tel état de fait se manifestent aujourd’hui de toute part.

Les « biens communs » – res communes, ou encore « commons » en anglais – ne sont pas des biens « sans maître ». Ils ne peuvent pas et ne doivent pas être utilisés à n’importe quelle fin, et encore moins détruits. Chacun de nous peut légitimement faire état de droits sur eux. Les biens communs sont les choses qui nous nourrissent, qui nous permettent de communiquer ainsi que de nous déplacer, qui nous inspirent et qui nous attachent à certains lieux– et dont, de manière tout aussi significative, nous avons besoin pour déverser nos gaz d’échappement et nos eaux usées.

La conception classique de la propriété, comprise en premier lieu comme droit de l’individu, acquiert une nouvelle dimension si l’on prend conscience de l’existence d’un droit collectif sur les biens communs.

  • Quelles sont les conséquences d’une redéfinition des terres comme biens communs ?
  • Qu’advient-il de l’espace public lorsqu’il n’est plus possible de le privatiser à volonté par la publicité, les décibels, les voitures ou les parkings ?
  • À quoi ressemblerait une société où l’utilisation libre des biens relatifs à laconnaissance et la culture serait devenue la règle, et leur utilisation commerciale l’exception ?
  • Quelles sont les règles et les institutions qui encouragent un rapport riche de sens aux biens communs ?

Ces questions ne sont débattues ni sur le plan théorique ni sur le plan de leurs conséquences politiques, sociales ou économiques.

Nous avons voulu dans ce rapport étudier le potentiel des biens communs lorsqu’ils sont utilisés de manière appropriée et durable. Nous y examinons les facteurs qui menacent leur existence. Nous y montrons quelles sont les règles qui ont fait leurs preuves dans certaines situations, et quelles sont celles qui doivent être entièrement repensées. Dans les pages qui suivent, nous partageons avec vous nos réflexions et nos expériences.

Les biens communs ne sont pas tous similaires, pas plus que les habillages institutionnels nécessaires pour transformer des ressources existantes en biens communs sécurisés. La remise du prix Nobel d’économie 2009 à la théoricienne des biens communs Elinor Ostrom a attiré l’attention du monde entier sur les questions discutées ici. L’approche théorique du juriste Yochai Benkler, avec le motif d’une « production par les pairs basée sur les communs » (commons-based peer production) qu’il met en avant, est elle aussi stimulante.

Il faut renforcer les biens communs, au-delà et de manière complémentaire au marché et à l’État. Chacun est appelé à assumer ses responsabilités en tant que copossesseur des « choses qui nous sont communes », afin d’en tirer davantage de liberté et de communauté. Les biens communs ont besoin d’hommes et de femmes, non seulement de marchés, d’aides gouvernementales ou de régulation étatique. La richesse qui se dispense à travers les biens communs doit être partagée de manière nouvelle et équitable dans toutes les sphères de notre vie.

Pour conclure : une vision

Nous avons besoin de changement, et nous connaissons la direction à emprunter. De nombreuses personnes sont déjà en chemin.

Ce rapport démontre que l’idée des biens communs peut faire nconverger différents mouvements. Voilà leur point fort.

Elle permet de rassembler en une stratégie commune la diversité des expériences pratiques et des projets, sans pour autant renoncer à la diversité des perspectives et des idéologies.

  1. Nous pouvons directement vouer notre énergie, nos institutions et nos talents aux biens communs et à ce qui constitue leur essence: la diversité de la vie.
  2. Nous pouvons nous demander systématiquement, à propos de tout projet, de toute idée ou de toute activité économique, s’il apporte plus aux communautés, à la société et à l’environnement qu’il ne leur retire.
  3. Nous pouvons reconnaître et soutenir matériellement en priorité les activités qui génèrent, entretiennent ou multiplient des biens à la libre disposition de tous.
  4. Nous pouvons faire en sorte que la participation collective et équitable aux dons de notre Terre ainsi qu’aux réalisations collectives du passé et du présent soit institutionnalisée et devienne la norme.
  5. Nous pouvons recourir à des processus décisionnels, des moyens de communication et des technologies transparents, participatifs et libres, ainsi que les améliorer.
  6. Nous pouvons inverser la tendance actuelle: en nous fixant des limites et en utilisant de manière durable les ressources naturelles, mais en étant prodigues en matière de circulation des idées. A insi nous bénéficierons au mieux des deux.
  7. Nous pouvons trouver des moyens intelligents de promouvoir la progression de tous, au lieu de nous concentrer exclusivement sur l’avancement individuel.

Lire le rapport « Biens Communs – La Prospérité par le Partage » dans son intégralité …

Notes

[1] Crédit photo : Ed Yourdon (Creative Commons By-Sa)