Tu ne partageras pas ta carte marine, nous raconte La Pérouse en 1787

Norman B. Leventhal Map Center at the BPL - CC byQuand on n’y connaît rien en informatique, il est difficile de s’émouvoir du discours passionné d’un utilisateur de logiciels libres détaillant avec emphase les quatre libertés garanties par leur licence.

Le libriste pédagogue aura donc souvent recours à des analogies pour éclairer son auditoire, la plus courue étant sûrement celle de la recette de cuisine. Dans ce billet nous nous proposons d’y ajouter l’exemple, ou plutôt le contre-exemple, des cartes marines[1].

Plongeons-nous, c’est le cas de le dire, plusieurs siècles en arrière pour retrouver un observateur sceptique face aux règles mises en place par les grandes compagnies maritimes de l’époque pour protéger la connaissance et en tirer profit face à la concurrence.

En effet, j’ai lu récemment et avec beaucoup de plaisir le « Voyage autour du monde sur l’Astrolabe et la Boussole » du grand navigateur Jean-François de La Pérouse qui mena une campagne d’exploration scientifique du Pacifique de 1785 à 1789.

Ce récit est empreint d’humanisme, d’intelligence et de générosité. Le voyage s’est déroulé sur un bateau en bois et à voiles, du temps où ordinateur, GPS et autres balise Argos n’existaient évidemment pas. Mais, d’un certain point de vue, ces marins avaient un savoir et un savoir-faire supérieurs aux nôtres car ils ne pouvaient avoir recours à ces outils en cas de problèmes.

Dans son journal, La Pérouse note que les capitaines hollandais partant de Batavia vers le Japon devaient prêter serment, à leur compagnie, de ne pas divulguer leurs cartes marines. Ces cartes qui compilaient l’ensemble des informations collectées par les voyageurs précédents, dans ces terres inconnues où le moindre récif pouvait amener le naufrage.

La Pérouse - Gallica - Domaine Public

Extrait du livre issu de Gallica, le service numérique en libre accès de la Bibliothèque Nationale de France.

Pour les compagnies, l’enjeu était de taille : elles vivaient du commerce des produits du Japon. Elles cherchaient à avoir une position exclusive, pour s’assurer des bénéfices maxima. Afin d’empêcher la concurrence, elles privaient les autres marins de leurs avancées cartographiques, et elles interdisaient d’éventuels rivaux par des contrats bilatéraux avec les dirigeants locaux.

Le serment des capitaines n’était pas sans conséquence. Un officier de marine convaincu d’avoir permis la consultation de ses cartes à un tiers aurait été dégradé, privé de commandement, banni de son pays.

Mais une autre conséquence c’est que chaque compagnie devait créer ses propres cartes et malheur à celle qui envoyait ses bateaux dans des zones non encore renseignées chez elle.

Le logiciel libre est issu de l’informatique mais aussi de tous ceux qui, avant lui, se sont battus pour la non appropriation des biens communs.

Notes

[1] Crédit photo : Norman B Leventhal Map center at the BPL (Creative Commons By)




Wikipédia ou quand prendre soin peut faire des miracles

Alice Popkorn - CC by-saComme tout miracle il était imprévu, mais en l’occurrence il a bien eu lieu.

C’est que nous rappelle ici Clay Shirky, considéré comme l’une des têtes pensantes du Web.

Parce que « si on pose un regard traditionnel sur le fonctionnement du monde, Wikipédia ne devrait même pas exister ».

Et pourtant cette encyclopédie tourne. Et elle tourne parce que suffisamment de gens se sentent concernés et veulent en prendre soin. C’est le double et joli sens du verbe « to care » (plus proche ici de Bernard Stiegler que de Martine Aubry !).

« Imaginez un mur sur lequel il serait plus facile d’effacer des graffitis que d’en rajouter. La quantité de graffitis dépendrait alors du degré de motivation de ses défenseurs. Il en va de même pour Wikipédia : Si tous ses fervents participants ne se sentaient plus concernés, tout le projet s’écroulerait en moins d’une semaine, envahie par les vandales et autres spammers. Si vous pouvez continuer à voir Wikipédia en ce moment même, cela veut dire qu’une fois de plus le bien a triomphé du mal. »[1]

Cet article vient clore en beauté notre petite série d’articles consacrés à Wikipédia à l’occasion de la célébration de son dixième anniversaire.

Wikipédia – un miracle imprévu

Wikipedia – an unplanned miracle

Clay Shirky – 14 janvier 2011 – The Guardian
(Traduction Framalang : DaphneK)

Depuis sa naissance il y a tout juste dix ans, Wikipédia s’améliore de jour en jour. C’est pourtant incroyable qu’il puisse même exister.

Wikipédia est l’outil de référence le plus utilisé au monde. Cette affirmation est à la fois ordinaire et stupéfiante : c’est le simple reflet du nombre considérable de ses lecteurs et pourtant, si on pose un regard traditionnel sur le fonctionnement du monde, Wikipédia ne devrait même pas exister. Et encore moins avoir atteint un succès aussi spectaculaire en à peine une dizaine d’années.

Grâce à l’effort cumulé des millions de contributeurs de Wikipédia, il suffit d’un clic pour savoir ce qu’est un infarctus du myocarde, connaître les causes de la guerre de la Bande d’Agacher, ou encore découvrir qui était Spangles Muldoon.

Il s’agit d’un miracle imprévu, comme lorsque « le marché » décide de la quantité de pain disponible en magasin. Wikipédia est cependant encore plus bizarre que le marché : Non seulement tout le contenu est rédigé gratuitement, mais il est aussi disponible gratuitement. Même les serveurs et systèmes d’administration sont financés par des dons. On aurait pourtant eu du mal à imaginer un tel miracle à ses débuts. C’est pourquoi, à l’occasion du dixième anniversaire du site, cela vaut la peine de revenir sur l’invraisemblable histoire de sa genèse.

Il y a dix ans jour pour jour, Jimmy Wales et Larry Sanger s’efforçaient en vain de créer Nupedia, une encyclopédie en ligne dotée d’un système de publication en sept étapes. Malheureusement, cela représentait aussi sept endroits où les choses pouvaient s’immobiliser. Et après presque un an de travail, pratiquement aucun article n’avait encore été publié.

Alors il y a dix ans et un jour, Wales et Sanger décidèrent d’opter pour un wiki, afin de raccourcir une partie du processus. Sanger a alors envoyé un mail aux collaborateurs de Nupedia en les informant de cette nouveauté : « Faites-moi plaisir. Allez-y et ajoutez un petit article. Cela prendra cinq ou dix minutes, grand maximum. »

Le « Faites-moi plaisir » était nécessaire car le wiki est le média social par excellence. Inventé au milieu des années 90 par Ward Cunningham, le wiki n’a qu’une fonction primordiale : produire immédiatement du contenu. Pas besoin de permission pour ajouter, modifier ou supprimer du texte, et une fois le travail terminé, pas besoin de permission non plus pour le publier.

Mais ce qui est plus intéressant, c’est qu’au centre du wiki se trouve une seule action sociale qui pourrait se résumer à : je me sens concerné (NdT : I care, que l’on aurait aussi pu traduire par « J’en prends soin »). Les gens qui rédigent des pages sont ceux qui se sentent assez concernés pour les rédiger. Confier le travail à ces gens plutôt qu’aux sacro-saints experts était quelque chose de tellement audacieux, que Wales et Sanger décidèrent de ne pas remplacer Nupedia par le wiki, ce dernier n’étant là que comme une sorte de brouillon pour Nupedia.

Les participants, cependant, ne l’entendaient pas ainsi. La possibilité de créer un article en cinq minutes et d’en améliorer un autre encore plus rapidement devint une pratique si communicative qu’en quelques jours à peine, il y eut plus d’articles sur le wiki nouveau-né que sur Nupedia. Le wiki fut tellement performant et si différent de Nupedia qu’il migra vite sur un site à part entière. Wikipédia était né (quelques mois plus tard, Nupedia ferma définitivement et Sanger abandonna le projet).

C’est ce processus qui se poursuit aujourd’hui, transformant Wikipédia en un miracle ordinaire pour plus de 250 millions de personnes par mois. Chaque jour de ces dix dernières années, Wikipédia s’est amélioré car quelqu’un – plusieurs millions de quelqu’un en tout – a décidé de l’améliorer.

Parfois il s’agit de commencer un nouvel article. La plus souvent il faut juste retoucher un texte déjà rédigé. Parfois il faut défendre Wikipédia contre le vandalisme. Mais il faut toujours se sentir concerné. La plupart des participants se sentent un peu concernés, ne rédigeant qu’un article. Une poignée se sent toutefois très concernée, produisant des centaines de milliers de lignes à travers des milliers d’articles au fil des années. Le plus important c’est que dans l’ensemble, nous avons tous produit assez pour faire de Wikipédia ce qu’il est aujourd’hui. Ce qui nous apparaît comme quelque chose de stable est en fait le résultat d’incessantes tentatives pour préserver ce qui est bon et améliorer ce qui ne l’est pas. Ainsi, Wikipédia ne se définit pas comme un objet, fut-il virtuel, soutenu par une organisation, mais comme une activité qui entraîne une encyclopédie dans son sillage.

Ce glissement de l’objet vers l’activité a entraîné une des plus incroyables expansions de révisions jamais vue : Le rédacteur en chef de Wikipédia est un quorum tournant composé d’individus particulièrement attentifs. Beaucoup de critiques de Wikipédia se sont concentrées sur le fait que le logiciel laisse n’importe qui écrire n’importe quoi. Ce qui leur échappe, c’est que les liens sociaux entre ces éditeurs motivés permet justement de contrôler cette fonctionnalité. Si le logiciel permet facilement de causer des dégâts, il permet tout aussi facilement de les réparer.

Imaginez un mur sur lequel il serait plus facile d’effacer des graffitis que d’en rajouter. La quantité de graffitis dépendrait alors du degré de motivation de ses défenseurs. Il en va de même pour Wikipédia : Si tous ses fervents participants ne se sentaient plus concernés, tout le projet s’écroulerait en moins d’une semaine, envahie par les vandales et autres spammers. Si vous pouvez continuer à voir Wikipédia en ce moment même, cela veut dire qu’une fois de plus le bien a triomphé du mal.

Bien sûr, Wikipédia n’est pas parfait. Beaucoup d’articles médiocres ont besoin d’être améliorés. L’âge, le sexe ou le groupe ethnique des rédacteurs ne sont pas assez variés et les biographies des personnes vivantes sont continuellement truffées d’erreurs. De plus, les protections mises en place contre les vandales et les spammers font bien souvent fuir les novices et épuisent les anciens. Mais Wikipédia n’est pas seulement une activité au niveau des articles. Partant de la production individuelle pour atteindre la culture de tous, Wikipédia est un bien commun créé par le public. C’est donc aux gens qui se sentent concernés d’essayer aussi de résoudre ces problèmes. Tant que cette culture continuera de considérer « soyez audacieux » comme valeur principale, le site demeurera l’un des actes collectifs de générosité les plus importants de l’Histoire.

Souhaitons donc un joyeux anniversaire à Wikipédia, accompagné de chaleureux remerciements aux millions de personnes qui ont ajouté, modifié, discuté, rectifié, ces gens qui ont créé l’outil de référence le plus utilisé au monde. Merci de nous raconter l’histoire des émeutes de Stonewall et comment Pluton a été reléguée au rang de « planète naine », merci de nous parler de la vallée du grand rift et du tsunami de l’Océan Indien, des rascasses volantes, des « Tiger teams » et du « Bear Market ».

Et avec nos meilleurs vœux pour ce dixième anniversaire, souhaitons d’être assez nombreux à nous sentir concernés pour permettre à Wikipédia de souffler ses vingt bougies en parfaite santé.

Notes

[1] Crédit photo : AlicePopkorn (Creative Commons By-Sa)




À quoi ça sert de s’activer sur Internet ? Doctorow répond à Morozov

Anonymous9000 - CC byCory Doctorow est souvent traduit sur ce blog car c’est l’une des rares personnalités qui pense l’Internet et agit en conséquence pour qu’il conserve ses promesses initiales d’ouverture et de partage.

Il a rédigé un long mais passionnant article dans The Guardian qui prend appui sur un lecture (très) critique du récent mais déjà fort commenté livre The Net Delusion: The Dark Side of Internet Freedom de Evgeny Morozov.

Chercheur biélorusse à l’université de Georgetown et chroniqueur dans plusieurs journaux, Morozov remet radicalement en question, dans son ouvrage, le pouvoir libérateur d’Internet.

On peut le voir exposer son point de vue dans cette courte conférence au format TED : Comment Internet aide les dictatures, qui constitue un excellent préambule à ce qui va suivre.

Morozov y dénonce la « cyberutopie » qui draperait la technologie de vertus émancipatrices intrinsèques, comme celle d’être nécessairement vecteur de démocratie pourvu que l’information circule sans entrave (source Rue89). Une « cyberutopie » issue de l’ignorance ou de la paresse intellectuelle de nos contemporains, qui se laissent aller au « web-centrisme » en imaginant que toutes les questions qui se posent dans nos sociétés peuvent être résolues par le prisme d’Internet (source Webdorado). Cliquer sur « J’aime » ou rejoindre une cause sur Facebook, relayer frénétiquement une information non vérifiée sur Twitter, n’ont jamais révolutionné la société,

On comprendra dès lors aisément que le « net-activiste » Cory Doctorow ait pris sa plume pour répondre dans le détail à l’argumentaire de Morozov.

Internet n’est certainement pas synonyme de libération. Mais ce réseau possède des caractéristiques particulières qui font qu’il ne ressemble à rien de ce que l’on a connu auparavant. Raison de plus pour se battre afin de conserver son principe de neutralité et faire en sorte qu’il échappe au contrôle des États et aux logiques mercantiles des entreprises privées.

Wikileaks et ses anonymous[1], hier la Tunisie, l’Égypte aujourd’hui… L’actualité récente n’est pas évoquée, mais il semblerait qu’elle penche plutôt du côté de Doctorow que de celui de Morozov.

Nous avons besoin d’une critique sérieuse de l’activisme sur le Net

We need a serious critique of net activism

Cory Doctorow – 25 janvier 2011 – The Guardian
(Traduction Framalang : Penguin, Barbidule, Gilles, Siltaar, e_Jim, Goofy et Don Rico)

« Net Delusion » (NdT : que l’on pourrait traduire par « Les mirages du Net » ou « Internet, la désillusion ») avance la thèse que la technologie ne profite pas nécessairement à la liberté, mais par quel autre moyen les opprimés se feront-ils entendre ?

Net Delusion est le premier livre de l’écrivain et blogueur d’origine biélorusse Evgeny Morozov, dont le thème de prédilection est la politique étrangère. Morozov s’est bâti une réputation de critique pointu, et parfois mordant, d’Internet et du « cyber-utopisme », et ” Net Delusion ” développe les arguments qu’il a déjà présentés ailleurs. J’ai lu avec intérêt l’exemplaire que j’ai reçu en service de presse. J’apprécie Evgeny, lors de nos rencontres et de nos échanges de courriers, il m’a donné l’impression d’être intelligent et engagé.

Au cœur du livre, on trouve des remarques extrêmement judicieuses. Morozov a tout à fait raison lorsqu’il souligne que la technologie n’est pas intrinsèquement bonne pour la liberté, qu’on peut l’utiliser pour entraver, surveiller et punir, aussi facilement que pour contourner, libérer et partager.

Hélas, ce message est noyé au milieu d’une série d’attaques confuses et faiblement argumentées contre un mouvement « cyber-utopique » nébuleux, dont les points de vue sont évoqués en termes très généraux, souvent sous la forme de citations de CNN et d’autres agences de presse censées résumer un hypothétique consensus cyber-utopique. Dans son zèle à discréditer cette thèse, Morozov utilise tous les arguments qu’il peut trouver, quelle que soit leur faiblesse ou leur inanité, contre quiconque fait mine de soutenir que la technologie est libératrice.

Le rôle de Twitter

Morozov tente d’abord de remettre les pendules à l’heure sur le rôle qu’a joué Twitter lors des dernières élections iraniennes. On a présenté partout le réseau de microblogage comme un outil fondamental pour les initiatives de l’opposition sur le terrain, mais par la suite, il est apparu clairement que les Iraniens d’Iran n’avaient été présents que marginalement sur Twitter, bien qu’ils aient utilisé beaucoup d’autres outils de diffusion et que ceux-ci aient été en effet essentiels dans la réaction à l’élection iranienne.

Morozov décrit minutieusement le fait que beaucoup des trois millions d’Iraniens expatriés sont en effet actifs sur Twitter, et que c’est ce trafic, ainsi que les messages de sympathie d’utilisateurs non-iraniens, qui ont fait de l’élection iranienne et de ses conséquences un évènement majeur sur Twitter.

Il décrit également les liens étroits que ces expatriés ont avec leur famille en Iran, grâce à d’autres outils tels que Facebook. Mais il manque d’en conclure que les informations issues de Twitter ont trouvé écho sur Facebook (et vice-versa) via les Iraniens de l’étranger. Il préfère considérer que les millions d’expatriés Iraniens publiant des messages sur Twitter sont tellement isolés de leur proches relations sur Facebook que ces messages n’ont eu presque aucun impact.

Presque aucun, mais un impact quand même. Morozov poursuit en citant Golnaz Esfandiari, une correspondante de Radio Free Europe en Iran, « déplorant la complicité pernicieuse de Twitter qui a permis aux rumeurs de se propager » en Iran pendant la crise. J’ai été choqué de lire cela dans l’ouvrage de Morozov : comment Twitter pourrait-il être « complice » de la propagation de rumeurs ; Esfandiari or Morozov attendaient-ils des fournisseurs de services sur Internet qu’ils censurent de façon pro-active les contributions des utilisateurs avant de les laisser se diffuser librement sur ur leurs réseaux ? Et si c’était le cas, Morozov pensait-il vraiment que Twitter deviendrait un meilleur soutien de la liberté sur Internet en s’auto-proclamant censeur ?

Cela m’a tellement stupéfait que j’ai envoyé un e-mail à Morozov pour lui demander ce que le lecteur était censé y comprendre au juste. Morozov m’a répondu que d’après lui Esfandiari ne s’était pas exprimée clairement ; elle voulait dire que c’étaient les utilisateurs de Twitter qui étaient « complices » de la propagation des rumeurs. C’est sans doute mieux, mais sans preuves que Twitter n’est fait que pour propager de fausses rumeurs, cela ne suffit pas pour inculper Twitter. Pourquoi alors ce passage figure-t-il dans le livre – sachant que Morozov n’a cessé d’affirmer dans les pages précédentes qu’aucune information postée sur Twitter n’avait atteint l’Iran – si ce n’est comme un pan de la stratégie qui consiste à discréditer les « cyber-utopistes » en balançant tous les arguments possibles en espérant que certains tiennent debout ? Et je pense que c’est le cas : par la suite, Morozov reproche à la « culture Internet » la « persistance de nombreuses légendes urbaines », une idée fort singulière puisque des chercheurs spécialisés en légendes urbaines, tels que Jan Brunvand, ont montré que de nombreuses légendes urbaines contemporaines proviennent du Moyen-Âge et ont prospéré sans avoir besoin d’Internet comme moyen de reproduction.

Technologie et révolution

Morozov est sceptique quant à la capacité de la technologie à déclencher des révolutions et étendre la démocratie. Pour renverser un régime corrompu, dit-il, avoir librement accès à l’information n’est ni nécessaire, ni même important – c’est une antienne des Reaganistes avec leur vision romantique de Samizdat, Radio Free Europe et autres efforts d’information remontant à la guerre froide. L’Union soviétique ne s’est pas effondrée à cause d’un mouvement politique, de courageux dissidents ou de tracts photocopiés – elle s’est écroulée parce qu’elle était devenue un cauchemar mal géré qui a chancelé de crise en crise jusqu’à l’implosion finale.

En effet, le libre accès aux médias étrangers (comme en bénéficiaient les citoyens de RDA qui pouvaient capter les programmes d’Allemagne de l’Ouest) a souvent contribué à désamorcer le sentiment anti-autoritaire, anesthésiant les Allemands de l’Est avec tant d’efficacité que même la Stasi avait fini par chanter les louanges de la décadente télévision occidentale.

L’ironie, c’est que Morozov – involontairement, mais avec vigueur – rejoint sur ce point ses adversaires idéologiques, comme Clay Shirky, le professeur de l’université de New York que Morozov critique lourdement par ailleurs. Les travaux de Shirky – notamment le dernier en date, The Cognitive Surplus – parviennent exactement aux mêmes conclusions au sujet des médias occidentaux traditionnels, et en particulier de la télévision. Shirky soutient que la télé a principalement servi à atténuer le poids de l’ennui né de l’accroissement du temps de loisirs aux premiers jours de l’ère de l’information. Pour Shirky, Internet est palpitant parce qu’il constitue justement l’antidote à cette attitude de spectateur passif, et qu’il constitue un mécanisme incitant les gens à la participation au travers d’une succession d’engagements toujours plus importants.

Régulation et contrôle

Morozov ne discute cependant pas cette position en profondeur. En fait, quand il examine enfin Internet en tant que tel, indépendamment des réseaux téléphoniques, des programmes télé et des autres médias, il se contente de tourner en ridicule les « gourous de la technologie », qui « révèlent leur méconnaissance de l’histoire » lorsqu’ils se lancent dans des « tirades quasi-religieuses à propos de la puissance d’internet ». Il illustre cette caricature par un florilège de citations stupides, soigneusement choisies parmi deux décennies de discours sur Internet, mais il laisse soigneusement de côté tout le travail sérieux sur l’histoire du Net en tant que média pleinement original – et notamment, il oublie de mentionner ou de réfuter la critique posée par Timothy Wu dans l’excellent livre The Master Switch, paru l’an dernier.

Wu, professeur de droit des télécommunications, retrace avec mordant l’histoire de la régulation des médias en réponse à la possible décentralisation des monopoles et oligopoles dans les télécommunications. Replacé dans ce contexte, Internet apparaît véritablement comme un phénomène original. Morozov sait bien sûr qu’Internet est différent, il le reconnaît lui-même lorsqu’il parle de la manière dont le Net peut imiter et supplanter d’autres médias, et des problèmes que cela engendre.

C’est là que réside la plus sérieuse faiblesse de Net Delusion : dans ce refus de se confronter aux meilleurs textes sur le thème d’Internet et de sa capacité extraordinaire à connecter et émanciper. Quand Morozov parle des menaces pour la sécurité des dissidents lorsqu’ils utilisent Facebook – ce qui revient à faire de jolies listes de dissidents prêtes à être utilisées par les polices secrètes des États oppresseurs – il le fait sans jamais mentionner le fait que, de longue date, des avertissements pressants sur ce sujet ont été lancés par l’avant-garde des « cyber-utopistes », incarnée par des groupes comme l’Electronic Frontier Foundation, NetzPolitik, Knowledge Ecology International, Bits of Freedom, Public Knowledge, et des dizaines d’autres groupes de pression, d’organisations d’activistes et de projets techniques dans le monde entier.

Bien évidemment, presqu’aucune mention n’est faite des principaux défenseurs de la liberté du Net, tel que le vénérable mouvement des cypherpunks, qui ont passé des décennies à concevoir, diffuser et soutenir l’utilisation d’outils cryptographiques spécialement conçus pour échapper au genre de surveillance et d’analyse du réseau qu’il identifie (à juste titre) comme étant implicite dans l’utilisation de Facebook, Google, et autres outils privés et centralisés, pour organiser des mouvements politiques. Bien que Morozov identifie correctement les risques que les dissidents prennent pour leur sécurité en utilisant Internet, son analyse technique présente des failles sérieuses. Lorsqu’il avance, par exemple, qu’aucune technologie n’est neutre, Morozov néglige une des caractéristiques essentielles des systèmes cryptographiques : il est infiniment plus facile de brouiller un message que de casser le brouillage et de retrouver le message original sans avoir la clé.

Battre la police secrète à son propre jeu

En pratique, cela signifie que des individus disposant de peu de ressources et des groupes dotés de vieux ordinateurs bon marché sont capables de tellement bien chiffrer leurs messages que toutes les polices secrètes du monde, même si elles utilisaient tous les ordinateurs jamais fabriqués au sein d’un gigantesque projet s’étalant sur plusieurs décennies, ne pourraient jamais déchiffrer le message intercepté. De ce point de vue au moins, le jeu est faussé en faveur des dissidents – qui jouissent pour la première fois du pouvoir de cacher leur communication hors d’atteinte de la police secrète – au détriment de l’État, qui a toujours joui du pouvoir de garder ses secrets ignorés du peuple.

La façon dont Morozov traite de la sécurité souffre d’autres défauts. C’est une évidence pour tous les cryptologues que n’importe qui peut concevoir un système si sécurisé que lui-même ne peut pas trouver de moyen de le casser (ceci est parfois appelé la « Loi de Schneier », d’après le cryptologue Bruce Schneier). C’est la raison pour laquelle les systèmes de sécurité qui touchent à des informations critiques nécessitent toujours une publication très large et un examen des systèmes de sécurité par les pairs. Cette approche est largement acceptée comme la plus sûre, et la plus efficace, pour identifier et corriger les défauts des technologies de sécurité.

Pourtant, lorsque Morozov nous relate l’histoire de Haystack, un outil de communication à la mode censé être sécurisé, soutenu par le ministère américain des Affaires étrangères, et qui s’est révélé par la suite totalement non-sécurisé, il prend pour argent comptant les déclarations du créateur de Haystack affirmant que son outil devait rester secret car il ne voulait pas que les autorités iraniennes fassent de la rétro-ingénierie sur son fonctionnement (les vrais outils de sécurité fonctionnent même lorsqu’ils ont fait l’objet d’une rétro-ingénierie).


Au lieu de cela, Morozov concentre ses critiques sur l’approche « publier tôt, publier souvent » (NdT : Release early, release often) des logiciels libres et open source, et se moque de l’aphorisme « avec suffisamment de paires d’yeux, les bugs disparaissent » (NdT appelé aussi Loi de Linus). Pourtant, si cela avait été appliqué à Haystack, cela aurait permis de révéler ses défauts bien avant qu’il n’arrive entre les mains des activistes iraniens. En l’occurrence, Morozov se trompe complètement : si l’on veut développer des outils sécurisés pour permettre à des dissidents de communiquer sous le nez de régimes oppressifs, il faut largement rendre public le fonctionnement de ces outils, et les mettre à jour régulièrement au fur et à mesure que des pairs découvrent de nouvelles vulnérabilités.

Morozov aurait bien fait de se familiariser avec la littérature et les arguments des technologues qui s’intéressent à ces questions et y ont réfléchi (les rares fois où il leur accorde son attention c’est pour se moquer des fondateurs de l’EFF : Mitch Kapor pour avoir comparé Internet à un discours de Jefferson, et John Perry Barlow pour avoir écrit une Déclaration d’indépendance du cyberespace). Certains des experts les plus intelligemment paranoïaques au monde ont passé plus de vingt ans à imaginer les pires scénarios catastrophes technologiquement plausibles, tous plus effrayants que les spéculations de Morozv – comme son hypothèse farfelue selon laquelle la police secrète pourrait un jour prochain avoir la technologie pour isoler des voix individuelles dans un enregistrement de milliers de manifestants scandant des slogans, pour les confronter à une base de données d’identités.

Surveiller les surveillants

Le tableau que dépeint Morozov de la sécurité des informations est trompeusement statique. Notant que le web a permis un degré de surveillance alarmant par des acteurs commerciaux tels les réseaux de publicité, Morozov en tire la conclusion que cette sorte de traçage sera adoptée par les gouvernements adeptes de censure et d’espionnage. Mais les internautes sensibles à la menace des publicitaires peuvent sans difficulté limiter cet espionnage à l’aide de bloqueurs de pub ou de solutions équivalentes. Il est déplorable qu’assez peu de personnes tirent avantage de ces contre-mesures, mais de là à supposer que les dissidents sous des régimes répressifs auront la même confiance naïve dans leur gouvernement que le client moyen envers les cookies de traçage de Google, il y a un pas énorme à franchir. Dans l’analyse de Morozov, votre vulnérabilité sur le web reste la même, que vous ayez un a priori bienveillant ou hostile à l’égard du site que vous visitez ou du mouchard qui vous préoccupe.

Morozov est également prêt à faire preuve d’une improbable crédulité lorsque cela apporte de l’eau à son moulin – par exemple, il s’inquiète du fait que le gouvernement chinois ait imposé d’installer un programme de censure obligatoire, appelé « barrage vert », sur tous les PC, même si cette manœuvre a été tournée en ridicule par les experts en sécurité du monde entier, qui ont prédit, à raison, que cela serait un échec lamentable (si un programme de censure n’est pas capable d’empêcher votre enfant de 12 ans de regarder du porno, il n’empêchera pas des internautes chinois éduqués de trouver des informations sur Falun Gong). Dans le même temps, Morozov oublie complètement d’évoquer les projets de l’industrie du divertissement consistant à exploiter l’« informatique de confiance » dans le but de contrôler l’utilisation de votre PC et de votre connexion à Internet, ce qui constitue une menace plus crédible et plus insidieuse pour la liberté du Net.

Morozov n’est pas le seul à avoir cette vision erronée de la sécurité sur Internet. Comme il le fait remarquer, l’appareil diplomatique occidental regorge d’imbéciles heureux prenant leurs désirs pour la réalité en matière de technologie. L’experte de la Chine Rebecca MacKinnon, que l’auteur cite tout au long de Net Delusion, raille l’obstination aveugle des ingénieurs et des diplomates à percer les pare-feux de la censure (comme la « grande e-muraille de Chine »), alors même qu’ils négligent d’autres risques beaucoup plus importants et pernicieux que le politburo de Pékin fait peser sur la liberté. Si Net Delusion a pour but d’amener le corps diplomatique à écouter d’autres groupes d’experts, ou d’inciter la presse généraliste à mieux rendre compte des possibilités de la technologie, je suppose que c’est admirable. Mais je crois que Morozov espère toucher des personnes au-delà de la Maison Blanche, Bruxelles, ou Washington ; j’ai l’impression qu’il espère que le monde entier va cesser d’attendre de la technologie qu’elle soit une force libératrice, pour plutôt faire confiance à… à quoi donc ?

Je n’en suis pas sûr. Morozov voudrait semble-t-il voir le chaos des mouvements populaires remplacé par une espèce d’activisme bien ordonné et impulsé depuis le sommet, mené par des intellectuels dont les réflexions ne peuvent pas s’exprimer de manière concise dans des tweets de 140 caractères. Morozov se voit-il lui-même comme l’un de ces intellectuels ? Voilà un point qui n’est jamais exprimé clairement.

Il est important de se poser la question de la place des discours sérieux à l’ère d’Internet, et Morozov essaie ici d’étayer ses arguments techniques avec des arguments idéologiques. De son point de vue, Internet n’est que le dernier avatar d’une série de technologies de communication qui ne propagent que futilités, rumeurs et inepties, évinçant ainsi les pensées et les réflexions sérieuses. Il n’est pas le premier à remarquer que des médias qui livrent des informations à un rythme effréné conduisent à réfléchir de manière rapide et papillonnante ; Morozov cite le livre de Neil Postman publié en 1985, « Amusing Ourselves to Death » (NdT : « Se distraire à en mourir »), mais il aurait tout aussi bien pu citer Walden ou la vie dans les bois, de Henry David Thoreau : « Nous sommes prêts à creuser un tunnel sous l’Atlantique pour rapprocher de quelques semaines l’Ancien monde du Nouveau ; mais la première nouvelle qui passera jusqu’aux oreilles américaines sera sans doute que la princesse Adélaïde a la coqueluche. »

« Internet nous rendra stupide »

En d’autres termes, les intellectuels se sont de tout temps lamentés sur la futilisation inhérente aux médias de masse – je ne vois pas de grande différence entre les arguments de l’Église contre Martin Luther (permettre aux laïcs de lire la Bible va futiliser la théologie) et ceux de Thoreau, Postman et Morozov qui prétendent qu’Internet nous rend stupides car il nous expose à trop de « LOLCats ».

Mais comme le fait remarquer Clay Shirky, il existe une différence fondamentale entre entendre parler de la santé de la princesse Adélaïde grâce au télégraphe ou suivre les rebondissements de Dallas à la télévision, et faire des « LOLCats » sur le Net : créer un « LOLCat » et le diffuser dans le monde entier est à la portée de tous. Autrement dit, Internet offre la possibilité de participer, d’une manière que les autres médias n’avaient même jamais effleurés : quiconque a écrit un manifeste ou une enquête peut les mettre largement à disposition. Dans un monde où chacun est en mesure de publier, il devient plus difficile, c’est vrai, de savoir à quoi il faut prêter attention, mais affirmer que la liberté serait mieux servie en imposant le silence à 90% de la population afin que les intellectuels aient le champ libre pour éduquer les masses est complètement stupide.

Pourtant, Morozov présente comme un inconvénient la facilité à publier en ligne. D’abord parce que d’après lui les futilités finissent par submerger les sujets sérieux, ensuite parce que des cinglés nationalistes anti-démocratie peuvent utiliser le Net pour attiser la haine et l’intolérance, et enfin parce que les difficultés que l’on rencontrait autrefois pour s’organiser politiquement constituaient un moyen en soi de forger son engagement, les risques et les privations associés à la dissidence renforçant la résolution des opposants.

Il est vrai qu’Internet a mis à portée de clic plus de futilités que jamais auparavant, mais c’est seulement parce qu’il a mis à portée de clic davantage de tout. Il n’a jamais été aussi simple qu’aujourd’hui de publier, lire et participer à des discussions sérieuses et argumentées. Et même s’il existe une centaine (ou un millier) de Twitteurs futiles pour chaque blog sérieux et pertinent, du genre de Crooked Timber, il existe davantage de points d’entrée pour des discussions sérieuses – que ce soit sur des blogs, des forums, des services de vidéo, ou même sur Twitter – qu’il n’y en a jamais eu auparavant dans toute l’histoire de l’humanité.

Il est tentant d’observer toute cette diversité et d’y voir une caisse de résonance dans laquelle les personnes ayant les mêmes points de vue étriqués se rassemblent et sont toutes d’accord entre elles, mais un coup d’œil rapide sur les débats enflammés qui sont la marque de fabrique du style rhétorique d’Internet suffit pour nous en dissuader. En outre, si nous étions tous enfermés dans une caisse de résonance se limitant à une mince tranche de la vie publique, comment se fait-il que toutes ces futilités – vidéos marrantes de Youtube, coupures de presse people fascinantes et liens vers l’étrange et le saugrenu – continuent à parvenir jusqu’à nos écrans ? (Morozov essaie ici d’avoir le beurre et l’argent du beurre, en nous prévenant que nous sommes à la fois en danger de nous noyer dans des futilités, et que l’effet de caisse de résonance va tuer la sérendipité).

Je suis moins inquiet que Morozov sur le fait que le Net fournisse un refuge aux fous littéraires à tendance paranoïaque, aux racistes hyper-nationalistes et aux hordes de tarés violents. Les gens qui croient en la liberté d’expression ne doivent pas s’affliger du fait que d’autres utilisent cette liberté pour tenir des propos mauvais, méchants ou stupides ; comme le dit le mantra de la libre expression : « La réponse à de mauvaises paroles est davantage de paroles ».

Pour la liberté

Sur ce point également Internet n’est pas neutre, et penche plutôt en faveur des défenseurs de la liberté. Les gouvernements puissants ont toujours eu la possibilité de contrôler la parole publique par le biais de la censure, des médias officiels, de la tromperie, des agents provocateurs et de bien d’autres moyens visibles ou invisibles. Mais ce qui est original, c’est que les oligarques russes utilisant Internet pour faire de la propagande sont désormais obligés de le faire en utilisant un média que leurs opposants idéologiques peuvent également exploiter. A l’époque soviétique, les dissidents se limitaient d’eux-mêmes à des chuchottements et des samizdat copiés à la main ; de nos jours, leurs héritiers peuvent lutter à armes égales avec les propagandistes de l’Etat sur le même Internet, un lien plus loin. Bien sûr, c’est risqué, mais le risque n’est pas nouveau (et la création et l’amélioration d’outils permettant l’anonymat, ouverts et validés par des pairs, ouvre de nouvelles perspectives en terme de limitation des risques) ; ce qui est nouveau c’est le remplacement de canaux de propagande unidirectionnels, comme la télévision (qu’elle diffuse des contenus de l’Est ou de l’Ouest) par un nouveau média qui permet de placer n’importe quel message à côté de n’importe quel autre grâce à des concepts puissants comme les hyperliens.

Je partage avec Morozov l’ironie de la situation lorsque les radicaux islamistes utilisent Internet pour honnir la liberté, mais alors que Morozov trouve ironique que les outils de la liberté puissent être utilisés pour embrasser la censure, je trouve ironique que pour se faire entendre, des apprentis-censeurs s’appuient sur le caractère universellement accessible d’un des médias les plus difficiles à censurer jamais conçus.

Sur le fait que la privation est fondamentale pour renforcer l’engagement des activistes, je suis confiant dans le fait que pour chaque tâche automatisée par Internet, de nouvelles tâches, difficiles à simplifier, vont apparaître et prendre leur place. En tant qu’activiste politique durant toute ma vie, je me souviens des milliers d’heures de travail que nous avions l’habitude de consacrer à l’affichage sauvage, au remplissage d’enveloppes ou aux chaînes téléphoniques simplement dans le but de mobiliser les gens pour une manifestation, une pétition ou une réunion publique (Morozov minimise la difficulté de tout cela, lorsqu’il suppose, par exemple, que les Iraniens apprendraient par le bouche à oreille qu’une manifestation va avoir lieu, quels que soient les outils disponibles, ce qui m’amène à croire qu’il n’a jamais essayé d’organiser une manifestation à l’époque où Internet n’existait pas). Je suis convaincu que si nous avions eu la possibilité d’informer des milliers de gens d’un simple clic de souris, nous ne serions pas ensuite rentrés tranquillement chez nous ; ce travail besogneux engloutissait la majeure partie de notre temps et de notre capacité à imaginer de nouvelles façons de changer les choses.

En outre, Morozov ne peut pas gagner sur les deux tableaux : d’un côté, il tire le signal d’alarme à propos des groupes extrémistes et nationalistes qui sont constitués et motivés par le biais d’Internet en vue de réaliser leurs opérations terrifiantes ; et quelques pages plus loin, il nous dit qu’Internet facilite tellement les choses que plus personne ne sera suffisamment motivé pour sortir de chez lui pour faire quoi que ce soit de concret.

Morozov observe les centaines de milliers voire les millions de personnes qui sont motivées pour faire quelques minuscules pas pour le soutien d’une cause, comme par exemple changer son avatar sur Twitter ou signer une pétition en ligne, et il en conclut que la facilité de participer de façon minime a dilué leur énergie d’activiste. J’observe le même phénomène, je le compare au monde de l’activisme tel que je l’ai connu avant Internet, dans lequel les gens que l’on pouvait convaincre de participer à des causes politiques se chiffraient plutôt en centaines ou en milliers, et je constate que tous les vétérans de l’activisme que je connais ont commencé en effectuant un geste simple, de peu d’envergure, puis ont progressivement évolué vers un engagement toujours plus fort et plus profond ; j’en arrive donc à la conclusion que le Net aide des millions de personnes à se rendre compte qu’ils peuvent faire quelque chose pour les causes qui leur tiennent à cœur, et qu’une partie de ces personnes va continuer et en faire toujours plus, petit à petit.

Le pouvoir libérateur de la technologie

La plus étrange des thèses soutenues dans Net Delusion est que la confiance que place l’Occident dans le pouvoir libérateur de la technologie a mis la puce à l’oreille des dictateurs – qui n’étaient auparavant pas intéressés par le contrôle du Net – et a rendu Internet plus difficilement utilisable dans un but de propagation de la liberté. Morozov cite en exemple la réponse des autorités Iraniennes aux affirmations outrancières qu’a tenu le Département d’État américain sur le rôle qu’aurait joué Twitter dans les manifestations post-électorales. Selon Morozov, les hommes politiques au pouvoir en Iran étaient en grande partie indifférents au Net, jusqu’à ce que les Américains leur annoncent que celui-ci allait causer leur perte, suite à quoi ils prirent sur eux de transformer Internet en un outil d’espionnage et de propagande à l’encontre de leurs citoyens.

Morozov fait ensuite état de divers dirigeants, comme Hugo Chávez, qui ont utilisé la rhétorique des USA pour appuyer leurs propres projets concernant Internet.

Il accuse également Andrew Mc Laughlin, conseiller technique adjoint du gouvernement des États-Unis, d’avoir fourni des munitions aux dictateurs du monde entier en déclarant publiquement que les compagnies de télécommunications américaines censurent en secret leurs réseaux, car cela a permis aux dictateurs de justifier leurs propres politiques.

C’est peut-être le passage le plus bizarre de Net Delusion, car il revient à dénoncer le fait qu’un homme politique américain combatte la censure sur le territoire national, au prétexte que les dictateurs étrangers seront réconfortés d’apprendre qu’ils ne sont pas les seuls à pratiquer la censure. Il me semble peu vraisemblable que Morozov veuille véritablement que les hommes politiques occidentaux ferment les yeux sur la censure opérée dans leurs pays de peur que l’écho des imperfections de l’Occident ne parvienne à des oreilles hostiles.

Dans la foulée, Morozov nous prévient que les dictateurs ne sont ni des imbéciles ni des fous, mais plutôt des politiciens extrêmement retors, et techniquement très éclairés. Je pense qu’il a raison : la caricature occidentale dépeignant les dictatures comme des idiocraties criminelles vacillantes ne coïncide tout simplement pas avec les réalisations techniques et sociales de ces États – et c’est justement pourquoi je pense qu’il a tort sur les relations entre les dictatures et Internet. Le pouvoir découle directement de mécanismes de communication et d’organisation, et Internet est là depuis suffisamment longtemps pour que tout autocrate accompli en ait pris note. L’idée que l’élite gouvernante de l’Iran n’ait pris conscience du pouvoir d’Internet que lorsque le ministère des affaires étrangères des États-Unis ont publiquement demandé à Twitter de modifier son planning de maintenance (afin de ne pas interférer avec les tweets liés aux élections en Iran) me paraît aussi ridicule que la surestimation, par ce même ministère des affaires étrangères, de l’influence que peut avoir Twitter sur la politique étrangère. Les activistes qui ont fait attention à la manière dont les États autoritaires interfèrent dans l’utilisation d’Internet par leurs citoyens, savent que la méfiance – et la convoitise – à l’égard du pouvoir d’Internet s’est développée dans les dictatures du monde entier depuis le moment où l’opinion publique s’est intéressée à Internet.

Le véritable problème dans la présentation que Morozov fait des « net-utopistes » est qu’ils n’ont rien en commun avec le mouvement que je connais intimement et dont je fais partie depuis une décennie. Là où Morozov décrit des personnes qui voient Internet comme une « force uni-directionnelle et déterministe allant soit vers une émancipation globale, soit vers une oppression globale » ou « qui refusent de reconnaître que le Web peut tout autant renforcer les régimes autoritaires que les affaiblir », je ne vois que des arguments spécieux, des caricatures inspirées des gros titres de CNN, des extraits sonores de porte-paroles de l’administration américaine, et des réparties de conférence de presse.

Tous ceux que je connais dans ce mouvement – des donateurs aux concepteurs d’outils, en passant par les traducteurs, des activistes de choc aux mordus de l’ONU – savent qu’Internet représente un risque tout autant qu’une opportunité. Mais contrairement à Morozov, ces personnes ont un plan pour minimiser les risques émanant de l’utilisation d’Internet (ceci explique pourquoi il y a tant de campagnes autour de la vie privée et des problèmes de censure provenant des logiciels propriétaires, des services de réseaux sociaux et des systèmes centralisés de collecte de données comme Google) et pour maximiser son efficacité en tant qu’outil d’émancipation. Ce plan implique le développement de logiciels libres et la diffusion de pratiques qui garantissent un meilleur anonymat, des communications plus sécurisées, et même des outils abstraits comme des protocoles réseau à divulgation nulle de connaissance qui permettent une large propagation des informations à travers de vastes groupes de personnes sans révéler leurs identités.

Morozov a raison d’affirmer que les hommes politiques occidentaux ont une vue simpliste du lien entre Internet et la politique étrangère, mais ce n’est pas simplement un problème de politique étrangère, ces mêmes hommes politiques ont incroyablement échoué à percevoir les conséquences d’Internet sur le droit d’auteur, la liberté d’expression, l’éducation, l’emploi et tous les autres sujets d’importance. Morozov a raison de dire que les métaphores dignes de la Guerre Froide comme « Grande muraille électronique » occultent autant qu’elles dévoilent (Net Delusion vaut son prix ne serait-ce que pour sa brillante démonstration que les dictatures utilisent autant les « champs » que les « murs » dans leurs stratégies Internet, et que ceux-ci demandent à être « irrigués » plutôt que « renforcés » ou « démolis »).

Mais dans son zèle à éveiller les décideurs politiques aux nuances et aux aspects non-techniques de la politique étrangère, il est approximatif et paresseux. Il affirme que ce qui différencie Internet d’un fax de l’époque des samizdat, c’est qu’Internet est utile tout autant aux oppresseurs qu’aux opprimés – mais je n’ai jamais rencontré de bureaucrate qui n’aimait pas son fax.

Et bien que Morozov tienne à nous montrer que « ce ne sont pas les tweets qui font tomber les gouvernements, c’est le peuple », il déclare ensuite allègrement que le bloc soviétique s’est désagrégé de lui-même, et pas à cause du peuple, qui n’a eu aucun rôle dans cet inévitable coup de balai de l’Histoire. Morozov croit peut-être que c’est exact dans le cas de l’URSS, mais étant donné qu’une large part du reste du livre est consacrée à la situation difficile des dissidents sur le terrain, je pense que l’on peut affirmer que même Morozov serait d’accord avec lui-même pour dire que, parfois, le peuple joue un rôle dans le renversement des régimes autoritaires.

Pour parvenir à ce but, les dissidents ont besoin de systèmes pour communiquer et s’organiser. Toute entreprise humaine qui nécessite le travail de plusieurs personnes doit consacrer une certaine partie de ses ressources au problème de la coordination : Internet a simplifié grandement ce problème (rappelez-vous les heures consacrées par les activistes au simple envoi de cartes postales contenant les informations au sujet d’une prochaine manifestation). En cela, Internet a donné un avantage substantiel aux dissidents et aux outsiders (qui ont, par définition, moins de ressources de départ) par rapport aux personnes détenant le pouvoir (qui, par définition, ont amassé suffisamment de ressources pour en engloutir une partie dans la coordination et en conserver encore suffisamment pour gouverner).

Internet permet à d’avantage de personnes de s’exprimer et de participer, ce qui signifie inévitablement que les mouvements de protestation vont avoir un ensemble d’objectifs plus diffus qu’à l’époque des révolutions autoritaires orchestrées par le haut. Mais Morozov idéalise le consensus des révolutions passées – que ce soit en 1776, 1914 ou 1989, chaque révolution réussie est une fragile coalition d’intérêts et de points de vue antagonistes, rassemblés par le désir commun d’abolir l’ancien système, même s’il n’y a pas de consensus sur ce qui doit le remplacer.

Désormais, Internet est devenu tellement intégré au fonctionnement des États du monde entier qu’il semble difficile d’accorder crédit à la crainte de Morozov selon laquelle, en cas de menace révolutionnaire sérieuse, les gouvernements débrancheraient simplement la prise. Comme Morozov lui-même le fait remarquer, la junte brutale de Birmanie a laissé fonctionner Internet en permanence pendant les violentes répressions des émeutes politiques, en dépit de la désapprobation mondiale qu’elle a subie du fait des compte-rendus diffusés sur Internet; la Chine dépend tellement du Net pour son fonctionnement interne qu’il est impossible d’envisager une coupure du Net à l’échelle nationale (et les coupures régionales, comme celle de la province du Xinjiang pendant les émeutes des Ouïghours, sont justement remarquables par leur caractère exceptionnel).

Le monde a besoin de plus de personnes œuvrant à l’amélioration du sort des activistes qui utilisent Internet (c’est-à-dire de tous les activistes). Nous avons besoin d’un débat sérieux au sujet des tactiques comme les DDoS (distributed denial-of-service attack ou attaques distribuées par déni de service) – qui inondent les ordinateurs avec de fausses requêtes pour les rendre inaccessibles – que certains ont comparés à des sit-in. En tant que personne arrêtée lors de sit-ins, je pense que cette comparaison est fausse. Un sit-in ne tire pas uniquement son efficacité du blocage des portes de tel endroit blâmable, mais de la volonté affichée de se tenir devant ses voisins et d’assumer le risque d’une arrestation ou de blessures au bénéfice d’une cause juste, ce qui confère une légitimité éthique à la démarche et facilite l’adhésion. En tant que tactique, les DDoS s’apparentent plus à de la super glu dans les serrures d’une entreprise ou au sabotage des lignes de téléphone – risqué, c’est certain, mais plus proche du vandalisme et donc moins susceptible de rallier vos voisins à votre cause.

Nous devons réparer l’Internet mobile, qui – reposant sur des réseaux et des appareils fermés – est plus propice à la surveillance et au contrôle que l’Internet filaire. Nous devons nous battre contre les manœuvres– menées par les entreprises du divertissement et les géants de l’informatique comme Apple et Microsoft – consistant à concevoir des machines dont le fonctionnement est secret et échappe au consentement de leur propriétaire, au prétexte de protéger le copyright.

Nous devons prêter attention à Jonathan Zittrain (un autre universitaire que Morozov tout à la fois rejette puis rejoint sans même s’en rendre compte), dont « Le Futur d’Internet » met en garde sur le fait que l’augmentation des crimes, escroqueries et autres fraudes sur le Net fatigue l’utilisateur et rend les gens plus enclins à accepter d’utiliser des appareils et des réseaux verrouillés, pouvant être utilisés aussi bien pour les contrôler que pour les protéger.

Nous avons besoin de tout cela, et surtout d’une critique sérieuse et d’une feuille de route pour l’avenir de l’activisme sur le Net, car les régimes répressifs du monde entier (y compris les soit-disant gouvernements libres de notre Occident) usent pleinement des nouvelles technologies à leur avantage, et le seul moyen pour l’activisme d’être efficace dans cet environnement est d’utiliser les mêmes outils.

Notes

[1] Crédit photo : Anonymous9000 (Creative Commons By)




Produire du logiciel libre, le livre culte enfin en français chez Framabook !

Produire du logiciel libre - Framabook - CouvertureFramasoft est fier et heureux d’annoncer officiellement la sortie d’un nouveau volume à sa collection de livres libres Framabook. Il s’agit de la traduction d’un livre considéré comme une référence chez les développeurs anglophones : Producing Open Source Software, de Karl Fogel.

C’est une évidence, maintes fois constatées : il ne suffit pas de coller une licence libre au code source de son application pour en faire un logiciel libre à succès. Nombreux sont les paramètres à prendre en compte pour se donner les moyens de véritablement réussir votre projet. Cela ne coule pas de source, si j’ose dire, et c’est pourquoi un tel ouvrage peut rendre de grands services.

Ayant payé de sa personne, Karl Fogel n’hésite pas à affirmer lui-même que 95% des projets échouent. Et de rédiger alors ce livre pour contribuer à faire en sortie que le pourcentage restant remonte !

Dans la foulée du framabook sur Unix et sur le langage C, nous faisons un effort didactique tout particulier pour accompagner tous ceux qui souhaiteraient se lancer dans la création de logiciels libres ou rejoindre un projet existant. Nous pensons à ceux qui ne maîtrisent pas forcément d’emblée l’anglais.

Nous pensons également aux jeunes débutants. Parce que, comme cela a déjà été souligné, l’informatique est l’une des grandes absentes de l’enseignement secondaire français. Alors, fille ou garçon, l’étudiant motivé se retrouve bien souvent livré à lui-même et c’est à lui de se débrouiller pour extraire le bon grain de l’ivraie du Grand Internet. Nous espérons lui être utile en lui apportant notamment ici gain de temps et efficacité.

Voici comment le livre est présenté dans le communiqué de presse joint à ce billet :

« Teinté d’humour et de réflexions subtiles, ce livre prodigue de précieux conseils à ceux qui souhaitent commencer ou poursuivre un projet de développement en logiciel libre. Pour cela, Karl Fogel propose une description claire et détaillée des bonnes pratiques de développement. Il initie non seulement le lecteur à la méthode de travail collaboratif mais démontre aussi l’importance des relations humaines dans la réussite d’un projet, comme l’art d’équilibrer actions individuelles et intérêt commun. Identifiés à travers sa longue expérience en gestion de projet open source, différents aspects sont abordés : structurer l’ensemble de la communauté de développeurs, maintenir un système de gestion de versions, gérer les rapports de bugs et leurs corrections, bien communiquer à l’intérieur comme à l’extérieur du projet, choisir une licence adaptée au logiciel… »

Grâce à son expérience du développement open source, Karl Fogel nous livre ici bien davantage qu’une simple marche à suivre pour qu’un projet voit le jour et ait une chance d’aboutir. Il s’agit en effet de détailler les éléments stratégiques les plus importants comme la bonne pratique du courrier électronique et le choix du gestionnaire de versions, mais aussi la manière de rendre cohérents et harmonieux les rapports humains tout en ménageant les susceptibilités… En somme, dans le développement Open Source peut-être plus qu’ailleurs, et parce qu’il s’agit de trouver un bon équilibre entre coopération et collaboration, les qualités humaines sont aussi décisives que les compétences techniques. »

La traduction de cet ouvrage a obéi aux mêmes principes que ceux exposés par Karl Fogel. Elle fut le résultat de la convergence entre les travaux initiés par Bertrand Florat et Étienne Savard et ceux de Framasoft coordonnés par Christophe Masutti. Comme d’habitude, ce livre a été finalisé dans La Poule ou l’Œuf et peut se commander en version papier chez InLibroVeritas pour la modique somme de 15 euros.

Comme d’habitude aussi ce livre est sous licence libre (Creative Commons By) et est intégralement consultable en ligne ou téléchargeable dans sa version numérique sur le site Framabook. Parce qu’ici comme ailleurs, et peut-être même plus qu’ailleurs, il nous apparaît fondamental de pouvoir en assurer sa plus large diffusion et participer ainsi à susciter des vocations.

Nous comptons sur vous pour signaler l’information 😉

Framasoft ne serait rien sans les développeurs de logiciels libres. Ce projet est en quelque sorte une manière pour nous de les remercier.




Quand Wikpédia rime avec le meilleur des USA

Stig Nygaard - CC byNous avons déjà publié des articles sur Wikipédia à l’occasion de son dixième anniversaire, mais aucun qui n’avait cette « saveur si américaine », et c’est justement ce qui nous a intéressé ici.

L’auteur se livre ici à une description pertinente mais classique de l’encyclopédie libre, à ceci près qu’il y fait souvent mention des États-Unis[1].

Si le récent massacre de Tucson symbolise le pire des USA, alors Wikipédia est son meilleur. Et merci au passage à la liberté d’expression toute particulière qui règne dans ce pays.

En lecture rapide, on aurait vite fait de croire que l’encyclopédie est américaine en fait !

Or le contenu du Wikipédia n’appartient à personne puisqu’il appartient à tout le monde grâce aux licences libres attachées à ses ressources. Mais que le créateur, les serveurs (et donc la juridiction qui en découle), le siège et la majorité des membres de cette Fondation, aient tous la même origine n’est ni neutre ni anodin.

On a vu le venin de l’Amérique – Saluons désormais Wikipédia, pionnier made in US du savoir-vivre mondial.

We’ve seen America’s vitriol. Now let’s salute Wikipedia, a US pioneer of global civility

Timothy Garton Ash – 12 janvier 2011 – Guardian.co.uk
(Traduction Framalang : DaphneK)

Malgré tous ses défauts Wikipédia, qui vient de fêter ses dix ans, est le meilleur exemple d’idéalisme à but non-lucratif qu’on puisse trouver sur Internet.

Wikipédia a eu dix ans samedi dernier. C’est le cinquième site Web le plus visité au monde. Environ 400 million de gens l’utilisent chaque mois. Et je pense que les lecteurs de cet article en font certainement partie. Pour vérifier une information, il suffit désormais de la « googliser » puis, la plupart du temps, on choisit le lien vers Wikipedia comme meilleure entrée.

Ce que cette encyclopédie libre et gratuite – qui contient désormais plus de 17 millions d’articles dans plus de 270 langues – a d’extraordinaire, c’est qu’elle est presque entièrement écrite, publiée et auto-régulée par des volontaires bénévoles. Tous les autres sites les plus visités sont des sociétés commerciales générant plusieurs milliards de dollars. Facebook, avec juste 100 millions de visiteurs en plus, est aujourd’hui évalué à 50 milliards de dollars.

Google à Silicon Valley est un énorme complexe fait de bureaux et de bâtiments modernes, comme une capitale surpuissante. On peut certes trouver des pièces de Lego en libre accès dans le foyer, mais il faut signer un pacte de confidentialité avant même de passer la porte du premier bureau. Quant au langage des cadres de Google, il oscille curieusement entre celui d’un secrétaire de l’ONU et celui d’un vendeur de voitures. On peut ainsi facilement passer du respect des Droits de l’Homme au « lancement d’un nouveau produit ».

Wikipédia, par contraste, est géré par une association à but non-lucratif. La Fondation Wikimedia occupe un étage d’un bâtiment de bureau anonyme situé au centre de San Francisco et il faut frapper fort à la porte pour pouvoir entrer. (On parle d’acheter une sonnette pour fêter les dix ans.) A l’intérieur, la fondation ressemble à ce qu’elle est : une modeste ONG internationale.

Si Jimmy Wales, l’architecte principal de Wikipedia, avait choisi de commercialiser l’entreprise, il serait sans doute milliardaire à l’heure actuelle, comme le fondateur de Facebook Mark Zuckerberg. Selon Wales lui-même, placer le site sous licence libre était à la fois la décision la plus idiote et la plus intelligente qu’il ait jamais prise. Plus que n’importe quel autre site international, Wikipedia fleure encore bon l’idéalisme utopique de ses débuts. Les Wikipédiens, comme ils aiment se définir eux-mêmes sont des hommes et des femmes chargés d’une mission. Cette mission qu’ils endossent fièrement, pourrait se résumer par cette phrase presque Lennonienne (de John, pas Vladimir) prononcée par celui que tout le monde ici appelle Jimmy : « Imaginez un monde dans lequel chacun puisse avoir partout sur la planète libre accès à la somme de toutes les connaissances humaines ».

Insinuer que ce but utopique pouvait être atteint par un réseau d’internautes volontaires – travaillant pour rien, publiant tout et n’importe quoi, sachant que leurs mots sont immédiatement visibles et lisibles par le monde entier – était, bien entendu, une idée totalement folle. Pourtant, cette armée de fous a parcouru un chemin remarquablement long en dix ans à peine.

Wikipédia a toujours de très gros défauts. Ses articles varient généralement d’un sujet ou d’une langue à l’autre en termes de qualité. En outre, beaucoup d’articles sur des personnalités sont inégaux et mal équilibrés. Ce déséquilibre dépend en grande partie du nombre de Wikipédiens qui maîtrisent réellement une langue ou un sujet particulier. Ils peuvent être incroyablement précis sur d’obscurs détails de la culture populaire et étonnement faibles sur des sujets jugés plus importants. Sur les versions les plus anciennes du site, les communautés de rédacteurs volontaires, épaulées par la minuscule équipe de la Fondation, ont fait beaucoup d’efforts afin d’améliorer les critères de fiabilité et de vérifiabilité, insistant particulièrement sur les notes et les liens renvoyant aux sources.

Pour ma part, je pense qu’il faut toujours vérifier plusieurs fois avant de citer une information puisée sur le site. Un article sur Wikipédia paru dans le New Yorker notait à ce propos la fascinante distinction entre une information utile et une information fiable. Dans les années à venir, l’un des plus grands défis de l’encyclopédie sera de réduire l’écart qui pouvant exister entre ces deux notions.

Un autre grand défi sera d’étendre le site au-delà des frontières de l’Occident, où il est né et se sent le plus à l’aise. Un expert affirme qu’environ 80% des textes proviennent du monde de l’OCDE. La fondation vise 680 millions d’utilisateurs en 2015 et espère que cette croissance sera principalement issue de régions comme l’Inde, le Brésil et le Moyen-Orient.

Pour percer le mystère Wikipédia, il ne s’agit pas de pointer ses défauts évidents, mais de comprendre pourquoi le site fonctionne si bien. Les Wikipédiens offrent plusieurs explications : Wikipédia est né assez tôt, alors qu’il n’existait pas encore autant de sites dédiés aux internautes novices, une encyclopédie traite (principalement) de faits vérifiables plutôt que de simples opinions (ce qui est monnaie courante mais aussi un des fléaux de la blogosphère), mais c’est surtout avec sa communauté de rédacteurs-contributeurs que Wikipedia a trouvé la poule aux oeufs d’or.

Par rapport à l’échelle du phénomène, la masse des rédacteurs réguliers est incroyablement faible. Environ 100 000 personnes rédigent plus de cinq textes par mois mais les versions les plus anciennes comme l’anglais, l’allemand, le français ou le polonais sont alimentés par un petit groupe de peut-être 15 000 personnes, chacune effectuant plus de 100 contributions par mois. Il s’agit en grande majorité d’hommes jeunes, célibataires, qui ont fait des études. Sue Gardner, Directrice Executive de la Fondation Wikimedia, affirme qu’elle peut repérer un Wikipédien-type à cent mètres à la ronde. Ce sont les accros du cyberespace.

Comme la plupart des sites internationaux très connus, Wikipédia tire avantage de sa position privilégiée au sein de ce que Mike Godwin, Conseiller Général chez Wikipédia jusqu’au mois d’octobre dernier, décrit comme « un havre de liberté d’expression appelé les États-Unis » Quel que soit le pays d’origine du rédacteur, les encyclopédies de toutes les langues différentes sont physiquement hébergées par les serveurs de la Fondation situé aux États-Unis. Ils jouissent des protections légales de la grande tradition américaine qu’est la liberté d’expression.

Wikipédia a cependant été remarquablement épargnée par la spirale infernale particulièrement bien résumée par la Loi de Godwin (que l’on doit au même Mike Godwin). Cette règle affirme en effet que « lorsqu’une discussion en ligne prend de l’ampleur, la probabilité d’une comparaison faisant référence au Nazis ou à Hitler est environ égale à 1 ». Ceci est en parti dû au fait qu’une encyclopédie traite de faits, mais aussi parce que des Wikipédiens motivés passent énormément de temps à défendre leurs critères de « savoir-vivre » contre les nombreuses tentatives de vandalisme.

Ce savoir-vivre – traduction française du « civilty » anglais – est l’un des cinq piliers de Wikipédia. Depuis le début, Wales soutient qu’il est possible de réunir honnêteté et politesse. Toute une éthique en ligne, une nétiquette – pardons, une wikiquette – s’est développée et mise en place autour de cette notion, donnant naissance à des abréviations telles que AGF (Assume Good Faith) qu’on pourrait traduire par « Supposez ma Bonne Foi ». Les personnes manquant de savoir-vivre sont courtoisement interpelées puis mises en garde, avant d’être exclues si elles persistent. Mais je ne suis pas en position de juger si tout ceci se vérifie dans les versions sorabe, gagaouze et samoanes du site. Wikipédia a peut-être sa part de propos déplacés, mais si une communauté a tendance à dégénérer, la Fondation a au final le pouvoir d’ôter les tirades incriminées du serveur. (Wikipédia est une marque protégée par la loi, alors que Wiki-autre-chose ne l’est pas ; D’ailleurs Wikileaks n’a rien à voir avec Wikipedia et n’est même pas un « wiki » au sens collaboratif du terme.)

Nous ne sommes toujours pas en mesure de savoir si la fusillade de Tucson, en Arizona, est le produit direct du détestable climat qui règne actuellement sur le discours politique américain, tel qu’on a pu l’entendre sur des émissions de radio et de télévisions comme Fox news. Un fou est peut-être tout simplement fou. Mais le venin servi chaque jour par la politique américaine est un fait indéniable. Pour lutter contre ce climat déprimant, il est bon de pouvoir célébrer une invention américaine qui, malgré ses défauts, tente de propager dans le monde entier une combinaison d’idéalisme bénévole, de connaissance et de savoir-vivre acharné.

Notes

[1] Crédit photo : Stig Nygaard (Creative Commons By-Sa)




Les partisans de l’ouverture participent-ils d’un maoïsme numérique ?

Luca Vanzella - CC by-saOpen, open, open ! les partisans de l’ouverture n’auraient, d’après Jason Lanier[1], que ce mot à la bouche, qu’ils s’appellent WikiLeaks, hackers, logiciels libres ou Wikipédia.

En plus, vous savez quoi ? Cette ouverture signifie la mort de la vie privée, la qualité nivelée par les masses, l’innovation en hibernation et une économie confisquée par une minorité. Ce que Jason Lanier résume par l’expression pas forcément très heureuse de « maoïsme numérique ».

Il n’en fallait pas plus que pour notre ami Glyn Moody, souvent traduit ici, ne réagisse !

La parole est à la défense des hackers et de l’Open Source

Glyn Moody – 18 janvier 2011 – The H Open Source
(Traduction Framalang : Olivier Rosseler)

In defence of hackers and open source

À mes yeux, l’avènement de WikiLeaks est un évènement marquant car il apporte un nouvel éclairage sur de nombreux domaines, pas forcément ceux auxquels on pense, parmi ceux-ci : l’éthique des hackers et le monde de l’Open Source.

Jaron Lanier s’y est intéressé récemment dans un article amusant, mais il reste dubitatif. Si vous ne connaissez pas ses hauts faits d’armes, voilà ce que l’autre Wiki, Wikipédia, dit de lui :

Jaron Zepel Lanier (né le 3 mai 1960) est un informaticien américain, compositeur, artiste graphique et essayiste. Il est l’auteur d’un film expérimental, mais ne se considère pas comme un producteur. Au début des années 80, il est l’un des pionniers de ce qu’il contribuera à faire connaître sous le terme de « Réalité Virtuelle ». Il fonda à l’époque la société VPL Research, la première entreprise à commercialiser des produits de réalité virtuelle. Actuellement, il est entre autres, professeur honoraire à l’université de Berkeley, Californie. Il figure dans la liste des 100 personnes les plus influentes du magazine Time de 2010.

Le titre de son essai est « Les dangers de la suprématie des nerds : Le cas de WikiLeaks » (NdT : nerd, qu’on aurait pu traduire par polard ou intello), ce qui vous donne une idée de son point de vue sur les hackers et l’Open Source. Je pense qu’il se trompe dans son argumentaire contre WikiLeaks, comme je l’ai déjà évoqué, mais je me concentrerai ici sur les prises de position contre les hackers et l’ouverture qu’il distille au passage.

Point de départ de sa critique : une rencontre de la plus haute importance qui aurait, selon ses dires, mené à la création de WikiLeaks.

Le nid qui vit éclore WikiLeaks est un forum organisé par John Gilmore, l’un des fondateurs de l’Electronic Frontier Foundation. J’aurais d’ailleurs pu moi-même devenir l’un des fondateurs de l’EFF. J’étais présent quand tout a commencé, lors d’un repas à San Francisco, dans le quartier de Mission, avec John, John Perry Barlow et Mitch Kapor. C’est un pressentiment qui m’a empêché de suivre les autres dans la création de l’EFF, le pressentiment que quelque chose clochait.

Il poursuit :

Le chiffrement les obsédait, le Graal qui rendrait les hackers aussi puissants que les gouvernements, et ça me posait un problème. Les têtes enflaient : Nous, hackers, pouvions changer le cours de l’Histoire. Mais si l’Histoire nous a appris quelque chose, c’est bien que la quête du pouvoir ne change pas le monde. Vous devez vous changer vous-même en même temps que vous changez le monde. La désobéissance civile est avant tout une question de discipline spirituelle.

Mais c’est là, je pense, que son argumentation est fausse : les hackers ne sont pas en « quête de pouvoir ». Les actions qu’ils entreprennent leur confèrent peut-être un certain pouvoir, mais ce n’est qu’un effet secondaire. Par définition, les hackers hackent car ils aiment hacker : c’est l’équivalent au XXIe siècle de « l’art pour l’art ». Je concède que Richard Stallman et ses sympathisants ajoutent une dimension hautement morale au hack : apporter la liberté aux peuples. Mais, je le répète, ils ne sont pas en « quête de pouvoir » : ils veulent le donner, pas le prendre.

Vers la fin de son article, Lanier écrit :

J’ai toujours pensé qu’un monde ouvert favoriserait l’honnête et le juste et dé-crédibiliserait le magouilleur et l’arnaqueur. Appliquée avec modération, cette idée est attrayante, mais si le concept de vie privée venait à disparaître, les gens deviendraient d’abord sans intérêt, puis incompétents et ils finiraient eux-mêmes par disparaître. Derrière cette idée d’ouverture radicale se cache une allégeance de l’Homme aux machines.

Là encore il nous sert une hypothèse sans fondement : « si le concept de vie privée venait à disparaître ». Il ne me semble pas que beaucoup de hackers aient appelé à la «disparition du concept de vie privée » (aucun nom ne me vient à l’esprit d’ailleurs). Il y a confusion entre « ouverture » et « absence de vie privée » alors que ce sont deux choses bien distinctes (bien que l’ouverture ait certainement des implications sur la vie privée, mais de là à définir le premier par l’absence du second, il y a un grand pas).

Cette tendance à créer des épouvantails et à passer allégrement dans le hors-sujet est récurrente chez Lanier. Sa précédente diatribe sur tout ce qui est ouvert, « Maoïsme numérique » en est un bon exemple. Voilà le passage consacré à l’Open Source :

Il faut que je m’accorde une parenthèse sur Linux et les projets similaires. Qu’ils soient « libres » ou « Open Source », ces logiciels ne sont pas, à bien des égards, comme Wikipédia, à vouloir agréger tous les contenus. Les programmeurs de Linux ne sont pas anonymes, au contraire, la reconnaissance personnelle fait partie de leurs motivations, c’est ce qui fait avancer de tels projets. Mais des points communs existent, comme l’absence d’opinion représentative ou de sens du design (au sens esthétique du terme), ce sont des défauts que partagent les logiciels Open Source et Wikipédia.

Ces mouvements excellent dans la création de tout ce qui est infrastructure cachée, comme les serveurs Web. Mais ils sont incapables de créer des interfaces utilisateurs léchées ou d’améliorer l’expérience utilisateur. Si le code de l’interface utilisateur de Wikipédia était aussi ouvert que ses articles, vous pouvez être sûr que ça deviendrait rapidement un bourbier inextricable. L’intelligence collective parvient avec brio à résoudre des problèmes qui peuvent être évalués sur des critères objectifs, mais elle n’est pas adaptée ici lorsque les goûts et les couleurs comptent.

Il a raison, c’est simplement une question de critères. Pour le code source, de nombreux critères objectifs existent, vitesse, poids, portabilité, etc. Mais pour ce qui est d’imaginer une interface, tout est très subjectif, difficile donc de s’assurer que les choses évoluent dans le bon sens à chaque transformation. Mais ce n’est pas l’« ouverture » ou le « collectif » qui posent problème ici : les projets extrêmement centralisés rencontrent les mêmes difficultés pour mesurer les « progrès » dans les domaines très subjectifs, alors que pour eux aussi, les questions plus objectives sont plus simples à résoudre.

Il semblerait que Lanier s’en prend une nouvelle fois à l’« ouverture » dans son dernier livre You Are Not a Gadget (NdT : Vous n’êtes pas un gadget). Je dis « il semblerait », car je ne l’ai pas lu : il y a bien d’autres livres que j’aimerais commencer avant, surtout si je me fie à ce résumé (et d’après ses autres écrits, je peux) :

Dans son ouvrage paru en 2010 (You Are Not A Gadget), Lanier critique l’« esprit de ruche » et compare l’Open Source et l’expropriation de la production intellectuelle orchestrée par les contenus ouverts à une forme de maoïsme numérique. Il trouve qu’ils ont ralenti le développement de l’informatique et l’innovation musicale. Il s’en prend à quelques icônes sacrées telles que Wikipédia et Linux dans son manifeste, Wikipédia pour la toute-puissance des auteurs et éditeurs anonymes qui font régner leur loi, pour la faiblesse de son contenu non-scientifique et pour l’accueil brutal réservé aux personnes qui ont effectivement une expertise dans leur domaine. Il affirme également que certains aspects de l’« Open Source » et de l’« Open Content » possèdent leurs limitations et qu’au fond ils ne créent rien de vraiment neuf ou innovant. Il poursuit en disant que ces approches ont retiré aux classes moyennes des opportunités de financer la création et ont concentré la richesse dans les mains de ceux qu’il nomme les « dieux dans les nuages » : ceux qui, plutôt que d’innover deviennent des intermédiaires, des concentrateurs de contenus, présents au bon endroit au bon moment, dans les « nuages ».

Le fait qu’il ressorte ce bon vieux troll montre que ses arguments sont usés jusqu’à la corde, a-t-il seulement entendu parler de ce truc qu’on appelle Internet, dont la création repose entièrement sur des protocoles et du code ouvert ?

De même, l’idée que le financement de la création de contenu par la classe moyenne est moins probable nie le fait que les gens créent plus de contenu que jamais, gratuitement, pour l’amour de la création, vous voyez on retrouve « l’art pour l’art ». Je vous accorde que ce ne sont pas que des chefs-d’œuvre, mais bon, cela a toujours été le cas, non ? La grande majorité des créations ont toujours été médiocres. Par contre, maintenant on s’en rend mieux compte car nous jouissons d’un accès sans précédent à la création. C’est cette richesse, cette variété dans l’abondance que Lanier semble ne pas apprécier lorsqu’il écrit :

L’idéologie qui pousse une bonne partie du monde connecté, pas seulement WikiLeaks, mais aussi des sites très visités comme Facebook par exemple, est que l’information en suffisamment grande quantité devient automatiquement une Vérité. Cela implique pour les extrémistes qu’Internet est en train de devenir une nouvelle forme de vie, singulière, mondiale, supérieure, post-humaine. Pour les sympathisants plus modérés, si l’information est vérité et que la vérité vous rend libre, alors enrichir l’Internet de plus d’informations rend automatiquement les gens plus libres et le monde meilleur.

Pour les hackers, ce n’est pas tant la quantité qui compte, mais plutôt la qualité, c’est ce qui fait la force des logiciels libres. L’ouverture a simplement pour but d’encourager les gens à s’appuyer sur l’existant pour améliorer les choses, pas juste pour amasser des lignes de code. De plus, la culture hacker valorise fortement les échanges interpersonnels. Le don et la collaboration sont des éléments clés de la méthodologie Open Source. Ça fonctionne car l’un des piliers de la culture hacker est l’attribution : ne pas indiquer que l’on s’appuie sur le travail d’autres personnes est une bévue monumentale. C’est une bonne protection contre les personnes mal intentionnées qui voudraient siphonner la bonne volonté de la communauté.

Au fond, Lanier devrait plutôt louer les hackers et l’Open Source, puisqu’ils partagent son désire d’allégeance aux Hommes plutôt qu’aux machines. Quel dommage qu’une personne de sa qualité ne s’en rende pas compte.

Notes

[1] Crédit photo : Luca Vanzella (Creative Commons By-Sa)




WebM contre H.264 : La FSF soutient le choix de Google

Dawn - CC byCe n’est pas forcément tous les jours que la Free Software Foundation (FSF) de Richard Stallman applaudit et soutient ouvertement Google dans ses choix de format vidéo pour le Web. Et d’appeler les internautes à en faire de même.

Google est même qualifié d’audacieux, puisque l’adoption d’un format ouvert – WebM – s’accompagne de la suppression d’un format fermé – H.264.

Pour en savoir sur le sujet, nous ne saurions trop vous conseiller notre article : Bataille de la vidéo sur le Web : Quand Google restreint pour mieux ouvrir ?[1].

Pas de double standard : soutenir l’appui de Google à WebM

No double standards: supporting Google’s push for WebM

Brett Smith – 19 Janvier 2011 – FSF.org (Traduction Framalang : Cheval boiteux, Jérémie et Antistress)

Nous avons décidé de soutenir le projet WebM et nous encourageons les autres fondations et organisations à nous rejoindre pour connaître la marche à suivre. Aujourd’hui, nous exhortons également les gestionnaires de sites web à distribuer les vidéos dans le format WebM et à abandonner le H.264.

La semaine dernière, Google a annoncé qu’il planifiait la suppression du support du codec vidéo H.264 des ses navigateurs au profit du codec WebM qui a récemment été libéré. Depuis, il y a eu beaucoup de discussions concernant les incidences possibles sur l’avenir du Web, au moment où la spécification HTML5 — dont la balise video — mûrit.

Nous applaudissons Google pour ce changement : c’est une avancée positive pour le logiciel libre, ses utilisateurs, et pour chaque personne qui utilise le Web. Cela fait un moment déjà que regarder une vidéo sur le Web peut s’avérer périlleux. La plupart d’entre elles sont publiées à l’aide de Flash qui est un logiciel non-standard et propriétaire. Les alternatives libres comme GNU Gnash sont disponibles, mais l’expérience utilisateur n’est pas toujours à la hauteur.

Quand le travail a commencé sur la nouvelle version du standard HTML, HTML5, le travail sur la diffusion et la lecture des vidéos était une priorité. Mais, bien que tout le monde était d’accord sur ce à quoi la balise <video> devait ressembler, il n’y avait pas de consensus sur le format d’encodage des vidéos. Microsoft et Apple soutenaient H.264, Mozilla et Opera soutenaient WebM et Ogg Theora. Jusque là, Google supportait tous ces codecs, mais aujourd’hui il a fait preuve d’audace en décidant de supporter les standards libres et ouverts et de laisser tomber H.264.

Ceci est une bonne nouvelle, car si H.264 devenait le standard de fait pour la vidéo sur le Web, cela ne serait pas mieux que la situation actuelle. H.264 est un codec lourdement breveté ; le consortium MPEG LA oblige les développeurs qui l’implémentent à accepter une licence de brevet. Cette licence est fondamentalement incompatible avec les logiciels libres. Elle exige des développeurs qu’ils restreignent l’utilisation qui sera faite de leur logiciel, et permet la collecte d’une redevance dans la plupart des situations.

Afin de s’assurer que le Web reste libre et ouvert pour tous, nous avons besoin qu’un codec libre s’impose comme standard de fait pour HTML5. WebM peut être ce codec : Google fournit avec le standard une licence de brevet qui est compatible avec les licences des logiciels libres et propose même une implémentation libre. Ils promeuvent également avec force ce codec, et leur décision de laisser tomber H.264 est une étape de plus dans cette direction.

Des réactions au geste de Google ont suggéré que cela représentait un pas en arrière pour les standards sur le Web, car H.264 est supporté par un plus grand nombre de matériels et de logiciels. Ces commentaires révèlent une incompréhension fondamentale de la vision d’un Web libre et ouvert. Nous ne pouvons être libres que si nous rejetons les formats de données qui sont assujettis à brevets.

Mais la question n’est pas encore règlée. C’est le moment pour tout le monde d’agir et de faire en sorte que WebM soit effectivement adopté par le plus grand nombre À cette fin, nous avons décidé de soutenir le projet WebM et nous encourageons les autres fondations et organisations à nous rejoindre — écrivez à webmaster AT webmproject.org pour connaître la marche à suivre. Aujourd’hui, nous exhortons également les gestionnaires de sites web à distribuer les vidéos dans le format WebM et à abandonner le H.264.

Bientôt, nous allons transformer notre campagne PlayOgg en PlayFreedom et nous allons mettre l’accent sur les moyens permettant à chacun d’encourager l’adoption de WebM. Vous pouvez vous inscrire dès maintenant pour en savoir plus sur la manière d’aider. Ensemble, nous pouvons veiller à ce que le Web remplisse sa promesse d’être libre pour tout le monde.

Notes

[1] Crédit photo : Dawn (Creative Commons By)




Internet favorise l’anglicisation, la robotisation et la globalisation du monde ?

Pink Sherbet Photography - CC byUne courte traduction à la sauce « Café Philo » qui n’est là que pour engager un petit débat avec vous dans les commentaires si vous le jugez opportun.

Anglicisation, machinisation et mondialisation sont ici trois arguments qui font dire à l’auteur qu’Internet est loin d’être neutre et nous oblige implicitement ou explicitement à adopter certaines valeurs, avec toutes les conséquences que cela implique[1].

Peut-être ne serez-vous pas d’accord ? Peut-être estimerez-vous que l’on enfonce des portes ouvertes ? Peut-être ajouterez-vous d’autres éléments à la liste ?

Les commentaires vous attendent, même si il est vrai que le débat s’est lui aussi déplacé, des forums et des blogs vers les Facebook et Twitter (et en se déplaçant il a changé de nature également).

Un billet à rapprocher par exemple des articles suivant du Framablog : Code is Law – Traduction française du célèbre article de Lawrence Lessig, Internet et Google vont-ils finir par nous abrutir ?, Quand Internet croit faire de la politique ou encore notre Tag sur Bernard Stiegler.

Utiliser Internet nous force-t-il à adhérer automatiquement à certaines valeurs ?

Does the use of the internet automatically force us to accept certain values?

Michel Bauwens – 19 janvier 2011 – P2P Foundation
(Traduction Framalang : Martin et Goofy)


Ci-dessous une intervention de Roberto Verzola, extraite de la liste de diffusion « p2p-foundation » :

« Je suis assez d’accord avec Doug Engelbart, l’inventeur de la souris, quand il dit que nous façonnons nos outils, et que nos outils nous façonnent à leur tour. Il parle d’une co-évolution de l’homme et de ses outils. Nous devrions peut-être appeler cela « un déterminisme réciproque ». Quand il dit « nous façonne », je suppose que le « nous » désigne aussi les relations sociales.

E.F. Schumacher (Small is Beautiful) va plus loin encore et je suis aussi entièrement d’accord avec lui. Il écrit (dans Work) que dès lors que nous adoptons une technologie (conçue par quelqu’un d’autre probablement), nous absorbons l’idéologie (une manière de voir les choses, un système de valeurs) qui va avec. Schumacher pensait que beaucoup de technologies venaient imprégnées d’idéologies, et que ceux qui pensaient pourvoir en importer une en refoulant l’idéologie qui va avec se trompent. Cette vision met sûrement plus l’accent sur le « déterminisme technologique » que celle de Engelbart, mais je pense tout de même que E.F. Schumacher a raison, du moins pour certaines technologies.

En fait, j’ai analysé Internet avec la perspective de Schumacher, et j’y ai trouvé quelques états d’esprit et systèmes de valeurs que ses utilisateurs sont obligés d’absorber, souvent sans en prendre conscience (pour avoir la liste entière suivre ce lien). Il me suffira d’en mentionner trois :

1. L’usage généralisé de l’anglais dans les technologies liées à Internet, jusqu’aux micro-codes des microprocesseurs, nous force à apprendre l’anglais. Et si vous apprenez la langue anglo-saxonne, vous allez sûrement acquérir certains goûts anglo-saxons. Apprendre la langue, c’est choisir la culture.

2. L’esprit de robotisation : remplacer les hommes par des machines. Cela prend du sens dans un pays riche en capital (même si ça se discute), mais beaucoup moins dans un pays où le travail prévaut. Quand nous remplaçons la force musculaire par celle des machines, nous sommes en moins bonne santé. Mais que va-t-il se passer si l’on substitue des machines au travail mental ?

3. Le parti pris implicite (en fait, une subvention) en faveur des acteurs globaux, et pour la mondialisation. C’est flagrant si l’on considère la struture des coûts sur Internet : un prix indépendant des distances. Un fichier de 1 Mo envoyé à un collègue utilisant le même fournisseur d’accès à Internet coûte le même prix qu’un fichier de taille équivalente envoyé à l’autre bout du globe. Pourtant le deuxième utilise bien plus de ressources réseau (serveurs, routeurs, bande passante, etc.) que le premier. Ainsi les utilisateurs locaux paient plus par unité de consommation de ressources que les utilisateurs globaux, ce qui est une subvention déguisée à la mondialisation intégrée à Internet tel qu’il est aujourd’hui.

Devons-nous pour autant rejeter cette technologie ? La réponse de Schumacher dans les années 1970 était une technologie intermédiaire/appropriée. Aujourd’hui, Schumacher reste pertinent, seul le vocabulaire a peut-être changé. J’ajouterais que nous devons aussi être impliqués dans la re-conception de la technologie. C’est pourquoi parler d’un Internet alternatif sur cette liste m’intéresse beaucoup.

Je ne voudrais pas m’attacher à priori à une conception figée, que ce soit celle des « choses » qui déterminent les relations sociales, ou celle des relations sociales qui déterminent les « choses ». Je voudrais explorer ces perspectives au cas par cas, et utiliser toute suggestion nouvelle et utile qui pourrait se présenter, qu’elle puisse venir de l’une ou de l’autre (ou des deux). »

Notes

[1] Crédit photo : Pink Sherbet Photography (Creative Commons By)