Les amants aiment l’open source

George Eastman House - Public DomainOuverture, transparence, confiance, passion, audace, collaboration… font partie du champ lexical du logiciel libre.

Mais en ce jour de Saint-Valentin[1], ces mots peuvent également évoquer tout autre chose 😉

C’est ce parallèle osé (hasardeux ?) que nous propose Mary Ann en nous invitant à compléter ou amender la liste.

L’open source, c’est pour les amoureux

Open source is for lovers

Mary Ann (Red Hat) – 14 février 2011 – OpenSource.com
(Traduction Framalang : Penguin, Baptiste et Goofy)

C’est vrai. Si vous réflechissez aux caractéristiques de l’open source et aux qualités d’une relation intime réussie, vous trouverez beaucoup de points communs.

Ouverture : Vous devez être ouvert et flexible pour que la relation fonctionne. Revenons à l’une de mes comparaisons préférées sur la différence entre les logiciels libres et les logiciels propriétaires : un logiciel propriétaire, c’est comme acheter une voiture avec le capot soudé. « Oh, vous devez changer l’huile ? Dommage. Achetez une nouvelle voiture. » Si nous ne sommes pas flexibles et ouverts aux changements, si nos capots sont soudés, cela devient très compliqué pour la voiture de garder le cap amoureux.

Transparence : Les secrets sont la ruine des relations. Dois-je en dire plus ?

Confiance : Sans confiance dans une relation, vous allez vous rendre d-i-n-g-u-e-s, vous et votre partenaire. Vous allez toujours penser que l’autre est en train de préparer un sale coup et envisager les pires scénarios.

Passion : Bien entendu, la démarche open source attire les gens passionnés, elle attire ceux qui veulent participer aux changements. Si vous n’êtes pas engagés passionnément dans une relation, vous cesserez vite de vous y investir et, à partir de là, les choses se dénouent très facilement.

Audace : L’open source, c’est pour ceux qui se bougent. Vous voulez changer les choses ? À vous de jouer. Si une personne vous intéresse, ne vous contentez pas d’y penser, agissez sinon c’est fichu.

Collaboration : Une communauté open source ne réussit que par le travail d’équipe et la collaboration. Il en va de même pour une relation enrichissante : on donne et on reçoit.

Release early, release often (NdT : Difficilement traduisible, « sortir tôt, sortir souvent » ou « communiquer tôt, communiquer souvent ») : Dans nos relations amoureuses, tout n’est pas toujours idyllique à chaque fois, mais nous ne pouvons nous empêcher de recommencer. C’est également vrai pour le modèle open source. Avec l’espoir que demain la relation sera meilleure et plus solide.

À vous de compléter (je pense que la liste peut s’allonger encore un peu). Joyeuse Saint-Valentin d’un amoureux de l’open source à un autre !

Notes

[1] Crédit photo : George Eastman House + OpenSource.com (Domaine Public)




Open Attribute : Rendre à César ce que César a rendu libre

Open Attribute - Mozilla DrumbeatIssu de l’incubateur Mozilla Drumbeat, Open Attribute un petit projet bien pratique pour justement créditer les auteurs qui ont généreusement choisi de placer leurs ressources sous licence libre ou licence de libre diffusion.

Il s’agit pour le moment d’une extension Firefox (mais aussi Chrome) qui affiche une icône active, dans la barre d’adresse de votre navigateur, à chaque fois que vous passez sur un site dont le contenu est sous licence libre (comme Wikipédia ou une partie de l’annuaire de photographies Flickr).

En cliquant sur cette icône, on vous proposera un texte à copier/coller si jamais il vous vient l’envie de réutiliser ce contenu. C’est bien pratique et cela contribue à ne pas casser le cercle vertueux du Libre en oubliant de citer la source et la paternité du contenu dont vous souhaitez faire usage.

La condition c’est que le site ait bien renseigné ses métadonnées en indiquant la licence de son contenu. Mais si tel n’était pas le cas, cela participera justement à ce que de plus en plus de sites fassent cet effort (comme… Framasoft par exemple !).

Nous en avons traduit ci-dessous l’annonce sur la page d’accueil du projet.

Rendre à César ce qui appartient à César

Give credit where credit is due

(Traduction Framalang : Antistress et Sylvain)

Le problème : Les œuvres sous licences Creative Commons sont fantastiques mais il peut être difficile d’en connaître les auteurs. La règle d’or pour pouvoir utiliser une œuvre placée sous une licence permissive est d’en attribuer la paternité à son (ses) auteur(s). Il y a d’autres conditions plus poussées à respecter mais ces conditions peuvent être confuses et difficile à trouver.

La solution : Un outil simple que chacun peut utiliser d’un clic et qui permet de respecter ces conditions. C’est pourquoi nous avons conçu Open Attribute, un ensemble d’outils qui facilite grandement la reproduction des conditions d’utilisation de n’importe quelle œuvre sous licence Creative Commons. Ces outils vont extraire les métadonnées relatives à la licence d’utilisation de l’œuvre et produire le texte de la licence d’utilisation qu’il ne restera plus qu’à copier/coller selon ses besoins.

Open Attribute est né au festival de Barcelone “Learning, Freedom and the Web” dans le cadre du projet Mozilla Drumbeat. Un groupe de volontaires de différents pays a collaboré pour concevoir, réaliser et publier Open Attribute. Un grand merci à tous ceux qui ont travaillé dur pour y arriver !




OpenOffice.org n’est pas mort, Vive LibreOffice !

Terry Ross - CC by-saComme le souligne avec malice notre ami Gee, la suite bureautique libre LibreOffice 3.3 vient de voir le jour.

Sauf que, comme son numéro ne l’indique pas, c’est sa toute première version stable. Mais alors pourquoi n’a-t-on pas logiquement une version 1.0 ? Parce qu’il s’agit d’un fork de la célèbre suite OpenOffice.org qui, au moment de la séparation, en était restée à la version 3.2.

Petit rappel Wikipédia : « Un fork, ou embranchement, est un nouveau logiciel créé à partir du code source d’un logiciel existant. Cela suppose que les droits accordés par les auteurs le permettent : ils doivent autoriser l’utilisation, la modification et la redistribution du code source. C’est pour cette raison que les forks se produisent facilement dans le domaine des logiciels libres. Les forks sont perçus par certains comme une épée de Damoclès au-dessus des auteurs des projets les moins bons, et aussi comme une méthode pour empêcher l’appropriation d’un projet par un groupe. La « peur de l’embranchement » est un des mécanismes essentiels de régulation et de sélection des projets libres. »[1]

Vous êtes un développeur d’un logiciel libre non satisfait de la manière dont évolue le projet ? Vous avez donc cette possibilité essentielle que constitue le fork. Mais il y parfois un gouffre entre la théorie et la pratique, car il n’est pas simple de reconstituer une communauté active autour du projet dérivé.

C’est pourtant justement ce que vient de réussir l’équipe de LibreOffice, structurée autour de la Document Foundation et qui a décidé de quitter le navire OpenOffice.org suite au rachat de Sun par Oracle. Ce dernier ayant refusé de rejoindre le projet et de céder la marque OpenOffice.org (qu’il continuera de développer par ailleurs), c’est donc désormais LibreOffice (ou LibO) qui sera l’un des fers de lance du logiciel libre grand public aux côtés de Firefox ou GNU/Linux.

LibreOffice 3.3 : les véritables enjeux

The Deeper Significance of LibreOffice 3.3

Glyn Moody – 28 janvier 2011 – ComputerWolrd.uk
(Traduction Framalang : Yonel et Don Rico)

Sur le blog RedMonk, James Governor a publié un billet amusant à propos des forks, suite à l’arrivée imminente d’une mise à jour majeure d’Android, la 3.0, dont le nom de code est « Honeycomb », et laquelle a été conçue en pensant aux tablettes :

Ainsi que le voudrait la sagesse populaire, les développeurs ne devraient pas s’attaquer à des environnements multiples. Ben voyons… le genre de sagesse qui nous a valu une décennie où il n’y en a eu que pour Java, et une vingtaine d’années pendant lesquelles dès qu’il y fallait choisir une architecture on collait du Oracle partout. Avouons que pour l’instant, Android est vraiment pas mal sur les téléphones. J’aime beaucoup mon HTC Desire. J’ai aussi la chance de pouvoir faire joujou avec un Dell Streak qu’on m’a prêté ; encore un bon petit appareil, qui fait bien son boulot pour m’accompagner devant la télé. Mais Android n’a pas été conçu pour un format plus grand, comme l’iPad 10 pouces d’Apple, du moins dans ses premières versions.

Et comme il le fait remarquer :

Tous les éditeurs de logiciels doivent gérer des codebases multiples, en particulier pour les progiciels. Si une entreprise doit gérer les deux codebases, est-ce vraiment un fork ?

Je dirais qu’il s’agit plus de fragmentation, et qu’on en voit partout – dans Android lui-même, dans Windows, admettons, et dans le monde de GNU/Linux à travers les centaines de distributions, chacune avec des versions et des configurations différentes. Rien de bien nouveau.

Les vrais forks ne courent pas les rues, précisément à cause des différences entre le fork et la fragmentation. Cette dernière peut être gênante ou pas, mais elle est rarement aussi douloureuse qu’un fork peut l’être. En général, les forks déchirent les communautés et forcent les programmeurs à choisir leur camp.

C’est ce qui rend l’apparition de LibreOffice si intéressante : c’est un vrai fork, avec des décisions réelles et douloureuses que doivent prendre les codeurs – où vont-ils ? Et à la différence de la fragmentation, qui souvent se produit naturellement et perdure pour un tas de raisons en grande partie banales, les forks exigent beaucoup de travail pour survivre. Résultat, de nombreux forks échouent, car il est souvent plus facile de rester ou de revenir au projet d’origine, plutôt que de se battre pour en installer et en faire grandir un nouveau.

Dans ce contexte, la publication récente de LibreOffice 3.3 est un jalon important, au moins pour ce qu’elle a déjà réussi :

La Document Foundation présente LibreOffice 3.3, la première version stable de la suite bureautique libre développée par la communauté. En moins de quatre mois, le nombre de développeurs codant LibreOffice est passé de moins de vingt à la fin septembre 2010, à largement plus d’une centaine aujourd’hui. Cela nous a permis de publier en avance par rapport au calendrier audacieux fixé par le projet.

À l’évidence, attirer les développeurs est une épreuve cruciale pour le potentiel de survie du fork, et même de son épanouissement. D’autres points importants :

La communauté des développeurs a pu bâtir ses propres méthodes en toute indépendance, et devenir opérationnelle en très peu de temps (eu égard à la taille du codebase et aux grandes ambitions du projet).

Grâce au grand nombre de nouveaux contributeurs qui ont été attirés par ce projet, le code source est vite soumis à un nettoyage d’ampleur, pour offrir une meilleure base aux développements de LibreOffice à venir.

C’est-à-dire que LibreOffice n’en est plus au stade de vague projet, ou à celui des étapes pénibles comme définir l’infrastructure qui permettra au projet d’avancer. La signification de cette réussite va au-delà du fait que la Fondation propose aux utilisateurs une alternative libre à OpenOffice (qui vient également de sortir sa dernière version). La possibilité de choix étant au coeur du logiciel libre, c’est donc certainement une bonne nouvelle, surtout à cause de la politique de copyright de LibreOffice, que j’ai déjà évoquée.

Mais je pense que LibreOffice a une importance supplémentaire parce qu’il représente une attaque délibérée contre la façon dont Oracle traite son catalogue open-source. Hélas, le mécontentement qui a poussé à cette scission va bien plus loin que le seul domaine des suites bureautiques.

L’attitude d’Oracle envers la communauté open-source semble empirer, c’est de plus en plus évident. Marc Fleury le résume bien dans ce billet révélateur. Fondateur de Jboss, et l’un des vrais innovateurs en termes de modèles économiques reposant sur l’open-source, il sait certainement de quoi il parle quand il s’agit de diriger des codeurs open-source dans un contexte professionnel, ce qui rend des commentaires comme celui-ci particulièrement significatifs – et inquiétants pour Oracle :

Il y a d’abord eu le fiasco OpenOffice/Libre Office, où OpenOffice a été forké dans la plus grande partie par sa propre communauté. Puis il y a eu le caprice d’Apache concernant Java/JCP, quand le groupe a bruyamment quitté le JCP (NdT : Java Community Process) après des prises de bec sur les licences open-source de la JVM (Harmony). Et en ce moment, il y a d’autres bisbilles, dont une au sujet de NetBeans. Mais celle qui me concerne le plus (ainsi que mon porte-monnaie), cela concerne un projet mené par un employé de Cloudbees.

Si je comprends bien la situation, le principal développeur était employé par Sun quand il a initié Hudson. Oracle revendique donc l’identité et la marque, ce qui en toute franchise est aberrant, puisque la licence est open-source et que les gars de Cloudbees peuvent poursuivre leur travail sans entrave. Reste donc une dernière étape : la création d’un fork du projet. Et voilà… une grande partie de la communauté open-source dit merde à Oracle.

Ce que LibreOffice montre (jusqu’ici, en tout cas) c’est que dans ces circonstances, il y a bien une vie après Oracle, que les gens se regrouperont dans un fork au lieu de l’éviter, et que le travail alors fourni amène des améliorations non négligeables. Il est vrai que cet argument ne s’appuie que sur un seul exemple, et il faudrait être un expert bien téméraire pour essayer d’en extrapoler quoi que ce soit. Mais cela reste une source d’inspiration importante et tentante pour les codeurs contrariés qui grognent sous le joug d’Oracle. Après tout, comme le met en évidence le nom de LibreOffice, il ne s’agit pas que de code. Il s’agit aussi de liberté.

Notes

[1] Crédit photo : Terry Ross (Creative Commons By-Sa)




La nouvelle version Squeeze de Debian lavera encore plus blanc

Mark Robinson - CC byC’est un billet un peu technique que nous vous proposons aujourd’hui. Il évoque la « quête du 100% libre » des distributions GNU/Linux.

En effet, vous l’ignoriez peut-être, mais rares sont les distributions GNU/Linux qui soient « totalement libres ».

Ainsi la fort pratique distribution Linux Mint installe dès le départ des codecs (MP3, divX…) et des plugins (Java, flash…) propriétaires. On ne peut donc la considérer comme libre.

Mais, plus subtil, la très populaire distribution Ubuntu non plus, car elle embarque en son sein des drivers propriétaires comme ceux pour les cartes graphiques Nvidia et ATI.

Ces drivers sont des exemples de firmwares (ou micrologiciel), ces logiciels intégrés dans un composant matériel, et ils constituent le sujet principal de notre billet, et traduction, du jour.

Debian est l’une des plus anciennes et célèbres distributions GNU/Linux. Elle sert de base de développement à de nombreuses autres distributions, dont justement Ubuntu et Linux Mint.

L’une des principales caractéristiques de Debian, outre sa stabilité reconnue et le grand nombre d’architectures matérielles supportées, est de ne dépendre directement d’aucune société commerciale : comme le navigateur Firefox de la fondation Mozilla, Debian est le fruit d’une association à but non lucratif. Et si Mozilla possède son Manifesto, Debian a son fameux contrat social.

Elle se trouve actuellement dans sa version 5.0 mais la nouvelle version 6 (nom de code « Squeeze ») devrait sortir d’ici quelques jours.

Or le projet Debian a annoncé que cette nouvelle version bénéficierait, à sa sortie, d’un noyau Linux « libéré», c’est à dire débarrassé de tout firmware qui ne serait pas libre[1]. Cette décision a suscité un certain nombre de d’interrogations autour des conséquences pratiques pour l’utilisateur : allait-il pouvoir continuer à faire fonctionner pleinement sa machine avec cette nouvelle version ?

C’est à ces interrogations que répond l’un des développeurs du projet ci-dessous.

Mythes et réalités concernant les firmwares et leur non-retrait de Debian

Myths and Facts about Firmwares and their non-removal from Debian

Alexander Reichle-Schmehl – 20 janvier 2011 – Tolimar’s Blog
(Traduction Framalang : Antistress, Penguin et Goofy)

L’annonce par le projet Debian de la publication de Squeeze avec un noyau Linux complètement libre a retenu l’attention, ce qui n’est pas une mauvaise chose. Pourtant il semble que cette annonce ait parfois été mal interprétée ou mal relayée. Je vais essayer de résumer les principales erreurs et d’y répondre.

  • Mythe : Debian a retiré tous les firmwares de ses noyaux !
  • Réalité : Non, cette décision ne concerne que les noyaux qui seront inclus dans la prochaine version Debian 6.0 Squeeze. Les noyaux de la version stable actuelle Debian 5.0 Lenny restent tels quels… sauf que, bien sûr, nous réaliserons les mises à jour de sécurité qui s’imposent les concernant, mais ils continueront de contenir les mêmes firmwares qu’actuellement.
  • Mythe : Debian est en train de dégrader ses noyaux en en retirant des choses.
  • Réalité : Debian a transféré certains firmwares de sa section principale (NdT : main) vers sa section non-libre (NdT : non-free). Ils sont toujours présents, dans la section dédiée aux logiciels qui ne répondent à nos critères tels qu’ils résultent des principes du logiciel libre selon Debian (NdT : The Debian Free Software Guidelines – ou DFSG).
  • Mythe : La plupart des utilisateurs ne vont plus pouvoir installer Debian.
  • Réalité : les firmwares non-libres resteront disponibles à travers notre infrastructure. Ceux qui sont requis durant l’installation (par exemple pour contrôler l’accès au réseau ou au périphérique de stockage) peuvent également être chargés durant l’installation (qu’ils soients sur un CD ou une clé USB). Nous proposons des archives compressées de ces fichiers (décompressez les simplement sur une clé USB et branchez-la quand cela vous est demandé durant l’installation) ainsi que des images ISO permettant de créer un CD d’installation par le réseau qui contiennent déjà ces fichiers. Bien entendu, elles vont continuer d’exister, même aprés la publication de Squeeze.
  • Mythe : Ces fimwares sont requis, les ôter ne sert à rien et ne rend pas service à l’utilisateur.
  • Réalité : Oui, ces firmwares sont en effet nécessaires au fonctionnement de certains pilotes de certains matériels. Mais tout le monde n’en veut pas. À présent que nous sommes capables de charger ces firmwares sur demande (au lieu de devoir les compiler dans le pilote lui-même), nous pouvons les proposer séparément. Cela permet ainsi à ceux qui ont besoin de firmwares non-libres de les utiliser tandis que que ceux qui n’en veulent pas bénéficieront d’une installation qui en sera dénuée.
  • Mythe : Ah, encore un coup des fêlés de la liberté du projet Debian…
  • Réalité : Il n’y a pas que nous en réalité : nous n’y serions jamais parvenus sans la coopération d’un certain nombre de développeurs du noyau Linux. Et nous ne sommes pas les seuls intéressés par la création d’un noyau libre, d’autres distributions importantes ont également conscience du problème. Citons par exemple le récent commentaire d’un développeur du projet Fedora évoquant des changements dans un de ces firmwares non-libres. Il semble donc que Debian ait simplement été le premier à réaliser le problème des firmwares non-libres.
  • Mythe : Debian fait allégeance à Stallman.
  • Réalité : Je ne me suis pas entretenu avec Richard Stallman à ce sujet mais je pense que Debian n’est pas encore assez libre pour lui ; pour autant que je sache, il aimerait la disparition pure et simple de la section non-libre, ou au minimum qu’elle ne soit plus mentionnée nulle part.

Il reste donc une question : qu’il y a t-il de mal avec les firmwares non-libres ? Ne s’agit-il pas simplement de petits programmes exécutés par le microprocesseur du périphérique concerné ? Pourquoi s’en faire ? Bonne question ! Mettons de côté les problèmes juridiques qui sont susceptibles de se poser, et concentrons-nous sur l’aspect pratique. Le nœud du problème tient au fait que, sans leur code source (et les outils pour les compiler), les firmwares ne sont qu’une suite aléatoire de nombres pour nous. Nous ne savons pas ce qu’ils font, nous ne pouvons pas les analyser ni les améliorer. Nous ne pouvons pas les changer, nous ne pouvons pas assurer leur suivi. Peut-être avez-vous été lire le commentaire du développeur Fedora dont le lien a été donné plus haut ? Je le cite à nouveau car il me semble qu’il a très bien résumé le problème :

Mise à jour des firmwares qlogic 2400 et 2500 vers la version 5.03.13. Que fait la version 5.03.13 ? Personne ne le sait hormis QLogic et ils ne le disent pas. Je leur ai posé la question et ils m’ont répondu que l’information ne pouvait être donnée sans accord de confidentialité. Je vous invite donc à imaginer ce que fait ce firmware et les bogues qu’il corrige. Tant que vous y êtes, imaginez un monde où les fabricants publieraient le code source de leurs firmwares.

À présent que vous savez que nous ne pouvons assurer le suivi de ces firmwares, vous pourriez vous demander si c’est vraiment utile de toute façon. Quels dégâts pourraient bien faire à votre ordinateur un simple petit programme logé dans un périphérique ? Eh bien un scientifique a déjà fait la démonstration d’un firmware pour certaines cartes réseau qui dissimulait un cheval de troie. Donc non seulement c’est un problème en soi, mais cela peut même être un problème de sécurité !

Résumons-nous. Oui, Debian a modifié quelque chose dans ses noyaux. Non, ils vont continuer de fonctionner comme d’habitude. Certains utilisateurs devront peut-être activer le dépôt non-libre mais ce n’est pas obligatoire. Les firmwares nécessaires à l’installation sont aussi disponibles et peuvent être chargés lors du processus d’installation. Alors pourquoi tout ce ramdam ?

À propos, ceux d’entre vous qui craignent de ne pas se rappeler les liens des images ISO et des archives compressées, souvenez-vous de deux choses: wiki et Firmware. Vous trouverez tout ce dont vous avez besoin sur la page Firmware du wiki Debian.

Notes

[1] Crédit photo : Mark Robinson (Creative Commons By)




Wikipédia ou quand prendre soin peut faire des miracles

Alice Popkorn - CC by-saComme tout miracle il était imprévu, mais en l’occurrence il a bien eu lieu.

C’est que nous rappelle ici Clay Shirky, considéré comme l’une des têtes pensantes du Web.

Parce que « si on pose un regard traditionnel sur le fonctionnement du monde, Wikipédia ne devrait même pas exister ».

Et pourtant cette encyclopédie tourne. Et elle tourne parce que suffisamment de gens se sentent concernés et veulent en prendre soin. C’est le double et joli sens du verbe « to care » (plus proche ici de Bernard Stiegler que de Martine Aubry !).

« Imaginez un mur sur lequel il serait plus facile d’effacer des graffitis que d’en rajouter. La quantité de graffitis dépendrait alors du degré de motivation de ses défenseurs. Il en va de même pour Wikipédia : Si tous ses fervents participants ne se sentaient plus concernés, tout le projet s’écroulerait en moins d’une semaine, envahie par les vandales et autres spammers. Si vous pouvez continuer à voir Wikipédia en ce moment même, cela veut dire qu’une fois de plus le bien a triomphé du mal. »[1]

Cet article vient clore en beauté notre petite série d’articles consacrés à Wikipédia à l’occasion de la célébration de son dixième anniversaire.

Wikipédia – un miracle imprévu

Wikipedia – an unplanned miracle

Clay Shirky – 14 janvier 2011 – The Guardian
(Traduction Framalang : DaphneK)

Depuis sa naissance il y a tout juste dix ans, Wikipédia s’améliore de jour en jour. C’est pourtant incroyable qu’il puisse même exister.

Wikipédia est l’outil de référence le plus utilisé au monde. Cette affirmation est à la fois ordinaire et stupéfiante : c’est le simple reflet du nombre considérable de ses lecteurs et pourtant, si on pose un regard traditionnel sur le fonctionnement du monde, Wikipédia ne devrait même pas exister. Et encore moins avoir atteint un succès aussi spectaculaire en à peine une dizaine d’années.

Grâce à l’effort cumulé des millions de contributeurs de Wikipédia, il suffit d’un clic pour savoir ce qu’est un infarctus du myocarde, connaître les causes de la guerre de la Bande d’Agacher, ou encore découvrir qui était Spangles Muldoon.

Il s’agit d’un miracle imprévu, comme lorsque « le marché » décide de la quantité de pain disponible en magasin. Wikipédia est cependant encore plus bizarre que le marché : Non seulement tout le contenu est rédigé gratuitement, mais il est aussi disponible gratuitement. Même les serveurs et systèmes d’administration sont financés par des dons. On aurait pourtant eu du mal à imaginer un tel miracle à ses débuts. C’est pourquoi, à l’occasion du dixième anniversaire du site, cela vaut la peine de revenir sur l’invraisemblable histoire de sa genèse.

Il y a dix ans jour pour jour, Jimmy Wales et Larry Sanger s’efforçaient en vain de créer Nupedia, une encyclopédie en ligne dotée d’un système de publication en sept étapes. Malheureusement, cela représentait aussi sept endroits où les choses pouvaient s’immobiliser. Et après presque un an de travail, pratiquement aucun article n’avait encore été publié.

Alors il y a dix ans et un jour, Wales et Sanger décidèrent d’opter pour un wiki, afin de raccourcir une partie du processus. Sanger a alors envoyé un mail aux collaborateurs de Nupedia en les informant de cette nouveauté : « Faites-moi plaisir. Allez-y et ajoutez un petit article. Cela prendra cinq ou dix minutes, grand maximum. »

Le « Faites-moi plaisir » était nécessaire car le wiki est le média social par excellence. Inventé au milieu des années 90 par Ward Cunningham, le wiki n’a qu’une fonction primordiale : produire immédiatement du contenu. Pas besoin de permission pour ajouter, modifier ou supprimer du texte, et une fois le travail terminé, pas besoin de permission non plus pour le publier.

Mais ce qui est plus intéressant, c’est qu’au centre du wiki se trouve une seule action sociale qui pourrait se résumer à : je me sens concerné (NdT : I care, que l’on aurait aussi pu traduire par « J’en prends soin »). Les gens qui rédigent des pages sont ceux qui se sentent assez concernés pour les rédiger. Confier le travail à ces gens plutôt qu’aux sacro-saints experts était quelque chose de tellement audacieux, que Wales et Sanger décidèrent de ne pas remplacer Nupedia par le wiki, ce dernier n’étant là que comme une sorte de brouillon pour Nupedia.

Les participants, cependant, ne l’entendaient pas ainsi. La possibilité de créer un article en cinq minutes et d’en améliorer un autre encore plus rapidement devint une pratique si communicative qu’en quelques jours à peine, il y eut plus d’articles sur le wiki nouveau-né que sur Nupedia. Le wiki fut tellement performant et si différent de Nupedia qu’il migra vite sur un site à part entière. Wikipédia était né (quelques mois plus tard, Nupedia ferma définitivement et Sanger abandonna le projet).

C’est ce processus qui se poursuit aujourd’hui, transformant Wikipédia en un miracle ordinaire pour plus de 250 millions de personnes par mois. Chaque jour de ces dix dernières années, Wikipédia s’est amélioré car quelqu’un – plusieurs millions de quelqu’un en tout – a décidé de l’améliorer.

Parfois il s’agit de commencer un nouvel article. La plus souvent il faut juste retoucher un texte déjà rédigé. Parfois il faut défendre Wikipédia contre le vandalisme. Mais il faut toujours se sentir concerné. La plupart des participants se sentent un peu concernés, ne rédigeant qu’un article. Une poignée se sent toutefois très concernée, produisant des centaines de milliers de lignes à travers des milliers d’articles au fil des années. Le plus important c’est que dans l’ensemble, nous avons tous produit assez pour faire de Wikipédia ce qu’il est aujourd’hui. Ce qui nous apparaît comme quelque chose de stable est en fait le résultat d’incessantes tentatives pour préserver ce qui est bon et améliorer ce qui ne l’est pas. Ainsi, Wikipédia ne se définit pas comme un objet, fut-il virtuel, soutenu par une organisation, mais comme une activité qui entraîne une encyclopédie dans son sillage.

Ce glissement de l’objet vers l’activité a entraîné une des plus incroyables expansions de révisions jamais vue : Le rédacteur en chef de Wikipédia est un quorum tournant composé d’individus particulièrement attentifs. Beaucoup de critiques de Wikipédia se sont concentrées sur le fait que le logiciel laisse n’importe qui écrire n’importe quoi. Ce qui leur échappe, c’est que les liens sociaux entre ces éditeurs motivés permet justement de contrôler cette fonctionnalité. Si le logiciel permet facilement de causer des dégâts, il permet tout aussi facilement de les réparer.

Imaginez un mur sur lequel il serait plus facile d’effacer des graffitis que d’en rajouter. La quantité de graffitis dépendrait alors du degré de motivation de ses défenseurs. Il en va de même pour Wikipédia : Si tous ses fervents participants ne se sentaient plus concernés, tout le projet s’écroulerait en moins d’une semaine, envahie par les vandales et autres spammers. Si vous pouvez continuer à voir Wikipédia en ce moment même, cela veut dire qu’une fois de plus le bien a triomphé du mal.

Bien sûr, Wikipédia n’est pas parfait. Beaucoup d’articles médiocres ont besoin d’être améliorés. L’âge, le sexe ou le groupe ethnique des rédacteurs ne sont pas assez variés et les biographies des personnes vivantes sont continuellement truffées d’erreurs. De plus, les protections mises en place contre les vandales et les spammers font bien souvent fuir les novices et épuisent les anciens. Mais Wikipédia n’est pas seulement une activité au niveau des articles. Partant de la production individuelle pour atteindre la culture de tous, Wikipédia est un bien commun créé par le public. C’est donc aux gens qui se sentent concernés d’essayer aussi de résoudre ces problèmes. Tant que cette culture continuera de considérer « soyez audacieux » comme valeur principale, le site demeurera l’un des actes collectifs de générosité les plus importants de l’Histoire.

Souhaitons donc un joyeux anniversaire à Wikipédia, accompagné de chaleureux remerciements aux millions de personnes qui ont ajouté, modifié, discuté, rectifié, ces gens qui ont créé l’outil de référence le plus utilisé au monde. Merci de nous raconter l’histoire des émeutes de Stonewall et comment Pluton a été reléguée au rang de « planète naine », merci de nous parler de la vallée du grand rift et du tsunami de l’Océan Indien, des rascasses volantes, des « Tiger teams » et du « Bear Market ».

Et avec nos meilleurs vœux pour ce dixième anniversaire, souhaitons d’être assez nombreux à nous sentir concernés pour permettre à Wikipédia de souffler ses vingt bougies en parfaite santé.

Notes

[1] Crédit photo : AlicePopkorn (Creative Commons By-Sa)




À quoi ça sert de s’activer sur Internet ? Doctorow répond à Morozov

Anonymous9000 - CC byCory Doctorow est souvent traduit sur ce blog car c’est l’une des rares personnalités qui pense l’Internet et agit en conséquence pour qu’il conserve ses promesses initiales d’ouverture et de partage.

Il a rédigé un long mais passionnant article dans The Guardian qui prend appui sur un lecture (très) critique du récent mais déjà fort commenté livre The Net Delusion: The Dark Side of Internet Freedom de Evgeny Morozov.

Chercheur biélorusse à l’université de Georgetown et chroniqueur dans plusieurs journaux, Morozov remet radicalement en question, dans son ouvrage, le pouvoir libérateur d’Internet.

On peut le voir exposer son point de vue dans cette courte conférence au format TED : Comment Internet aide les dictatures, qui constitue un excellent préambule à ce qui va suivre.

Morozov y dénonce la « cyberutopie » qui draperait la technologie de vertus émancipatrices intrinsèques, comme celle d’être nécessairement vecteur de démocratie pourvu que l’information circule sans entrave (source Rue89). Une « cyberutopie » issue de l’ignorance ou de la paresse intellectuelle de nos contemporains, qui se laissent aller au « web-centrisme » en imaginant que toutes les questions qui se posent dans nos sociétés peuvent être résolues par le prisme d’Internet (source Webdorado). Cliquer sur « J’aime » ou rejoindre une cause sur Facebook, relayer frénétiquement une information non vérifiée sur Twitter, n’ont jamais révolutionné la société,

On comprendra dès lors aisément que le « net-activiste » Cory Doctorow ait pris sa plume pour répondre dans le détail à l’argumentaire de Morozov.

Internet n’est certainement pas synonyme de libération. Mais ce réseau possède des caractéristiques particulières qui font qu’il ne ressemble à rien de ce que l’on a connu auparavant. Raison de plus pour se battre afin de conserver son principe de neutralité et faire en sorte qu’il échappe au contrôle des États et aux logiques mercantiles des entreprises privées.

Wikileaks et ses anonymous[1], hier la Tunisie, l’Égypte aujourd’hui… L’actualité récente n’est pas évoquée, mais il semblerait qu’elle penche plutôt du côté de Doctorow que de celui de Morozov.

Nous avons besoin d’une critique sérieuse de l’activisme sur le Net

We need a serious critique of net activism

Cory Doctorow – 25 janvier 2011 – The Guardian
(Traduction Framalang : Penguin, Barbidule, Gilles, Siltaar, e_Jim, Goofy et Don Rico)

« Net Delusion » (NdT : que l’on pourrait traduire par « Les mirages du Net » ou « Internet, la désillusion ») avance la thèse que la technologie ne profite pas nécessairement à la liberté, mais par quel autre moyen les opprimés se feront-ils entendre ?

Net Delusion est le premier livre de l’écrivain et blogueur d’origine biélorusse Evgeny Morozov, dont le thème de prédilection est la politique étrangère. Morozov s’est bâti une réputation de critique pointu, et parfois mordant, d’Internet et du « cyber-utopisme », et ” Net Delusion ” développe les arguments qu’il a déjà présentés ailleurs. J’ai lu avec intérêt l’exemplaire que j’ai reçu en service de presse. J’apprécie Evgeny, lors de nos rencontres et de nos échanges de courriers, il m’a donné l’impression d’être intelligent et engagé.

Au cœur du livre, on trouve des remarques extrêmement judicieuses. Morozov a tout à fait raison lorsqu’il souligne que la technologie n’est pas intrinsèquement bonne pour la liberté, qu’on peut l’utiliser pour entraver, surveiller et punir, aussi facilement que pour contourner, libérer et partager.

Hélas, ce message est noyé au milieu d’une série d’attaques confuses et faiblement argumentées contre un mouvement « cyber-utopique » nébuleux, dont les points de vue sont évoqués en termes très généraux, souvent sous la forme de citations de CNN et d’autres agences de presse censées résumer un hypothétique consensus cyber-utopique. Dans son zèle à discréditer cette thèse, Morozov utilise tous les arguments qu’il peut trouver, quelle que soit leur faiblesse ou leur inanité, contre quiconque fait mine de soutenir que la technologie est libératrice.

Le rôle de Twitter

Morozov tente d’abord de remettre les pendules à l’heure sur le rôle qu’a joué Twitter lors des dernières élections iraniennes. On a présenté partout le réseau de microblogage comme un outil fondamental pour les initiatives de l’opposition sur le terrain, mais par la suite, il est apparu clairement que les Iraniens d’Iran n’avaient été présents que marginalement sur Twitter, bien qu’ils aient utilisé beaucoup d’autres outils de diffusion et que ceux-ci aient été en effet essentiels dans la réaction à l’élection iranienne.

Morozov décrit minutieusement le fait que beaucoup des trois millions d’Iraniens expatriés sont en effet actifs sur Twitter, et que c’est ce trafic, ainsi que les messages de sympathie d’utilisateurs non-iraniens, qui ont fait de l’élection iranienne et de ses conséquences un évènement majeur sur Twitter.

Il décrit également les liens étroits que ces expatriés ont avec leur famille en Iran, grâce à d’autres outils tels que Facebook. Mais il manque d’en conclure que les informations issues de Twitter ont trouvé écho sur Facebook (et vice-versa) via les Iraniens de l’étranger. Il préfère considérer que les millions d’expatriés Iraniens publiant des messages sur Twitter sont tellement isolés de leur proches relations sur Facebook que ces messages n’ont eu presque aucun impact.

Presque aucun, mais un impact quand même. Morozov poursuit en citant Golnaz Esfandiari, une correspondante de Radio Free Europe en Iran, « déplorant la complicité pernicieuse de Twitter qui a permis aux rumeurs de se propager » en Iran pendant la crise. J’ai été choqué de lire cela dans l’ouvrage de Morozov : comment Twitter pourrait-il être « complice » de la propagation de rumeurs ; Esfandiari or Morozov attendaient-ils des fournisseurs de services sur Internet qu’ils censurent de façon pro-active les contributions des utilisateurs avant de les laisser se diffuser librement sur ur leurs réseaux ? Et si c’était le cas, Morozov pensait-il vraiment que Twitter deviendrait un meilleur soutien de la liberté sur Internet en s’auto-proclamant censeur ?

Cela m’a tellement stupéfait que j’ai envoyé un e-mail à Morozov pour lui demander ce que le lecteur était censé y comprendre au juste. Morozov m’a répondu que d’après lui Esfandiari ne s’était pas exprimée clairement ; elle voulait dire que c’étaient les utilisateurs de Twitter qui étaient « complices » de la propagation des rumeurs. C’est sans doute mieux, mais sans preuves que Twitter n’est fait que pour propager de fausses rumeurs, cela ne suffit pas pour inculper Twitter. Pourquoi alors ce passage figure-t-il dans le livre – sachant que Morozov n’a cessé d’affirmer dans les pages précédentes qu’aucune information postée sur Twitter n’avait atteint l’Iran – si ce n’est comme un pan de la stratégie qui consiste à discréditer les « cyber-utopistes » en balançant tous les arguments possibles en espérant que certains tiennent debout ? Et je pense que c’est le cas : par la suite, Morozov reproche à la « culture Internet » la « persistance de nombreuses légendes urbaines », une idée fort singulière puisque des chercheurs spécialisés en légendes urbaines, tels que Jan Brunvand, ont montré que de nombreuses légendes urbaines contemporaines proviennent du Moyen-Âge et ont prospéré sans avoir besoin d’Internet comme moyen de reproduction.

Technologie et révolution

Morozov est sceptique quant à la capacité de la technologie à déclencher des révolutions et étendre la démocratie. Pour renverser un régime corrompu, dit-il, avoir librement accès à l’information n’est ni nécessaire, ni même important – c’est une antienne des Reaganistes avec leur vision romantique de Samizdat, Radio Free Europe et autres efforts d’information remontant à la guerre froide. L’Union soviétique ne s’est pas effondrée à cause d’un mouvement politique, de courageux dissidents ou de tracts photocopiés – elle s’est écroulée parce qu’elle était devenue un cauchemar mal géré qui a chancelé de crise en crise jusqu’à l’implosion finale.

En effet, le libre accès aux médias étrangers (comme en bénéficiaient les citoyens de RDA qui pouvaient capter les programmes d’Allemagne de l’Ouest) a souvent contribué à désamorcer le sentiment anti-autoritaire, anesthésiant les Allemands de l’Est avec tant d’efficacité que même la Stasi avait fini par chanter les louanges de la décadente télévision occidentale.

L’ironie, c’est que Morozov – involontairement, mais avec vigueur – rejoint sur ce point ses adversaires idéologiques, comme Clay Shirky, le professeur de l’université de New York que Morozov critique lourdement par ailleurs. Les travaux de Shirky – notamment le dernier en date, The Cognitive Surplus – parviennent exactement aux mêmes conclusions au sujet des médias occidentaux traditionnels, et en particulier de la télévision. Shirky soutient que la télé a principalement servi à atténuer le poids de l’ennui né de l’accroissement du temps de loisirs aux premiers jours de l’ère de l’information. Pour Shirky, Internet est palpitant parce qu’il constitue justement l’antidote à cette attitude de spectateur passif, et qu’il constitue un mécanisme incitant les gens à la participation au travers d’une succession d’engagements toujours plus importants.

Régulation et contrôle

Morozov ne discute cependant pas cette position en profondeur. En fait, quand il examine enfin Internet en tant que tel, indépendamment des réseaux téléphoniques, des programmes télé et des autres médias, il se contente de tourner en ridicule les « gourous de la technologie », qui « révèlent leur méconnaissance de l’histoire » lorsqu’ils se lancent dans des « tirades quasi-religieuses à propos de la puissance d’internet ». Il illustre cette caricature par un florilège de citations stupides, soigneusement choisies parmi deux décennies de discours sur Internet, mais il laisse soigneusement de côté tout le travail sérieux sur l’histoire du Net en tant que média pleinement original – et notamment, il oublie de mentionner ou de réfuter la critique posée par Timothy Wu dans l’excellent livre The Master Switch, paru l’an dernier.

Wu, professeur de droit des télécommunications, retrace avec mordant l’histoire de la régulation des médias en réponse à la possible décentralisation des monopoles et oligopoles dans les télécommunications. Replacé dans ce contexte, Internet apparaît véritablement comme un phénomène original. Morozov sait bien sûr qu’Internet est différent, il le reconnaît lui-même lorsqu’il parle de la manière dont le Net peut imiter et supplanter d’autres médias, et des problèmes que cela engendre.

C’est là que réside la plus sérieuse faiblesse de Net Delusion : dans ce refus de se confronter aux meilleurs textes sur le thème d’Internet et de sa capacité extraordinaire à connecter et émanciper. Quand Morozov parle des menaces pour la sécurité des dissidents lorsqu’ils utilisent Facebook – ce qui revient à faire de jolies listes de dissidents prêtes à être utilisées par les polices secrètes des États oppresseurs – il le fait sans jamais mentionner le fait que, de longue date, des avertissements pressants sur ce sujet ont été lancés par l’avant-garde des « cyber-utopistes », incarnée par des groupes comme l’Electronic Frontier Foundation, NetzPolitik, Knowledge Ecology International, Bits of Freedom, Public Knowledge, et des dizaines d’autres groupes de pression, d’organisations d’activistes et de projets techniques dans le monde entier.

Bien évidemment, presqu’aucune mention n’est faite des principaux défenseurs de la liberté du Net, tel que le vénérable mouvement des cypherpunks, qui ont passé des décennies à concevoir, diffuser et soutenir l’utilisation d’outils cryptographiques spécialement conçus pour échapper au genre de surveillance et d’analyse du réseau qu’il identifie (à juste titre) comme étant implicite dans l’utilisation de Facebook, Google, et autres outils privés et centralisés, pour organiser des mouvements politiques. Bien que Morozov identifie correctement les risques que les dissidents prennent pour leur sécurité en utilisant Internet, son analyse technique présente des failles sérieuses. Lorsqu’il avance, par exemple, qu’aucune technologie n’est neutre, Morozov néglige une des caractéristiques essentielles des systèmes cryptographiques : il est infiniment plus facile de brouiller un message que de casser le brouillage et de retrouver le message original sans avoir la clé.

Battre la police secrète à son propre jeu

En pratique, cela signifie que des individus disposant de peu de ressources et des groupes dotés de vieux ordinateurs bon marché sont capables de tellement bien chiffrer leurs messages que toutes les polices secrètes du monde, même si elles utilisaient tous les ordinateurs jamais fabriqués au sein d’un gigantesque projet s’étalant sur plusieurs décennies, ne pourraient jamais déchiffrer le message intercepté. De ce point de vue au moins, le jeu est faussé en faveur des dissidents – qui jouissent pour la première fois du pouvoir de cacher leur communication hors d’atteinte de la police secrète – au détriment de l’État, qui a toujours joui du pouvoir de garder ses secrets ignorés du peuple.

La façon dont Morozov traite de la sécurité souffre d’autres défauts. C’est une évidence pour tous les cryptologues que n’importe qui peut concevoir un système si sécurisé que lui-même ne peut pas trouver de moyen de le casser (ceci est parfois appelé la « Loi de Schneier », d’après le cryptologue Bruce Schneier). C’est la raison pour laquelle les systèmes de sécurité qui touchent à des informations critiques nécessitent toujours une publication très large et un examen des systèmes de sécurité par les pairs. Cette approche est largement acceptée comme la plus sûre, et la plus efficace, pour identifier et corriger les défauts des technologies de sécurité.

Pourtant, lorsque Morozov nous relate l’histoire de Haystack, un outil de communication à la mode censé être sécurisé, soutenu par le ministère américain des Affaires étrangères, et qui s’est révélé par la suite totalement non-sécurisé, il prend pour argent comptant les déclarations du créateur de Haystack affirmant que son outil devait rester secret car il ne voulait pas que les autorités iraniennes fassent de la rétro-ingénierie sur son fonctionnement (les vrais outils de sécurité fonctionnent même lorsqu’ils ont fait l’objet d’une rétro-ingénierie).


Au lieu de cela, Morozov concentre ses critiques sur l’approche « publier tôt, publier souvent » (NdT : Release early, release often) des logiciels libres et open source, et se moque de l’aphorisme « avec suffisamment de paires d’yeux, les bugs disparaissent » (NdT appelé aussi Loi de Linus). Pourtant, si cela avait été appliqué à Haystack, cela aurait permis de révéler ses défauts bien avant qu’il n’arrive entre les mains des activistes iraniens. En l’occurrence, Morozov se trompe complètement : si l’on veut développer des outils sécurisés pour permettre à des dissidents de communiquer sous le nez de régimes oppressifs, il faut largement rendre public le fonctionnement de ces outils, et les mettre à jour régulièrement au fur et à mesure que des pairs découvrent de nouvelles vulnérabilités.

Morozov aurait bien fait de se familiariser avec la littérature et les arguments des technologues qui s’intéressent à ces questions et y ont réfléchi (les rares fois où il leur accorde son attention c’est pour se moquer des fondateurs de l’EFF : Mitch Kapor pour avoir comparé Internet à un discours de Jefferson, et John Perry Barlow pour avoir écrit une Déclaration d’indépendance du cyberespace). Certains des experts les plus intelligemment paranoïaques au monde ont passé plus de vingt ans à imaginer les pires scénarios catastrophes technologiquement plausibles, tous plus effrayants que les spéculations de Morozv – comme son hypothèse farfelue selon laquelle la police secrète pourrait un jour prochain avoir la technologie pour isoler des voix individuelles dans un enregistrement de milliers de manifestants scandant des slogans, pour les confronter à une base de données d’identités.

Surveiller les surveillants

Le tableau que dépeint Morozov de la sécurité des informations est trompeusement statique. Notant que le web a permis un degré de surveillance alarmant par des acteurs commerciaux tels les réseaux de publicité, Morozov en tire la conclusion que cette sorte de traçage sera adoptée par les gouvernements adeptes de censure et d’espionnage. Mais les internautes sensibles à la menace des publicitaires peuvent sans difficulté limiter cet espionnage à l’aide de bloqueurs de pub ou de solutions équivalentes. Il est déplorable qu’assez peu de personnes tirent avantage de ces contre-mesures, mais de là à supposer que les dissidents sous des régimes répressifs auront la même confiance naïve dans leur gouvernement que le client moyen envers les cookies de traçage de Google, il y a un pas énorme à franchir. Dans l’analyse de Morozov, votre vulnérabilité sur le web reste la même, que vous ayez un a priori bienveillant ou hostile à l’égard du site que vous visitez ou du mouchard qui vous préoccupe.

Morozov est également prêt à faire preuve d’une improbable crédulité lorsque cela apporte de l’eau à son moulin – par exemple, il s’inquiète du fait que le gouvernement chinois ait imposé d’installer un programme de censure obligatoire, appelé « barrage vert », sur tous les PC, même si cette manœuvre a été tournée en ridicule par les experts en sécurité du monde entier, qui ont prédit, à raison, que cela serait un échec lamentable (si un programme de censure n’est pas capable d’empêcher votre enfant de 12 ans de regarder du porno, il n’empêchera pas des internautes chinois éduqués de trouver des informations sur Falun Gong). Dans le même temps, Morozov oublie complètement d’évoquer les projets de l’industrie du divertissement consistant à exploiter l’« informatique de confiance » dans le but de contrôler l’utilisation de votre PC et de votre connexion à Internet, ce qui constitue une menace plus crédible et plus insidieuse pour la liberté du Net.

Morozov n’est pas le seul à avoir cette vision erronée de la sécurité sur Internet. Comme il le fait remarquer, l’appareil diplomatique occidental regorge d’imbéciles heureux prenant leurs désirs pour la réalité en matière de technologie. L’experte de la Chine Rebecca MacKinnon, que l’auteur cite tout au long de Net Delusion, raille l’obstination aveugle des ingénieurs et des diplomates à percer les pare-feux de la censure (comme la « grande e-muraille de Chine »), alors même qu’ils négligent d’autres risques beaucoup plus importants et pernicieux que le politburo de Pékin fait peser sur la liberté. Si Net Delusion a pour but d’amener le corps diplomatique à écouter d’autres groupes d’experts, ou d’inciter la presse généraliste à mieux rendre compte des possibilités de la technologie, je suppose que c’est admirable. Mais je crois que Morozov espère toucher des personnes au-delà de la Maison Blanche, Bruxelles, ou Washington ; j’ai l’impression qu’il espère que le monde entier va cesser d’attendre de la technologie qu’elle soit une force libératrice, pour plutôt faire confiance à… à quoi donc ?

Je n’en suis pas sûr. Morozov voudrait semble-t-il voir le chaos des mouvements populaires remplacé par une espèce d’activisme bien ordonné et impulsé depuis le sommet, mené par des intellectuels dont les réflexions ne peuvent pas s’exprimer de manière concise dans des tweets de 140 caractères. Morozov se voit-il lui-même comme l’un de ces intellectuels ? Voilà un point qui n’est jamais exprimé clairement.

Il est important de se poser la question de la place des discours sérieux à l’ère d’Internet, et Morozov essaie ici d’étayer ses arguments techniques avec des arguments idéologiques. De son point de vue, Internet n’est que le dernier avatar d’une série de technologies de communication qui ne propagent que futilités, rumeurs et inepties, évinçant ainsi les pensées et les réflexions sérieuses. Il n’est pas le premier à remarquer que des médias qui livrent des informations à un rythme effréné conduisent à réfléchir de manière rapide et papillonnante ; Morozov cite le livre de Neil Postman publié en 1985, « Amusing Ourselves to Death » (NdT : « Se distraire à en mourir »), mais il aurait tout aussi bien pu citer Walden ou la vie dans les bois, de Henry David Thoreau : « Nous sommes prêts à creuser un tunnel sous l’Atlantique pour rapprocher de quelques semaines l’Ancien monde du Nouveau ; mais la première nouvelle qui passera jusqu’aux oreilles américaines sera sans doute que la princesse Adélaïde a la coqueluche. »

« Internet nous rendra stupide »

En d’autres termes, les intellectuels se sont de tout temps lamentés sur la futilisation inhérente aux médias de masse – je ne vois pas de grande différence entre les arguments de l’Église contre Martin Luther (permettre aux laïcs de lire la Bible va futiliser la théologie) et ceux de Thoreau, Postman et Morozov qui prétendent qu’Internet nous rend stupides car il nous expose à trop de « LOLCats ».

Mais comme le fait remarquer Clay Shirky, il existe une différence fondamentale entre entendre parler de la santé de la princesse Adélaïde grâce au télégraphe ou suivre les rebondissements de Dallas à la télévision, et faire des « LOLCats » sur le Net : créer un « LOLCat » et le diffuser dans le monde entier est à la portée de tous. Autrement dit, Internet offre la possibilité de participer, d’une manière que les autres médias n’avaient même jamais effleurés : quiconque a écrit un manifeste ou une enquête peut les mettre largement à disposition. Dans un monde où chacun est en mesure de publier, il devient plus difficile, c’est vrai, de savoir à quoi il faut prêter attention, mais affirmer que la liberté serait mieux servie en imposant le silence à 90% de la population afin que les intellectuels aient le champ libre pour éduquer les masses est complètement stupide.

Pourtant, Morozov présente comme un inconvénient la facilité à publier en ligne. D’abord parce que d’après lui les futilités finissent par submerger les sujets sérieux, ensuite parce que des cinglés nationalistes anti-démocratie peuvent utiliser le Net pour attiser la haine et l’intolérance, et enfin parce que les difficultés que l’on rencontrait autrefois pour s’organiser politiquement constituaient un moyen en soi de forger son engagement, les risques et les privations associés à la dissidence renforçant la résolution des opposants.

Il est vrai qu’Internet a mis à portée de clic plus de futilités que jamais auparavant, mais c’est seulement parce qu’il a mis à portée de clic davantage de tout. Il n’a jamais été aussi simple qu’aujourd’hui de publier, lire et participer à des discussions sérieuses et argumentées. Et même s’il existe une centaine (ou un millier) de Twitteurs futiles pour chaque blog sérieux et pertinent, du genre de Crooked Timber, il existe davantage de points d’entrée pour des discussions sérieuses – que ce soit sur des blogs, des forums, des services de vidéo, ou même sur Twitter – qu’il n’y en a jamais eu auparavant dans toute l’histoire de l’humanité.

Il est tentant d’observer toute cette diversité et d’y voir une caisse de résonance dans laquelle les personnes ayant les mêmes points de vue étriqués se rassemblent et sont toutes d’accord entre elles, mais un coup d’œil rapide sur les débats enflammés qui sont la marque de fabrique du style rhétorique d’Internet suffit pour nous en dissuader. En outre, si nous étions tous enfermés dans une caisse de résonance se limitant à une mince tranche de la vie publique, comment se fait-il que toutes ces futilités – vidéos marrantes de Youtube, coupures de presse people fascinantes et liens vers l’étrange et le saugrenu – continuent à parvenir jusqu’à nos écrans ? (Morozov essaie ici d’avoir le beurre et l’argent du beurre, en nous prévenant que nous sommes à la fois en danger de nous noyer dans des futilités, et que l’effet de caisse de résonance va tuer la sérendipité).

Je suis moins inquiet que Morozov sur le fait que le Net fournisse un refuge aux fous littéraires à tendance paranoïaque, aux racistes hyper-nationalistes et aux hordes de tarés violents. Les gens qui croient en la liberté d’expression ne doivent pas s’affliger du fait que d’autres utilisent cette liberté pour tenir des propos mauvais, méchants ou stupides ; comme le dit le mantra de la libre expression : « La réponse à de mauvaises paroles est davantage de paroles ».

Pour la liberté

Sur ce point également Internet n’est pas neutre, et penche plutôt en faveur des défenseurs de la liberté. Les gouvernements puissants ont toujours eu la possibilité de contrôler la parole publique par le biais de la censure, des médias officiels, de la tromperie, des agents provocateurs et de bien d’autres moyens visibles ou invisibles. Mais ce qui est original, c’est que les oligarques russes utilisant Internet pour faire de la propagande sont désormais obligés de le faire en utilisant un média que leurs opposants idéologiques peuvent également exploiter. A l’époque soviétique, les dissidents se limitaient d’eux-mêmes à des chuchottements et des samizdat copiés à la main ; de nos jours, leurs héritiers peuvent lutter à armes égales avec les propagandistes de l’Etat sur le même Internet, un lien plus loin. Bien sûr, c’est risqué, mais le risque n’est pas nouveau (et la création et l’amélioration d’outils permettant l’anonymat, ouverts et validés par des pairs, ouvre de nouvelles perspectives en terme de limitation des risques) ; ce qui est nouveau c’est le remplacement de canaux de propagande unidirectionnels, comme la télévision (qu’elle diffuse des contenus de l’Est ou de l’Ouest) par un nouveau média qui permet de placer n’importe quel message à côté de n’importe quel autre grâce à des concepts puissants comme les hyperliens.

Je partage avec Morozov l’ironie de la situation lorsque les radicaux islamistes utilisent Internet pour honnir la liberté, mais alors que Morozov trouve ironique que les outils de la liberté puissent être utilisés pour embrasser la censure, je trouve ironique que pour se faire entendre, des apprentis-censeurs s’appuient sur le caractère universellement accessible d’un des médias les plus difficiles à censurer jamais conçus.

Sur le fait que la privation est fondamentale pour renforcer l’engagement des activistes, je suis confiant dans le fait que pour chaque tâche automatisée par Internet, de nouvelles tâches, difficiles à simplifier, vont apparaître et prendre leur place. En tant qu’activiste politique durant toute ma vie, je me souviens des milliers d’heures de travail que nous avions l’habitude de consacrer à l’affichage sauvage, au remplissage d’enveloppes ou aux chaînes téléphoniques simplement dans le but de mobiliser les gens pour une manifestation, une pétition ou une réunion publique (Morozov minimise la difficulté de tout cela, lorsqu’il suppose, par exemple, que les Iraniens apprendraient par le bouche à oreille qu’une manifestation va avoir lieu, quels que soient les outils disponibles, ce qui m’amène à croire qu’il n’a jamais essayé d’organiser une manifestation à l’époque où Internet n’existait pas). Je suis convaincu que si nous avions eu la possibilité d’informer des milliers de gens d’un simple clic de souris, nous ne serions pas ensuite rentrés tranquillement chez nous ; ce travail besogneux engloutissait la majeure partie de notre temps et de notre capacité à imaginer de nouvelles façons de changer les choses.

En outre, Morozov ne peut pas gagner sur les deux tableaux : d’un côté, il tire le signal d’alarme à propos des groupes extrémistes et nationalistes qui sont constitués et motivés par le biais d’Internet en vue de réaliser leurs opérations terrifiantes ; et quelques pages plus loin, il nous dit qu’Internet facilite tellement les choses que plus personne ne sera suffisamment motivé pour sortir de chez lui pour faire quoi que ce soit de concret.

Morozov observe les centaines de milliers voire les millions de personnes qui sont motivées pour faire quelques minuscules pas pour le soutien d’une cause, comme par exemple changer son avatar sur Twitter ou signer une pétition en ligne, et il en conclut que la facilité de participer de façon minime a dilué leur énergie d’activiste. J’observe le même phénomène, je le compare au monde de l’activisme tel que je l’ai connu avant Internet, dans lequel les gens que l’on pouvait convaincre de participer à des causes politiques se chiffraient plutôt en centaines ou en milliers, et je constate que tous les vétérans de l’activisme que je connais ont commencé en effectuant un geste simple, de peu d’envergure, puis ont progressivement évolué vers un engagement toujours plus fort et plus profond ; j’en arrive donc à la conclusion que le Net aide des millions de personnes à se rendre compte qu’ils peuvent faire quelque chose pour les causes qui leur tiennent à cœur, et qu’une partie de ces personnes va continuer et en faire toujours plus, petit à petit.

Le pouvoir libérateur de la technologie

La plus étrange des thèses soutenues dans Net Delusion est que la confiance que place l’Occident dans le pouvoir libérateur de la technologie a mis la puce à l’oreille des dictateurs – qui n’étaient auparavant pas intéressés par le contrôle du Net – et a rendu Internet plus difficilement utilisable dans un but de propagation de la liberté. Morozov cite en exemple la réponse des autorités Iraniennes aux affirmations outrancières qu’a tenu le Département d’État américain sur le rôle qu’aurait joué Twitter dans les manifestations post-électorales. Selon Morozov, les hommes politiques au pouvoir en Iran étaient en grande partie indifférents au Net, jusqu’à ce que les Américains leur annoncent que celui-ci allait causer leur perte, suite à quoi ils prirent sur eux de transformer Internet en un outil d’espionnage et de propagande à l’encontre de leurs citoyens.

Morozov fait ensuite état de divers dirigeants, comme Hugo Chávez, qui ont utilisé la rhétorique des USA pour appuyer leurs propres projets concernant Internet.

Il accuse également Andrew Mc Laughlin, conseiller technique adjoint du gouvernement des États-Unis, d’avoir fourni des munitions aux dictateurs du monde entier en déclarant publiquement que les compagnies de télécommunications américaines censurent en secret leurs réseaux, car cela a permis aux dictateurs de justifier leurs propres politiques.

C’est peut-être le passage le plus bizarre de Net Delusion, car il revient à dénoncer le fait qu’un homme politique américain combatte la censure sur le territoire national, au prétexte que les dictateurs étrangers seront réconfortés d’apprendre qu’ils ne sont pas les seuls à pratiquer la censure. Il me semble peu vraisemblable que Morozov veuille véritablement que les hommes politiques occidentaux ferment les yeux sur la censure opérée dans leurs pays de peur que l’écho des imperfections de l’Occident ne parvienne à des oreilles hostiles.

Dans la foulée, Morozov nous prévient que les dictateurs ne sont ni des imbéciles ni des fous, mais plutôt des politiciens extrêmement retors, et techniquement très éclairés. Je pense qu’il a raison : la caricature occidentale dépeignant les dictatures comme des idiocraties criminelles vacillantes ne coïncide tout simplement pas avec les réalisations techniques et sociales de ces États – et c’est justement pourquoi je pense qu’il a tort sur les relations entre les dictatures et Internet. Le pouvoir découle directement de mécanismes de communication et d’organisation, et Internet est là depuis suffisamment longtemps pour que tout autocrate accompli en ait pris note. L’idée que l’élite gouvernante de l’Iran n’ait pris conscience du pouvoir d’Internet que lorsque le ministère des affaires étrangères des États-Unis ont publiquement demandé à Twitter de modifier son planning de maintenance (afin de ne pas interférer avec les tweets liés aux élections en Iran) me paraît aussi ridicule que la surestimation, par ce même ministère des affaires étrangères, de l’influence que peut avoir Twitter sur la politique étrangère. Les activistes qui ont fait attention à la manière dont les États autoritaires interfèrent dans l’utilisation d’Internet par leurs citoyens, savent que la méfiance – et la convoitise – à l’égard du pouvoir d’Internet s’est développée dans les dictatures du monde entier depuis le moment où l’opinion publique s’est intéressée à Internet.

Le véritable problème dans la présentation que Morozov fait des « net-utopistes » est qu’ils n’ont rien en commun avec le mouvement que je connais intimement et dont je fais partie depuis une décennie. Là où Morozov décrit des personnes qui voient Internet comme une « force uni-directionnelle et déterministe allant soit vers une émancipation globale, soit vers une oppression globale » ou « qui refusent de reconnaître que le Web peut tout autant renforcer les régimes autoritaires que les affaiblir », je ne vois que des arguments spécieux, des caricatures inspirées des gros titres de CNN, des extraits sonores de porte-paroles de l’administration américaine, et des réparties de conférence de presse.

Tous ceux que je connais dans ce mouvement – des donateurs aux concepteurs d’outils, en passant par les traducteurs, des activistes de choc aux mordus de l’ONU – savent qu’Internet représente un risque tout autant qu’une opportunité. Mais contrairement à Morozov, ces personnes ont un plan pour minimiser les risques émanant de l’utilisation d’Internet (ceci explique pourquoi il y a tant de campagnes autour de la vie privée et des problèmes de censure provenant des logiciels propriétaires, des services de réseaux sociaux et des systèmes centralisés de collecte de données comme Google) et pour maximiser son efficacité en tant qu’outil d’émancipation. Ce plan implique le développement de logiciels libres et la diffusion de pratiques qui garantissent un meilleur anonymat, des communications plus sécurisées, et même des outils abstraits comme des protocoles réseau à divulgation nulle de connaissance qui permettent une large propagation des informations à travers de vastes groupes de personnes sans révéler leurs identités.

Morozov a raison d’affirmer que les hommes politiques occidentaux ont une vue simpliste du lien entre Internet et la politique étrangère, mais ce n’est pas simplement un problème de politique étrangère, ces mêmes hommes politiques ont incroyablement échoué à percevoir les conséquences d’Internet sur le droit d’auteur, la liberté d’expression, l’éducation, l’emploi et tous les autres sujets d’importance. Morozov a raison de dire que les métaphores dignes de la Guerre Froide comme « Grande muraille électronique » occultent autant qu’elles dévoilent (Net Delusion vaut son prix ne serait-ce que pour sa brillante démonstration que les dictatures utilisent autant les « champs » que les « murs » dans leurs stratégies Internet, et que ceux-ci demandent à être « irrigués » plutôt que « renforcés » ou « démolis »).

Mais dans son zèle à éveiller les décideurs politiques aux nuances et aux aspects non-techniques de la politique étrangère, il est approximatif et paresseux. Il affirme que ce qui différencie Internet d’un fax de l’époque des samizdat, c’est qu’Internet est utile tout autant aux oppresseurs qu’aux opprimés – mais je n’ai jamais rencontré de bureaucrate qui n’aimait pas son fax.

Et bien que Morozov tienne à nous montrer que « ce ne sont pas les tweets qui font tomber les gouvernements, c’est le peuple », il déclare ensuite allègrement que le bloc soviétique s’est désagrégé de lui-même, et pas à cause du peuple, qui n’a eu aucun rôle dans cet inévitable coup de balai de l’Histoire. Morozov croit peut-être que c’est exact dans le cas de l’URSS, mais étant donné qu’une large part du reste du livre est consacrée à la situation difficile des dissidents sur le terrain, je pense que l’on peut affirmer que même Morozov serait d’accord avec lui-même pour dire que, parfois, le peuple joue un rôle dans le renversement des régimes autoritaires.

Pour parvenir à ce but, les dissidents ont besoin de systèmes pour communiquer et s’organiser. Toute entreprise humaine qui nécessite le travail de plusieurs personnes doit consacrer une certaine partie de ses ressources au problème de la coordination : Internet a simplifié grandement ce problème (rappelez-vous les heures consacrées par les activistes au simple envoi de cartes postales contenant les informations au sujet d’une prochaine manifestation). En cela, Internet a donné un avantage substantiel aux dissidents et aux outsiders (qui ont, par définition, moins de ressources de départ) par rapport aux personnes détenant le pouvoir (qui, par définition, ont amassé suffisamment de ressources pour en engloutir une partie dans la coordination et en conserver encore suffisamment pour gouverner).

Internet permet à d’avantage de personnes de s’exprimer et de participer, ce qui signifie inévitablement que les mouvements de protestation vont avoir un ensemble d’objectifs plus diffus qu’à l’époque des révolutions autoritaires orchestrées par le haut. Mais Morozov idéalise le consensus des révolutions passées – que ce soit en 1776, 1914 ou 1989, chaque révolution réussie est une fragile coalition d’intérêts et de points de vue antagonistes, rassemblés par le désir commun d’abolir l’ancien système, même s’il n’y a pas de consensus sur ce qui doit le remplacer.

Désormais, Internet est devenu tellement intégré au fonctionnement des États du monde entier qu’il semble difficile d’accorder crédit à la crainte de Morozov selon laquelle, en cas de menace révolutionnaire sérieuse, les gouvernements débrancheraient simplement la prise. Comme Morozov lui-même le fait remarquer, la junte brutale de Birmanie a laissé fonctionner Internet en permanence pendant les violentes répressions des émeutes politiques, en dépit de la désapprobation mondiale qu’elle a subie du fait des compte-rendus diffusés sur Internet; la Chine dépend tellement du Net pour son fonctionnement interne qu’il est impossible d’envisager une coupure du Net à l’échelle nationale (et les coupures régionales, comme celle de la province du Xinjiang pendant les émeutes des Ouïghours, sont justement remarquables par leur caractère exceptionnel).

Le monde a besoin de plus de personnes œuvrant à l’amélioration du sort des activistes qui utilisent Internet (c’est-à-dire de tous les activistes). Nous avons besoin d’un débat sérieux au sujet des tactiques comme les DDoS (distributed denial-of-service attack ou attaques distribuées par déni de service) – qui inondent les ordinateurs avec de fausses requêtes pour les rendre inaccessibles – que certains ont comparés à des sit-in. En tant que personne arrêtée lors de sit-ins, je pense que cette comparaison est fausse. Un sit-in ne tire pas uniquement son efficacité du blocage des portes de tel endroit blâmable, mais de la volonté affichée de se tenir devant ses voisins et d’assumer le risque d’une arrestation ou de blessures au bénéfice d’une cause juste, ce qui confère une légitimité éthique à la démarche et facilite l’adhésion. En tant que tactique, les DDoS s’apparentent plus à de la super glu dans les serrures d’une entreprise ou au sabotage des lignes de téléphone – risqué, c’est certain, mais plus proche du vandalisme et donc moins susceptible de rallier vos voisins à votre cause.

Nous devons réparer l’Internet mobile, qui – reposant sur des réseaux et des appareils fermés – est plus propice à la surveillance et au contrôle que l’Internet filaire. Nous devons nous battre contre les manœuvres– menées par les entreprises du divertissement et les géants de l’informatique comme Apple et Microsoft – consistant à concevoir des machines dont le fonctionnement est secret et échappe au consentement de leur propriétaire, au prétexte de protéger le copyright.

Nous devons prêter attention à Jonathan Zittrain (un autre universitaire que Morozov tout à la fois rejette puis rejoint sans même s’en rendre compte), dont « Le Futur d’Internet » met en garde sur le fait que l’augmentation des crimes, escroqueries et autres fraudes sur le Net fatigue l’utilisateur et rend les gens plus enclins à accepter d’utiliser des appareils et des réseaux verrouillés, pouvant être utilisés aussi bien pour les contrôler que pour les protéger.

Nous avons besoin de tout cela, et surtout d’une critique sérieuse et d’une feuille de route pour l’avenir de l’activisme sur le Net, car les régimes répressifs du monde entier (y compris les soit-disant gouvernements libres de notre Occident) usent pleinement des nouvelles technologies à leur avantage, et le seul moyen pour l’activisme d’être efficace dans cet environnement est d’utiliser les mêmes outils.

Notes

[1] Crédit photo : Anonymous9000 (Creative Commons By)




Quand Wikpédia rime avec le meilleur des USA

Stig Nygaard - CC byNous avons déjà publié des articles sur Wikipédia à l’occasion de son dixième anniversaire, mais aucun qui n’avait cette « saveur si américaine », et c’est justement ce qui nous a intéressé ici.

L’auteur se livre ici à une description pertinente mais classique de l’encyclopédie libre, à ceci près qu’il y fait souvent mention des États-Unis[1].

Si le récent massacre de Tucson symbolise le pire des USA, alors Wikipédia est son meilleur. Et merci au passage à la liberté d’expression toute particulière qui règne dans ce pays.

En lecture rapide, on aurait vite fait de croire que l’encyclopédie est américaine en fait !

Or le contenu du Wikipédia n’appartient à personne puisqu’il appartient à tout le monde grâce aux licences libres attachées à ses ressources. Mais que le créateur, les serveurs (et donc la juridiction qui en découle), le siège et la majorité des membres de cette Fondation, aient tous la même origine n’est ni neutre ni anodin.

On a vu le venin de l’Amérique – Saluons désormais Wikipédia, pionnier made in US du savoir-vivre mondial.

We’ve seen America’s vitriol. Now let’s salute Wikipedia, a US pioneer of global civility

Timothy Garton Ash – 12 janvier 2011 – Guardian.co.uk
(Traduction Framalang : DaphneK)

Malgré tous ses défauts Wikipédia, qui vient de fêter ses dix ans, est le meilleur exemple d’idéalisme à but non-lucratif qu’on puisse trouver sur Internet.

Wikipédia a eu dix ans samedi dernier. C’est le cinquième site Web le plus visité au monde. Environ 400 million de gens l’utilisent chaque mois. Et je pense que les lecteurs de cet article en font certainement partie. Pour vérifier une information, il suffit désormais de la « googliser » puis, la plupart du temps, on choisit le lien vers Wikipedia comme meilleure entrée.

Ce que cette encyclopédie libre et gratuite – qui contient désormais plus de 17 millions d’articles dans plus de 270 langues – a d’extraordinaire, c’est qu’elle est presque entièrement écrite, publiée et auto-régulée par des volontaires bénévoles. Tous les autres sites les plus visités sont des sociétés commerciales générant plusieurs milliards de dollars. Facebook, avec juste 100 millions de visiteurs en plus, est aujourd’hui évalué à 50 milliards de dollars.

Google à Silicon Valley est un énorme complexe fait de bureaux et de bâtiments modernes, comme une capitale surpuissante. On peut certes trouver des pièces de Lego en libre accès dans le foyer, mais il faut signer un pacte de confidentialité avant même de passer la porte du premier bureau. Quant au langage des cadres de Google, il oscille curieusement entre celui d’un secrétaire de l’ONU et celui d’un vendeur de voitures. On peut ainsi facilement passer du respect des Droits de l’Homme au « lancement d’un nouveau produit ».

Wikipédia, par contraste, est géré par une association à but non-lucratif. La Fondation Wikimedia occupe un étage d’un bâtiment de bureau anonyme situé au centre de San Francisco et il faut frapper fort à la porte pour pouvoir entrer. (On parle d’acheter une sonnette pour fêter les dix ans.) A l’intérieur, la fondation ressemble à ce qu’elle est : une modeste ONG internationale.

Si Jimmy Wales, l’architecte principal de Wikipedia, avait choisi de commercialiser l’entreprise, il serait sans doute milliardaire à l’heure actuelle, comme le fondateur de Facebook Mark Zuckerberg. Selon Wales lui-même, placer le site sous licence libre était à la fois la décision la plus idiote et la plus intelligente qu’il ait jamais prise. Plus que n’importe quel autre site international, Wikipedia fleure encore bon l’idéalisme utopique de ses débuts. Les Wikipédiens, comme ils aiment se définir eux-mêmes sont des hommes et des femmes chargés d’une mission. Cette mission qu’ils endossent fièrement, pourrait se résumer par cette phrase presque Lennonienne (de John, pas Vladimir) prononcée par celui que tout le monde ici appelle Jimmy : « Imaginez un monde dans lequel chacun puisse avoir partout sur la planète libre accès à la somme de toutes les connaissances humaines ».

Insinuer que ce but utopique pouvait être atteint par un réseau d’internautes volontaires – travaillant pour rien, publiant tout et n’importe quoi, sachant que leurs mots sont immédiatement visibles et lisibles par le monde entier – était, bien entendu, une idée totalement folle. Pourtant, cette armée de fous a parcouru un chemin remarquablement long en dix ans à peine.

Wikipédia a toujours de très gros défauts. Ses articles varient généralement d’un sujet ou d’une langue à l’autre en termes de qualité. En outre, beaucoup d’articles sur des personnalités sont inégaux et mal équilibrés. Ce déséquilibre dépend en grande partie du nombre de Wikipédiens qui maîtrisent réellement une langue ou un sujet particulier. Ils peuvent être incroyablement précis sur d’obscurs détails de la culture populaire et étonnement faibles sur des sujets jugés plus importants. Sur les versions les plus anciennes du site, les communautés de rédacteurs volontaires, épaulées par la minuscule équipe de la Fondation, ont fait beaucoup d’efforts afin d’améliorer les critères de fiabilité et de vérifiabilité, insistant particulièrement sur les notes et les liens renvoyant aux sources.

Pour ma part, je pense qu’il faut toujours vérifier plusieurs fois avant de citer une information puisée sur le site. Un article sur Wikipédia paru dans le New Yorker notait à ce propos la fascinante distinction entre une information utile et une information fiable. Dans les années à venir, l’un des plus grands défis de l’encyclopédie sera de réduire l’écart qui pouvant exister entre ces deux notions.

Un autre grand défi sera d’étendre le site au-delà des frontières de l’Occident, où il est né et se sent le plus à l’aise. Un expert affirme qu’environ 80% des textes proviennent du monde de l’OCDE. La fondation vise 680 millions d’utilisateurs en 2015 et espère que cette croissance sera principalement issue de régions comme l’Inde, le Brésil et le Moyen-Orient.

Pour percer le mystère Wikipédia, il ne s’agit pas de pointer ses défauts évidents, mais de comprendre pourquoi le site fonctionne si bien. Les Wikipédiens offrent plusieurs explications : Wikipédia est né assez tôt, alors qu’il n’existait pas encore autant de sites dédiés aux internautes novices, une encyclopédie traite (principalement) de faits vérifiables plutôt que de simples opinions (ce qui est monnaie courante mais aussi un des fléaux de la blogosphère), mais c’est surtout avec sa communauté de rédacteurs-contributeurs que Wikipedia a trouvé la poule aux oeufs d’or.

Par rapport à l’échelle du phénomène, la masse des rédacteurs réguliers est incroyablement faible. Environ 100 000 personnes rédigent plus de cinq textes par mois mais les versions les plus anciennes comme l’anglais, l’allemand, le français ou le polonais sont alimentés par un petit groupe de peut-être 15 000 personnes, chacune effectuant plus de 100 contributions par mois. Il s’agit en grande majorité d’hommes jeunes, célibataires, qui ont fait des études. Sue Gardner, Directrice Executive de la Fondation Wikimedia, affirme qu’elle peut repérer un Wikipédien-type à cent mètres à la ronde. Ce sont les accros du cyberespace.

Comme la plupart des sites internationaux très connus, Wikipédia tire avantage de sa position privilégiée au sein de ce que Mike Godwin, Conseiller Général chez Wikipédia jusqu’au mois d’octobre dernier, décrit comme « un havre de liberté d’expression appelé les États-Unis » Quel que soit le pays d’origine du rédacteur, les encyclopédies de toutes les langues différentes sont physiquement hébergées par les serveurs de la Fondation situé aux États-Unis. Ils jouissent des protections légales de la grande tradition américaine qu’est la liberté d’expression.

Wikipédia a cependant été remarquablement épargnée par la spirale infernale particulièrement bien résumée par la Loi de Godwin (que l’on doit au même Mike Godwin). Cette règle affirme en effet que « lorsqu’une discussion en ligne prend de l’ampleur, la probabilité d’une comparaison faisant référence au Nazis ou à Hitler est environ égale à 1 ». Ceci est en parti dû au fait qu’une encyclopédie traite de faits, mais aussi parce que des Wikipédiens motivés passent énormément de temps à défendre leurs critères de « savoir-vivre » contre les nombreuses tentatives de vandalisme.

Ce savoir-vivre – traduction française du « civilty » anglais – est l’un des cinq piliers de Wikipédia. Depuis le début, Wales soutient qu’il est possible de réunir honnêteté et politesse. Toute une éthique en ligne, une nétiquette – pardons, une wikiquette – s’est développée et mise en place autour de cette notion, donnant naissance à des abréviations telles que AGF (Assume Good Faith) qu’on pourrait traduire par « Supposez ma Bonne Foi ». Les personnes manquant de savoir-vivre sont courtoisement interpelées puis mises en garde, avant d’être exclues si elles persistent. Mais je ne suis pas en position de juger si tout ceci se vérifie dans les versions sorabe, gagaouze et samoanes du site. Wikipédia a peut-être sa part de propos déplacés, mais si une communauté a tendance à dégénérer, la Fondation a au final le pouvoir d’ôter les tirades incriminées du serveur. (Wikipédia est une marque protégée par la loi, alors que Wiki-autre-chose ne l’est pas ; D’ailleurs Wikileaks n’a rien à voir avec Wikipedia et n’est même pas un « wiki » au sens collaboratif du terme.)

Nous ne sommes toujours pas en mesure de savoir si la fusillade de Tucson, en Arizona, est le produit direct du détestable climat qui règne actuellement sur le discours politique américain, tel qu’on a pu l’entendre sur des émissions de radio et de télévisions comme Fox news. Un fou est peut-être tout simplement fou. Mais le venin servi chaque jour par la politique américaine est un fait indéniable. Pour lutter contre ce climat déprimant, il est bon de pouvoir célébrer une invention américaine qui, malgré ses défauts, tente de propager dans le monde entier une combinaison d’idéalisme bénévole, de connaissance et de savoir-vivre acharné.

Notes

[1] Crédit photo : Stig Nygaard (Creative Commons By-Sa)




Les partisans de l’ouverture participent-ils d’un maoïsme numérique ?

Luca Vanzella - CC by-saOpen, open, open ! les partisans de l’ouverture n’auraient, d’après Jason Lanier[1], que ce mot à la bouche, qu’ils s’appellent WikiLeaks, hackers, logiciels libres ou Wikipédia.

En plus, vous savez quoi ? Cette ouverture signifie la mort de la vie privée, la qualité nivelée par les masses, l’innovation en hibernation et une économie confisquée par une minorité. Ce que Jason Lanier résume par l’expression pas forcément très heureuse de « maoïsme numérique ».

Il n’en fallait pas plus que pour notre ami Glyn Moody, souvent traduit ici, ne réagisse !

La parole est à la défense des hackers et de l’Open Source

Glyn Moody – 18 janvier 2011 – The H Open Source
(Traduction Framalang : Olivier Rosseler)

In defence of hackers and open source

À mes yeux, l’avènement de WikiLeaks est un évènement marquant car il apporte un nouvel éclairage sur de nombreux domaines, pas forcément ceux auxquels on pense, parmi ceux-ci : l’éthique des hackers et le monde de l’Open Source.

Jaron Lanier s’y est intéressé récemment dans un article amusant, mais il reste dubitatif. Si vous ne connaissez pas ses hauts faits d’armes, voilà ce que l’autre Wiki, Wikipédia, dit de lui :

Jaron Zepel Lanier (né le 3 mai 1960) est un informaticien américain, compositeur, artiste graphique et essayiste. Il est l’auteur d’un film expérimental, mais ne se considère pas comme un producteur. Au début des années 80, il est l’un des pionniers de ce qu’il contribuera à faire connaître sous le terme de « Réalité Virtuelle ». Il fonda à l’époque la société VPL Research, la première entreprise à commercialiser des produits de réalité virtuelle. Actuellement, il est entre autres, professeur honoraire à l’université de Berkeley, Californie. Il figure dans la liste des 100 personnes les plus influentes du magazine Time de 2010.

Le titre de son essai est « Les dangers de la suprématie des nerds : Le cas de WikiLeaks » (NdT : nerd, qu’on aurait pu traduire par polard ou intello), ce qui vous donne une idée de son point de vue sur les hackers et l’Open Source. Je pense qu’il se trompe dans son argumentaire contre WikiLeaks, comme je l’ai déjà évoqué, mais je me concentrerai ici sur les prises de position contre les hackers et l’ouverture qu’il distille au passage.

Point de départ de sa critique : une rencontre de la plus haute importance qui aurait, selon ses dires, mené à la création de WikiLeaks.

Le nid qui vit éclore WikiLeaks est un forum organisé par John Gilmore, l’un des fondateurs de l’Electronic Frontier Foundation. J’aurais d’ailleurs pu moi-même devenir l’un des fondateurs de l’EFF. J’étais présent quand tout a commencé, lors d’un repas à San Francisco, dans le quartier de Mission, avec John, John Perry Barlow et Mitch Kapor. C’est un pressentiment qui m’a empêché de suivre les autres dans la création de l’EFF, le pressentiment que quelque chose clochait.

Il poursuit :

Le chiffrement les obsédait, le Graal qui rendrait les hackers aussi puissants que les gouvernements, et ça me posait un problème. Les têtes enflaient : Nous, hackers, pouvions changer le cours de l’Histoire. Mais si l’Histoire nous a appris quelque chose, c’est bien que la quête du pouvoir ne change pas le monde. Vous devez vous changer vous-même en même temps que vous changez le monde. La désobéissance civile est avant tout une question de discipline spirituelle.

Mais c’est là, je pense, que son argumentation est fausse : les hackers ne sont pas en « quête de pouvoir ». Les actions qu’ils entreprennent leur confèrent peut-être un certain pouvoir, mais ce n’est qu’un effet secondaire. Par définition, les hackers hackent car ils aiment hacker : c’est l’équivalent au XXIe siècle de « l’art pour l’art ». Je concède que Richard Stallman et ses sympathisants ajoutent une dimension hautement morale au hack : apporter la liberté aux peuples. Mais, je le répète, ils ne sont pas en « quête de pouvoir » : ils veulent le donner, pas le prendre.

Vers la fin de son article, Lanier écrit :

J’ai toujours pensé qu’un monde ouvert favoriserait l’honnête et le juste et dé-crédibiliserait le magouilleur et l’arnaqueur. Appliquée avec modération, cette idée est attrayante, mais si le concept de vie privée venait à disparaître, les gens deviendraient d’abord sans intérêt, puis incompétents et ils finiraient eux-mêmes par disparaître. Derrière cette idée d’ouverture radicale se cache une allégeance de l’Homme aux machines.

Là encore il nous sert une hypothèse sans fondement : « si le concept de vie privée venait à disparaître ». Il ne me semble pas que beaucoup de hackers aient appelé à la «disparition du concept de vie privée » (aucun nom ne me vient à l’esprit d’ailleurs). Il y a confusion entre « ouverture » et « absence de vie privée » alors que ce sont deux choses bien distinctes (bien que l’ouverture ait certainement des implications sur la vie privée, mais de là à définir le premier par l’absence du second, il y a un grand pas).

Cette tendance à créer des épouvantails et à passer allégrement dans le hors-sujet est récurrente chez Lanier. Sa précédente diatribe sur tout ce qui est ouvert, « Maoïsme numérique » en est un bon exemple. Voilà le passage consacré à l’Open Source :

Il faut que je m’accorde une parenthèse sur Linux et les projets similaires. Qu’ils soient « libres » ou « Open Source », ces logiciels ne sont pas, à bien des égards, comme Wikipédia, à vouloir agréger tous les contenus. Les programmeurs de Linux ne sont pas anonymes, au contraire, la reconnaissance personnelle fait partie de leurs motivations, c’est ce qui fait avancer de tels projets. Mais des points communs existent, comme l’absence d’opinion représentative ou de sens du design (au sens esthétique du terme), ce sont des défauts que partagent les logiciels Open Source et Wikipédia.

Ces mouvements excellent dans la création de tout ce qui est infrastructure cachée, comme les serveurs Web. Mais ils sont incapables de créer des interfaces utilisateurs léchées ou d’améliorer l’expérience utilisateur. Si le code de l’interface utilisateur de Wikipédia était aussi ouvert que ses articles, vous pouvez être sûr que ça deviendrait rapidement un bourbier inextricable. L’intelligence collective parvient avec brio à résoudre des problèmes qui peuvent être évalués sur des critères objectifs, mais elle n’est pas adaptée ici lorsque les goûts et les couleurs comptent.

Il a raison, c’est simplement une question de critères. Pour le code source, de nombreux critères objectifs existent, vitesse, poids, portabilité, etc. Mais pour ce qui est d’imaginer une interface, tout est très subjectif, difficile donc de s’assurer que les choses évoluent dans le bon sens à chaque transformation. Mais ce n’est pas l’« ouverture » ou le « collectif » qui posent problème ici : les projets extrêmement centralisés rencontrent les mêmes difficultés pour mesurer les « progrès » dans les domaines très subjectifs, alors que pour eux aussi, les questions plus objectives sont plus simples à résoudre.

Il semblerait que Lanier s’en prend une nouvelle fois à l’« ouverture » dans son dernier livre You Are Not a Gadget (NdT : Vous n’êtes pas un gadget). Je dis « il semblerait », car je ne l’ai pas lu : il y a bien d’autres livres que j’aimerais commencer avant, surtout si je me fie à ce résumé (et d’après ses autres écrits, je peux) :

Dans son ouvrage paru en 2010 (You Are Not A Gadget), Lanier critique l’« esprit de ruche » et compare l’Open Source et l’expropriation de la production intellectuelle orchestrée par les contenus ouverts à une forme de maoïsme numérique. Il trouve qu’ils ont ralenti le développement de l’informatique et l’innovation musicale. Il s’en prend à quelques icônes sacrées telles que Wikipédia et Linux dans son manifeste, Wikipédia pour la toute-puissance des auteurs et éditeurs anonymes qui font régner leur loi, pour la faiblesse de son contenu non-scientifique et pour l’accueil brutal réservé aux personnes qui ont effectivement une expertise dans leur domaine. Il affirme également que certains aspects de l’« Open Source » et de l’« Open Content » possèdent leurs limitations et qu’au fond ils ne créent rien de vraiment neuf ou innovant. Il poursuit en disant que ces approches ont retiré aux classes moyennes des opportunités de financer la création et ont concentré la richesse dans les mains de ceux qu’il nomme les « dieux dans les nuages » : ceux qui, plutôt que d’innover deviennent des intermédiaires, des concentrateurs de contenus, présents au bon endroit au bon moment, dans les « nuages ».

Le fait qu’il ressorte ce bon vieux troll montre que ses arguments sont usés jusqu’à la corde, a-t-il seulement entendu parler de ce truc qu’on appelle Internet, dont la création repose entièrement sur des protocoles et du code ouvert ?

De même, l’idée que le financement de la création de contenu par la classe moyenne est moins probable nie le fait que les gens créent plus de contenu que jamais, gratuitement, pour l’amour de la création, vous voyez on retrouve « l’art pour l’art ». Je vous accorde que ce ne sont pas que des chefs-d’œuvre, mais bon, cela a toujours été le cas, non ? La grande majorité des créations ont toujours été médiocres. Par contre, maintenant on s’en rend mieux compte car nous jouissons d’un accès sans précédent à la création. C’est cette richesse, cette variété dans l’abondance que Lanier semble ne pas apprécier lorsqu’il écrit :

L’idéologie qui pousse une bonne partie du monde connecté, pas seulement WikiLeaks, mais aussi des sites très visités comme Facebook par exemple, est que l’information en suffisamment grande quantité devient automatiquement une Vérité. Cela implique pour les extrémistes qu’Internet est en train de devenir une nouvelle forme de vie, singulière, mondiale, supérieure, post-humaine. Pour les sympathisants plus modérés, si l’information est vérité et que la vérité vous rend libre, alors enrichir l’Internet de plus d’informations rend automatiquement les gens plus libres et le monde meilleur.

Pour les hackers, ce n’est pas tant la quantité qui compte, mais plutôt la qualité, c’est ce qui fait la force des logiciels libres. L’ouverture a simplement pour but d’encourager les gens à s’appuyer sur l’existant pour améliorer les choses, pas juste pour amasser des lignes de code. De plus, la culture hacker valorise fortement les échanges interpersonnels. Le don et la collaboration sont des éléments clés de la méthodologie Open Source. Ça fonctionne car l’un des piliers de la culture hacker est l’attribution : ne pas indiquer que l’on s’appuie sur le travail d’autres personnes est une bévue monumentale. C’est une bonne protection contre les personnes mal intentionnées qui voudraient siphonner la bonne volonté de la communauté.

Au fond, Lanier devrait plutôt louer les hackers et l’Open Source, puisqu’ils partagent son désire d’allégeance aux Hommes plutôt qu’aux machines. Quel dommage qu’une personne de sa qualité ne s’en rende pas compte.

Notes

[1] Crédit photo : Luca Vanzella (Creative Commons By-Sa)