Nous sommes prêts à participer nous aussi à la reconstruction du monde

Jane Murple - CC by-saIl n’était pas possible d’envisager un système d’exploitation ou une encyclopédie universelle libres. Et pourtant GNU/Linux et Wikipédia l’ont fait.

Il n’était pas possible d’envisager la chute de tyrans installés depuis plusieurs décennies dans des pays sous contrôle. Et pourtant les Tunisiens, les Égyptiens et les Libyens l’ont fait.

Il n’est pas possible de voir à son tour le monde occidental s’écrouler parce que contrairement aux pays arabes il y règne la démocratie. Et pourtant, si l’on continue comme ça, on y va tout droit. Parce que le problème n’est plus politique, il est désormais avant tout économique.

Et lorsque ceci adviendra, nous, les utopistes de la culture libre, les idéalistes des biens communs, nous serons prêts à participer avec d’autres à la nécessaire reconstruction. Parce que nous avons des modèles, des savoirs et des savoir-faire, des exemples qui marchent, de l’énergie, de la motivation, de l’enthousiasme et cela fait un petit bout de temps déjà que nous explorons les alternatives.

Il n’est guère dans les habitudes du Framablog de s’aventurer dans de telles prophéties. C’est pourtant, à la lecture de la vidéo ci-dessous, la réflexion « brève de comptoir » qui m’est venue ce matin et que je vous livre donc telle quelle à brûle-pourpoint.

Il s’agit d’une vidéo que vous avez peut-être déjà vue car elle a fait le buzz, comme on dit, l’hiver dernier. Sauf que dans « le monde selon Twitter », rien ne remplace plus vite un buzz qu’un autre buzz (parfois aussi futile qu’un lipdub UMP). Elle mérite cependant qu’on s’y attarde un tout petit peu, au moins le temps de sa lecture qui dure une dizaines de minutes.

Nous ne sommes pas à la cellule du Parti communiste de Clichy-sous-Bois mais à la Chambre du Sénat américain, le 10 décembre 2010, et le sénateur du Vermont Bernie Sanders est bien décidé à prendre la parole contre la décision de Barack Obama de reconduire les exemptions d’impôts décidées par George Bush. Une parole qu’il ne lâchera que huit heures et demi plus tard en tentant de faire obstruction par la technique parlementaire dite de la « flibuste » (on se croirait en plein épisode d’À la Maison Blanche sauf que c’est la réalité).

Et son discours débute ainsi : « M. le Président, il y a une guerre en cours dans ce pays… »

Une guerre que mènent les ultra-riches contre une classe moyenne qui doit par conséquent lutter pour sa survie[1]. L’exposé est édifiant et il est étayé par de nombreuses références chiffrées qui font froid dans le dos (1% des américains possèdent aujourd’hui un quart de la richesse du pays, 0,1 % en possèdent même un huitième).

Tout est effectivement en place pour que cela explose le jour où nous arrêterons de nous gaver de pubs, de foot, de téléréalité, d’iTruc et même de Facebook, le jour où nous arrêterons de regarder de travers celui qui pense-t-on ne nous ressemble pas, le jour où nous arrêterons également de croire avec nos médias et nos sondages que voter centre droit ou centre gauche pour élire un homme sans pouvoir pourra changer la donne.

Et n’allez pas me dire que ceci ne concerne que les USA, puisque tout ce qui a été fait en Europe ces dernières années consistait peu ou prou à leur emboîter le pas.

On notera par ailleurs que même certains ultra-riches commencent à comprendre que cela ne tourne pas rond. C’est ainsi qu’on a vu récemment les repentis milliardaires Bill Gates et Warren Buffet proposer aux autres milliardaires de donner un bonne part de leur colossale fortune à des bonnes œuvres. C’est touchant. Il n’est jamais trop tard pour se découvrir philanthrope et obtenir l’absolution mais cela n’y changera rien car le problème est structurel.

Oui la classe moyenne des pays occidentaux se meurt. Or c’est précisément elle qui fournit le gros des troupes du logiciel libre et sa culture (on pensera notamment à tous ces jeunes intellectuels précaires et déclassés). Viendra le jour où elle n’aura plus rien à perdre. Et elle descendra elle aussi dans la rue non seulement pour voir des têtes tomber mais pour proposer et mettre en place un autre monde possible…

—> La vidéo au format webm

Notes

[1] Crédit photo : Jane Murple (Creative Cmmons By-Sa)




Combien de grands écrivains bloqués à la frontière par le droit d’auteur ?

Shandi-Lee Cox - CC byPourquoi certains livres ne sont-ils pas traduits alors que tout porte à croire qu’ils le méritent ?

A contrario pourquoi d’autres livres connaissent de nombreuses traductions malgré le caractère très confidentiel de leur sujet et donc de leur audience potentielle ?

Pour les uns comme pour les autres à cause du droit d’auteur.

Un droit d’auteur qui selon le cas (et le choix) peut décourager ou encourager, nous dit ici Karl Fogel, qui est bien placé pour en parler car ses deux livres, le premier sous licence GNU General Public License et le second sous licence Creative Commons By, ont connu spontanément de nombreuses traductions[1].

Et nous aussi à Framasoft, nous sommes bien placés pour en parler, car lorsque nous décidons d’entamer un long projet de traduction via notre groupe de travail Framalang, la condition sine qua non est que la licence de l’ouvrage original nous y autorise explicitement. Un long projet comme notre dernier framabook Produire du logiciel libre de… Karl Fogel justement !

Le conte des deux auteurs : pourquoi l’un est traduit et l’autre pas

A Tale of Two Authors: Why Translations Happen, or Don’t.

Karl Fogel – 21 février 2011 – QuestionCopyright.org
(Traduction Framalang : Brandelune, Goofy et Penguin)

Pourquoi certains livres ne sont-ils pas traduits ?

Vous penserez peut-être qu’il est difficile de trouver des traducteurs disposés, ou que les compétences nécessaires sont rares, mais je vous propose deux études qui fournissent une autre explication.

La raison principale d’un texte non traduit vient tout simplement du fait qu’on nous interdit de le traduire. Lorsque les restrictions dues aux droits d’auteur ne les entravent pas, les traductions fleurissent.

Si vous êtes sceptique, lisez plutôt la suite. Voici l’histoire de deux auteurs, l’un dont les livres peuvent être traduits librement par n’importe qui, l’autre qu’on ne peut pas traduire. Nous allons même tricher un peu en disant que celui dont les livres sont ouverts à la traduction est un auteur mineur (un de ceux dont les œuvres, pour être parfaitement honnête, ne vont pas changer la face du monde). Tandis que certains des ouvrages de l’autre sont considérés comme des chefs-d’œuvre dans leur langue d’origine, au point que l’on peut trouver des citations d’éminents universitaires mentionnant l’absence de traduction comme « un des plus grands scandales de notre époque ».

Le premier auteur, c’est moi. J’ai écrit deux livres, tous deux sous licence libre, aucun n’a la moindre importance historique même si j’en suis fier et ai été content de les écrire. Le premier, publié en 1999, était un manuel semi-technique expliquant comment utiliser certains logiciels de collaboration. Bien que son public soit limité et que j’aie mis en ligne une version dans un format un peu lourd, des traductions bénévoles ont très vite été proposées, et l’une d’elles au moins (en allemand) a été achevée. D’autres traductions ont peut-être abouti, je ne sais pas (le livre étant déjà ancien et les traductions m’étant incompréhensibles, je n’ai pas fait l’effort d’en savoir plus).

Remarquez que je ne parle ici que de traductions faites par des bénévoles, celles qu’ils entreprennent juste parce qu’ils en ont envie, sans demander au préalable de permission à quiconque (il y avait aussi une traduction en chinois achevée et dont j’ai une version papier publiée, mais je ne la considère pas dans ma démonstration car elle est passée par les canaux de publication contrôlés par l’éditeur).

Mon livre suivant, publié à l’origine en 2005, ne visait également qu’un lectorat potentiel limité : il traite de la gestion de projets collaboratifs open source — il n’était pas exactement destiné à devenir un best-seller. Mais avec le soutien de mon aimable éditeur, O’Reilly Media, je l’ai mis en ligne sous une licence libre, cette fois sous un format plus agréable, et des projets de traductions bénévoles sont aussitôt apparus. Plusieurs ont maintenant porté fruit : le titre existe en japonais, en galicien, en allemand, en néerlandais et en français. La traduction espagnole est presque terminée, et d’autres encore sont en cours dont je vous épargne la liste.

(Ah oui, au fait, plusieurs de ces traductions sont disponibles en format papier de qualité commerciale, j’en ai chez moi des exemplaires. L’activité lucrative est parfaitement compatible avec les modèles de distribution non restrictifs, comme nous l’avons déjà souligné à plusieurs reprises)

Alors… tout ça pour un livre traitant de collaboration au sein des projets open source ? Vraiment ? Que peut-on en déduire ?

Eh bien, voyons un contre-exemple.

Hans Günther Adler (« HG Adler » de son nom de plume) est un auteur mort en 1988 dont l’œuvre est désormais largement reconnu comme majeure dans la littérature allemande sur l’Holocauste. Très peu de ses œuvres ont été traduites en anglais, sauf tout récemment le roman Panorama, publié en Angleterre et dont la critique a longuement parlé.

Deux de ces critiques nous permettent de bien comprendre pourquoi ici, sur QuestionCopyright.org, nous considérons que notre mission essentielle est de recadrer le débat public sur le droit d’auteur. Les deux critiques littéraires — manifestement intelligents, manifestement d’accord sur l’importance d’Adler, et écrivant tous deux pour les plus influentes revues littéraires de langue anglaise — commentent l’absence scandaleuse de traductions d’Adler en anglais tout en se recroquevillant dans une attitude passive quand il s’agit d’expliciter les raisons de cette absence.

D’abord, Judith Shulevitz dans le New York Times :

De temps en temps, un livre vous fait prendre brutalement conscience de la somme d’efforts et de chance qui ont été nécessaires pour le faire arriver entre vos mains. « Panorama » est le premier roman écrit par H. G. Adler, un intellectuel juif et germanophone vivant à Prague qui a survécu à un camp de travail en Bohème, Theresienstadt, Auschwitz, ainsi qu’à un autre camp de travail forcé particulièrement horrible car souterrain, appelé Langenstein près de Buchenwald. Adler écrit la première ébauche en moins de deux semaines, en 1948 il arrive enfin en Angleterre mais ne trouve personne pour publier son livre avant 1968. 20 ans et deux manuscrits plus tard le livre est enfin publié en anglais aujourd’hui, pour la première fois.

Il est difficile de concevoir la raison pour laquelle nous avons dû attendre si longtemps. Il en résulte que Adler est un presque parfait inconnu dans le monde anglophone. Seuls trois de ses livres ont été traduits : un travail historique intitulé « Jews in Germany », un roman appelé « The Journey » et, maintenant, « Panorama ». Le fait que les lecteurs anglais et américains aient eu un accès aussi limité à l’œuvre et à la pensée d’Adler pendant si longtemps est, comme l’écrit ce spécialiste éminent de la litérature allemande moderne qu’est Peter Demetz, « l’un des grands scandales de notre époque ».

Ensuite, voici ce qu’écrit Ruth Franklin dans le New Yorker :

Hermann Broch a écrit que le livre Theresienstadt 1941–1945 deviendrait un classique sur la question, et que la méthode d’Adler « clinique et précise, non seulement saisit les détails essentiels mais parvient à montrer en plus l’étendue de l’horreur des camps d’une manière particulièrement pénétrante ». (Le livre a été publié en Allemagne en 1955 et il est devenu très vite un ouvrage de référence pour les études allemandes sur l’Holocauste mais n’a jamais été traduit en anglais.)

Soit, Shulevitz et Franklin écrivaient des critiques du travail même d’Adler, pas des analyses sur les raisons pour lesquelles ces ouvrages avaient été si peu traduits en anglais. Il est pourtant frappant qu’ils aient choisi tous deux de commenter le manque de traduction, plus ou moins longuement, et pourtant ils n’offrent aucune hypothèse sur les raisons de cette absence. Ils décrivent simplement la situation et expriment leurs regrets, comme s’ils parlaient simplement du mauvais temps ; il n’y aucune indignation ni frustration sur le fait que l’absence de traduction est tout simplement due au fait qu’elles ont été interdites avant même qu’on puisse les commencer.

Je ne vais même pas utiliser « probablement » ou « sans doute » dans cette déclaration. À ce point, il faut considérer qu’il s’agit de faits établis. Si mes livres – mes petits ouvrages qui ne visent qu’une population limitée dans le monde du développement logiciel – sont traduits depuis l’anglais dans d’autres langues au lectorat plus faible, il est tout simplement impossible que les livres bien plus importants de H.G. Adler, sur des sujets beaucoup plus importants, n’aient pas été traduits de l’allemand vers l’anglais, si même une seule personne (ou, plus important encore, un seul groupe) qui aurait eu l’ambition de les traduire avait été libre de le faire.

Il existe un grand nombre de personnes qui parlent couramment à la fois l’anglais et l’allemand ; les études sur l’Holocauste intéressent de très nombreux locuteurs de ces deux langues et il existe des sources de financement, tant gouvernementales que provenant d’organismes à but non lucratif, qui auraient volontiers soutenu ce travail (certaines traductions de mon deuxième livre ont reçu ce genre de financement, il serait incompréhensible que ces financements puissent exister pour cela et pas pour les traductions du travail de Adler).

Le fait que l’absence de traductions d’Adler, ou d’autres œuvres importants, ne soit pas directement compris comme étant dû aux restrictions issues du droit d’auteur souligne la dramatique faiblesse du débat public autour du droit d’auteur. A l’heure actuelle, les traducteurs ne peuvent pas traduire s’ils ne sont pas assurés en premier lieu d’en avoir le droit, et puisque la position par défaut du droit d’auteur est que vous n’avez pas le droit de traduire à moins que quelqu’un ne vous en donne explicitement le droit, la plupart des traducteurs potentiels abandonnent sans avoir même essayé. Ou, plus probablement, ils ne pensent même pas à essayer, car ils ont été habitués à cette culture basée sur la permission. La simple recherche de la personne à qui demander la permission est un processus suffisamment décourageant, sans même compter le temps passé dans les incertaines négociations qui s’ensuivent lorsque vous avez trouvé la bonne personne.

Il n’est pas étonnant que de nombreux ouvrages de valeur restent sans traduction, étant donné les obstacles. Mais il est étonnant que nous continuions à nous voiler la face sur les raisons de cette situation, alors même lorsqu’elles nous crèvent les yeux.

Notes

[1] Crédit photo : Shandi-Lee Cox (Creative Commons By)




Google Art Project : Une petite note discordante dans un concert de louanges

Antonio Pollaiuolo - Public DomainGoogle vient de sortir un énième nouveau projet : Google Art Project.

Il est ainsi décrit dans cette dépêche AFP : « Google a lancé une plate-forme permettant aux amateurs d’art de se promener virtuellement dans 17 des plus grands musées du monde, dont le MoMA de New York et le Château de Versailles, grâce à sa technologie Street View, familier des utilisateurs du site de cartes Google Maps ».

La présentation vidéo de Google est spectaculaire et la visite virtuelle l’est tout autant. Ce qui m’a le plus impressionné c’est le fait que chaque musée offre l’une de ses œuvres à une précision numérique hors du commun (7 milliards de pixels !). Regardez un peu ce que cela donne dans le détail pour La Naissance de Vénus de Boticceli.

Faites un zoom sur son visage et vous serez peut-être comme moi saisi par une certaine émotion. Et si j’ai pris cet exemple ce que j’étais encore récemment devant le vrai tableau à Florence. L’émotion est tout autre, sans commune mesure, elle est bien plus intense évidemment, mais pouvoir regarder à la loupe un tel chef-d’œuvre n’est pas sans intérêt[1].

On a alors vu toute la presse, petit et grande, s’enthousiasmer sur ce nouveau service gratuit (cela allait sans dire avec Google). J’ai ainsi pu comptabiliser plus d’une centaine d’articles dans… Google Actualités (sic, on n’en sort pas !), et jamais je n’y ai lu la moindre critique.

La seule question que l’on se pose éventuellement est de se demander furtivement si un tel projet peut se substituer à la visite réelle. Et la réponse, aussi bien du côté Google que du côté musées, est au contraire que cela stimule la curiosité et amplifie le désir de venir. Un peu comme la vitrine d’un magasin vous donne envie de rentrer en somme. Et puis pour ceux qui ne peuvent vraiment pas y aller comme les enfants d’Afrique ou d’Amérique Latine, c’est toujours bien mieux que rien.

Personne n’est donc venu apporter un seul bémol. On aurait pu souligner que c’est encore et toujours du Google, qui de projets sympas en projets sympas, commence à atteindre une taille intrinsèquement monstrueuse. On aurait pu regretter que pour pouvoir bénéficier d’un parcours individualisé et former ses propres collections il faille évidemment un compte Google (c’est gratuit mais c’est bien là le prix à payer à Google). Plus subtil mais pas moins important, on aurait pu se demander quelles étaient exactement les conditions juridiques des accords entre Google et les musées, notamment pour ce qui concerne l’épineuse question de la reproduction d’œuvres dans le domaine public (d’ailleurs on voit déjà fleurir dans Wikimedia Commons des reproductions d’œuvres directement issues des reproductions de Google Art Project !).

Personne, sauf peut-être Adrienne Alix, présidente de Wikimedia France, qui a publié sur son blog personnel sa « vision critique » du projet, dans un billet que nous avons reproduit ci-dessous parce que nous partageons sa perplexité.

« Les wikimédiens passent énormément de temps à prendre de belles photographies de ces œuvres pour les mettre librement à disposition sur Wikimedia Commons et permettre à tous de les réutiliser. Il est souvent difficile de faire admettre aux musées qu’il est bon de permettre cette très large diffusion de la culture. Les choses changent peu à peu, le dialogue s’engage ces derniers temps, et c’est une très bonne chose (…) Quelle est ma crainte ? Que ces musées qui commencent timidement à ouvrir leurs portes et se lancent avec nous en faisant confiance, en prenant le pari de la diffusion libre de contenus dans le domaine public, se replient sur une solution verrouillée comme celle proposée par Google Art Project, où l’internaute ne peut absolument pas réutiliser les œuvres ainsi montrées. On visite, on ne touche pas. On ne s’approprie pas. On est spectateur, et c’est tout. Je crains que par envie de contrôle de l’utilisation des reproductions d’œuvres conservées dans les musées, la notion de domaine public recule. »

Vous trouverez par ailleurs en annexe, un petit clip vidéo montrant un photographe wikipédien à l’œuvre. Quand Google nous propose une visite virtuelle clinquante mais balisée et pour tout dire un brin étouffante, Wikipédia donne envie d’arpenter le vaste monde et d’en garder traces au bénéfice de tous.

Google Art Project : vision critique

URL d’origine du document

Adrienne Alix – 3 février 2011 – Compteurdedit
Licence Creative Commons By-Sa

Depuis deux jours, le web (et notamment le web « culturel », mais pas seulement) s’enthousiasme pour le dernier-né des projets développés par Google, Google Art Project.

Le principe est compréhensible facilement : Google Art Project, sur le modèle de Google Street View, permet de visiter virtuellement des musées en offrant aux visiteurs une vue à 360°, un déplacement dans les salles. On peut aussi zoomer sur quelques œuvres photographiées avec une très haute résolution et pouvoir en apprécier tous les détails, certainement mieux que ce qu’on pourrait faire en visitant réellement le musée.

Et donc, tout le monde s’extasie devant ce nouveau projet, qui permet de se promener au musée Van Gogh d’Amsterdam, au château de Versailles, à l’Hermitage, à la National Gallery de Londres, etc. En effet c’est surprenant, intéressant, on peut s’amuser à se promener dans les musées.

En revanche, au-delà de l’aspect anecdotique et de l’enthousiasme à présent de rigueur à chaque sortie de projet Google, j’aimerais pointer quelques petits points, qui peuvent paraître pinailleurs, mais qui me semblent importants.

1- d’une part, la qualité n’est pas toujours là. Vous pouvez en effet vous promener dans le musée, mais ne comptez pas forcément pouvoir regarder chaque œuvre en détail. On est dans de la visite « lointaine », un zoom sur une œuvre donnera quelque chose de totalement flou. Les deux captures d’écran ci-dessous sont, je pense, éloquentes.

2- Google rajoute une jolie couche de droits sur les œuvres qui sont intégrées dans ces visites virtuelles. Une part énorme de ces œuvres est dans le domaine public. Pourtant, les conditions générales du site Google Art Project sont très claires : cliquez sur le « Learn more » sur la page d’accueil. Vous verrez deux vidéos expliquant le fonctionnement du service, puis en descendant, une FAQ. Et cette FAQ est très claire :

Are the images on the Art Project site copyright protected?

Yes. The high resolution imagery of artworks featured on the art project site are owned by the museums, and these images are protected by copyright laws around the world. The Street View imagery is owned by Google. All of the imagery on this site is provided for the sole purpose of enabling you to use and enjoy the benefit of the art project site, in the manner permitted by Google’s Terms of Service.

The normal Google Terms of Service apply to your use of the entire site.

On y lit que les photos en haute résolution des œuvres d’art sont la propriété des musées et qu’elles sont protégées par le « copyright » partout dans le monde. Les images prises avec la technologie « street view » sont la propriété de Google. Les images sont fournies dans le seul but de nous faire profiter du Google Art Projetc. Et on nous renvoie vers les conditions générales de Google.

En gros, vous ne pouvez rien faire de ce service. Vous pouvez regarder, mais pas toucher.

3 – D’ailleurs vous ne pouvez techniquement pas faire grand chose de ces vues. Y compris les vues en très haute définition. Effectivement le niveau de détail est impressionnant, c’est vraiment une manière incroyable de regarder une œuvre. Mais après ? Vous pouvez créer une collection. Soit, je décide de créer une collection. Pour cela il faut que je m’identifie avec mon compte google (donc si vous n’avez pas de compte google, c’est dommage pour vous, et si vous vous identifiez, cela fait encore une donnée sur vous, votre personnalité, que vous fournissez à Google. Une de plus). Je peux annoter l’œuvre (mettre un petit texte à côté, sauvegarder un zoom, etc). Que puis-je faire ensuite ? Et bien, pas grand chose. Je peux partager sur Facebook, sur Twitter, sur Google Buzz ou par mail.
Mais en fait, je ne partage pas réellement l’œuvre, je partage un lien vers ma « collection ». C’est à dire que jamais, jamais je ne peux réutiliser cette œuvre en dehors du site.

Donc si par exemple je suis professeur d’histoire ou d’histoire de l’art, je suis obligée de faire entrer mes élèves sur ce site pour leur montrer l’œuvre, je ne peux pas la réutiliser à l’intérieur de mon propre cours, en l’intégrant totalement. Ni pour un exposé. Je ne peux pas télécharger l’œuvre. Qui pourtant est, dans l’immense majorité des cas, dans le domaine public. Il faut donc croire que la photographie en très haute résolution rajoute une couche de droits sur cette photo, ce qui pourrait se défendre, pourquoi pas, mais aujourd’hui ça n’est pas quelque chose d’évident juridiquement.


Vous me direz qu’après tout, cela résulte de partenariats entre des musées et Google, ils prennent les conditions qu’ils veulent, c’est leur problème, on a déjà de la chance de voir tout cela. Ok. Mais ce n’est pas la conception de partage de la culture que je défends.

Je me permettrai de rappeler que, en tant que wikimédienne, et défendant la diffusion libre de la culture, je suis attachée à la notion de « domaine public ». Au fait que, passé 70 ans après la mort d’un auteur, en France et dans une très grande partie du monde, une œuvre est réputée être dans le domaine public. Et donc sa diffusion peut être totalement libre. Sa réutilisation aussi, son partage, etc.

Les wikimédiens passent énormément de temps à prendre de belles photographies de ces œuvres pour les mettre librement à disposition sur Wikimedia Commons et permettre à tous de les réutiliser. Il est souvent difficile de faire admettre aux musées qu’il est bon de permettre cette très large diffusion de la culture. Les choses changent peu à peu, le dialogue s’engage ces derniers temps, et c’est une très bonne chose. Nos points d’achoppement avec les musées tiennent souvent à la crainte de « mauvaise utilisation » des œuvres, le domaine public leur fait peur parce qu’ils perdent totalement le contrôle sur ces œuvres (notamment la réutilisation commerciale). Ils discutent cependant avec nous parce qu’ils ont conscience qu’il est impensable aujourd’hui de ne pas diffuser ses œuvres sur internet, et Wikipédia est tout de même une voie royale de diffusion, par le trafic énorme drainé dans le monde entier (pour rappel, plus de 16 millions de visiteurs unique par mois en France, soit le 6e site fréquenté).

Quelle est ma crainte ? Que ces musées qui commencent timidement à ouvrir leurs portes et se lancent avec nous en faisant confiance, en prenant le pari de la diffusion libre de contenus dans le domaine public, se replient sur une solution verrouillée comme celle proposée par Google Art Project, où l’internaute ne peut absolument pas réutiliser les œuvres ainsi montrées. On visite, on ne touche pas. On ne s’approprie pas. On est spectateur, et c’est tout. Je crains que par envie de contrôle de l’utilisation des reproductions d’œuvres conservées dans les musées, la notion de domaine public recule.

Alors certes, la technologie est intéressante, le buzz est légitime, l’expérience de visite est plaisante. Mais au-delà de cela, est-ce vraiment une vision moderne et « 2.0 » du patrimoine qui est donnée ici ? Je ne le pense pas. J’ai même une furieuse impression de me retrouver dans un CD-ROM d’il y a 10 ans, ou dans le musée de grand-papa.

Pour terminer, je vous invite à aller vous promener sur Wikimedia Commons, dans les catégories concernant ces mêmes musées. C’est moins glamour, pas toujours en très haute résolution, mais vous pouvez télécharger, réutiliser, diffuser comme vous voulez, vous êtes libres…

Au cas où il serait nécessaire de le préciser : je m’exprime ici en mon nom personnel, et uniquement en mon nom personnel. Les opinions que je peux exprimer n’engagent en rien l’association Wikimédia France, qui dispose de ses propres canaux de communication.

Annexe : Vidéo promotionnelle pour Wiki loves monuments

Réalisée par Fanny Schertzer et Ludovic Péron (que l’on a déjà pu voir par ailleurs dans cet excellent reportage).

—> La vidéo au format webm

URL d’origine du document

Notes

[1] Illustration : Portrait de jeune femme, Antonio Polaiolo, fin XVe siècle, MoMatélécharger librement…)




La nouvelle version Squeeze de Debian lavera encore plus blanc

Mark Robinson - CC byC’est un billet un peu technique que nous vous proposons aujourd’hui. Il évoque la « quête du 100% libre » des distributions GNU/Linux.

En effet, vous l’ignoriez peut-être, mais rares sont les distributions GNU/Linux qui soient « totalement libres ».

Ainsi la fort pratique distribution Linux Mint installe dès le départ des codecs (MP3, divX…) et des plugins (Java, flash…) propriétaires. On ne peut donc la considérer comme libre.

Mais, plus subtil, la très populaire distribution Ubuntu non plus, car elle embarque en son sein des drivers propriétaires comme ceux pour les cartes graphiques Nvidia et ATI.

Ces drivers sont des exemples de firmwares (ou micrologiciel), ces logiciels intégrés dans un composant matériel, et ils constituent le sujet principal de notre billet, et traduction, du jour.

Debian est l’une des plus anciennes et célèbres distributions GNU/Linux. Elle sert de base de développement à de nombreuses autres distributions, dont justement Ubuntu et Linux Mint.

L’une des principales caractéristiques de Debian, outre sa stabilité reconnue et le grand nombre d’architectures matérielles supportées, est de ne dépendre directement d’aucune société commerciale : comme le navigateur Firefox de la fondation Mozilla, Debian est le fruit d’une association à but non lucratif. Et si Mozilla possède son Manifesto, Debian a son fameux contrat social.

Elle se trouve actuellement dans sa version 5.0 mais la nouvelle version 6 (nom de code « Squeeze ») devrait sortir d’ici quelques jours.

Or le projet Debian a annoncé que cette nouvelle version bénéficierait, à sa sortie, d’un noyau Linux « libéré», c’est à dire débarrassé de tout firmware qui ne serait pas libre[1]. Cette décision a suscité un certain nombre de d’interrogations autour des conséquences pratiques pour l’utilisateur : allait-il pouvoir continuer à faire fonctionner pleinement sa machine avec cette nouvelle version ?

C’est à ces interrogations que répond l’un des développeurs du projet ci-dessous.

Mythes et réalités concernant les firmwares et leur non-retrait de Debian

Myths and Facts about Firmwares and their non-removal from Debian

Alexander Reichle-Schmehl – 20 janvier 2011 – Tolimar’s Blog
(Traduction Framalang : Antistress, Penguin et Goofy)

L’annonce par le projet Debian de la publication de Squeeze avec un noyau Linux complètement libre a retenu l’attention, ce qui n’est pas une mauvaise chose. Pourtant il semble que cette annonce ait parfois été mal interprétée ou mal relayée. Je vais essayer de résumer les principales erreurs et d’y répondre.

  • Mythe : Debian a retiré tous les firmwares de ses noyaux !
  • Réalité : Non, cette décision ne concerne que les noyaux qui seront inclus dans la prochaine version Debian 6.0 Squeeze. Les noyaux de la version stable actuelle Debian 5.0 Lenny restent tels quels… sauf que, bien sûr, nous réaliserons les mises à jour de sécurité qui s’imposent les concernant, mais ils continueront de contenir les mêmes firmwares qu’actuellement.
  • Mythe : Debian est en train de dégrader ses noyaux en en retirant des choses.
  • Réalité : Debian a transféré certains firmwares de sa section principale (NdT : main) vers sa section non-libre (NdT : non-free). Ils sont toujours présents, dans la section dédiée aux logiciels qui ne répondent à nos critères tels qu’ils résultent des principes du logiciel libre selon Debian (NdT : The Debian Free Software Guidelines – ou DFSG).
  • Mythe : La plupart des utilisateurs ne vont plus pouvoir installer Debian.
  • Réalité : les firmwares non-libres resteront disponibles à travers notre infrastructure. Ceux qui sont requis durant l’installation (par exemple pour contrôler l’accès au réseau ou au périphérique de stockage) peuvent également être chargés durant l’installation (qu’ils soients sur un CD ou une clé USB). Nous proposons des archives compressées de ces fichiers (décompressez les simplement sur une clé USB et branchez-la quand cela vous est demandé durant l’installation) ainsi que des images ISO permettant de créer un CD d’installation par le réseau qui contiennent déjà ces fichiers. Bien entendu, elles vont continuer d’exister, même aprés la publication de Squeeze.
  • Mythe : Ces fimwares sont requis, les ôter ne sert à rien et ne rend pas service à l’utilisateur.
  • Réalité : Oui, ces firmwares sont en effet nécessaires au fonctionnement de certains pilotes de certains matériels. Mais tout le monde n’en veut pas. À présent que nous sommes capables de charger ces firmwares sur demande (au lieu de devoir les compiler dans le pilote lui-même), nous pouvons les proposer séparément. Cela permet ainsi à ceux qui ont besoin de firmwares non-libres de les utiliser tandis que que ceux qui n’en veulent pas bénéficieront d’une installation qui en sera dénuée.
  • Mythe : Ah, encore un coup des fêlés de la liberté du projet Debian…
  • Réalité : Il n’y a pas que nous en réalité : nous n’y serions jamais parvenus sans la coopération d’un certain nombre de développeurs du noyau Linux. Et nous ne sommes pas les seuls intéressés par la création d’un noyau libre, d’autres distributions importantes ont également conscience du problème. Citons par exemple le récent commentaire d’un développeur du projet Fedora évoquant des changements dans un de ces firmwares non-libres. Il semble donc que Debian ait simplement été le premier à réaliser le problème des firmwares non-libres.
  • Mythe : Debian fait allégeance à Stallman.
  • Réalité : Je ne me suis pas entretenu avec Richard Stallman à ce sujet mais je pense que Debian n’est pas encore assez libre pour lui ; pour autant que je sache, il aimerait la disparition pure et simple de la section non-libre, ou au minimum qu’elle ne soit plus mentionnée nulle part.

Il reste donc une question : qu’il y a t-il de mal avec les firmwares non-libres ? Ne s’agit-il pas simplement de petits programmes exécutés par le microprocesseur du périphérique concerné ? Pourquoi s’en faire ? Bonne question ! Mettons de côté les problèmes juridiques qui sont susceptibles de se poser, et concentrons-nous sur l’aspect pratique. Le nœud du problème tient au fait que, sans leur code source (et les outils pour les compiler), les firmwares ne sont qu’une suite aléatoire de nombres pour nous. Nous ne savons pas ce qu’ils font, nous ne pouvons pas les analyser ni les améliorer. Nous ne pouvons pas les changer, nous ne pouvons pas assurer leur suivi. Peut-être avez-vous été lire le commentaire du développeur Fedora dont le lien a été donné plus haut ? Je le cite à nouveau car il me semble qu’il a très bien résumé le problème :

Mise à jour des firmwares qlogic 2400 et 2500 vers la version 5.03.13. Que fait la version 5.03.13 ? Personne ne le sait hormis QLogic et ils ne le disent pas. Je leur ai posé la question et ils m’ont répondu que l’information ne pouvait être donnée sans accord de confidentialité. Je vous invite donc à imaginer ce que fait ce firmware et les bogues qu’il corrige. Tant que vous y êtes, imaginez un monde où les fabricants publieraient le code source de leurs firmwares.

À présent que vous savez que nous ne pouvons assurer le suivi de ces firmwares, vous pourriez vous demander si c’est vraiment utile de toute façon. Quels dégâts pourraient bien faire à votre ordinateur un simple petit programme logé dans un périphérique ? Eh bien un scientifique a déjà fait la démonstration d’un firmware pour certaines cartes réseau qui dissimulait un cheval de troie. Donc non seulement c’est un problème en soi, mais cela peut même être un problème de sécurité !

Résumons-nous. Oui, Debian a modifié quelque chose dans ses noyaux. Non, ils vont continuer de fonctionner comme d’habitude. Certains utilisateurs devront peut-être activer le dépôt non-libre mais ce n’est pas obligatoire. Les firmwares nécessaires à l’installation sont aussi disponibles et peuvent être chargés lors du processus d’installation. Alors pourquoi tout ce ramdam ?

À propos, ceux d’entre vous qui craignent de ne pas se rappeler les liens des images ISO et des archives compressées, souvenez-vous de deux choses: wiki et Firmware. Vous trouverez tout ce dont vous avez besoin sur la page Firmware du wiki Debian.

Notes

[1] Crédit photo : Mark Robinson (Creative Commons By)




Selon François Fillon, Microsoft représente l’avenir de l’économie mondiale

Tophee - CC by-nc-saNon seulement Microsoft « représente l’avenir de l’économie mondiale » mais aussi Microsoft « symbolise beaucoup des priorités de la politique économique du Gouvernement » !

La citation exacte, prononcée par François Fillon le 27 janvier dernier à l’occasion d’une visite au siège de Microsoft pour y parler de l’emploi des jeunes, est la suivante :

« Je voulais depuis longtemps venir ici à Microsoft, parce que l’entreprise symbolise beaucoup des priorités de la politique économique du Gouvernement, à la fois parce qu’elle représente la très haute technologie, l’avenir de l’économie mondiale et qu’elle a fait un choix d’implanter une grande partie de ses activités, notamment de ses activités de recherche en France et je sais qu’un certain nombre de mesures que nous avons prises, comme le crédit impôt recherche n’y est pas étranger. »

Je vous laisse juge de la pertinence du propos.

Notre Premier ministre poursuit : « Et puis ensuite, et c’est la raison pour laquelle je suis avec Xavier Bertrand et Nadine Morano ici ce matin, parce que Microsoft est une entreprise exemplaire en matière d’alternance, en matière d’apprentissage, 5 % de ses recrutements sont en alternance c’est plus que le niveau légal minimum. ET il se trouve que cela correspond à une priorité absolue du Gouvernement. »

(intégralité de l’allocution en texte ou en vidéo)

Que Microsoft soit « exemplaire » en matière d’emplois des jeunes et qu’on soit bien content que la société ait décidé d’implanter son siège européen en France, je n’y trouve a priori rien à redire. Sauf peut-être. que le « vrai » siège lui est en Irlande, pour d’évidentes raisons fiscales, et que c’est autant d’argent qui n’est pas redistribué dans l’économie nationale. Et puis n’oublions pas également que Microsoft tire principalement ses revenus de ses vaches à lait que sont Windows et MS Office, qui bénéficient d’une rente de situation de fait (cf le problème de la vente liée) non propice à développer l’informatique locale (et tous les emplois qui vont avec, CQFD). Inutile de rappeler qu’il en va autrement chez le logiciel libre.

Ajoutons que pour un site comme Framasoft qui fait ce qu’il peut depuis des années pour dénoncer la trop grande place faite à Microsoft dans l’Éducation nationale française, ce vibrant hommage, venu du plus haut sommet de l’État, n’est pas forcément une bonne nouvelle. Cela va compliquer plus encore les négociations avec les décideurs de rue de Grenelle. En plus je croyais que c’était plutôt le modèle Apple ou Google qui avait le vent en poupe ces derniers temps chez les observateurs du Nasdaq.

En tout cas, si « Microsoft symbolise les priorités économiques du Gouvernement », je comprends mieux pourquoi cela ne ne se passe pas bien[1].

En toute objectivité, et quelles que soient vos respectables opinions politiques, nous nous sommes choisis, me semble-t-il, le pire gouvernement qui soit pour ce qui concerne les nouvelles technologies. La gauche, les écologistes, le centre la droite non inféodée et même Le Pen (qui, si, si, sait distinguer une licence GPL d’une licence BSD) auraient certainement fait mieux !

Dans un an ce sera l’heure du bilan et il me sera bien difficile de dégager du positif dans ce quinquennat pour l’Internet, le logiciel libre, sa culture et ses enjeux.

Addendum : Dans ce contexte, on pourra s’amuser à relire l’article Fillon, ce « vrai geek »… de Libération, qui commence ainsi : « Fondu d’informatique, le Premier ministre ? Dans un entretien au magazine SVM, il confie vouloir essayer toutes les nouveautés… »

Notes

[1] Crédit photo : Tophee (Creative Commons By-Nc-Sa)




Wikipédia ou quand prendre soin peut faire des miracles

Alice Popkorn - CC by-saComme tout miracle il était imprévu, mais en l’occurrence il a bien eu lieu.

C’est que nous rappelle ici Clay Shirky, considéré comme l’une des têtes pensantes du Web.

Parce que « si on pose un regard traditionnel sur le fonctionnement du monde, Wikipédia ne devrait même pas exister ».

Et pourtant cette encyclopédie tourne. Et elle tourne parce que suffisamment de gens se sentent concernés et veulent en prendre soin. C’est le double et joli sens du verbe « to care » (plus proche ici de Bernard Stiegler que de Martine Aubry !).

« Imaginez un mur sur lequel il serait plus facile d’effacer des graffitis que d’en rajouter. La quantité de graffitis dépendrait alors du degré de motivation de ses défenseurs. Il en va de même pour Wikipédia : Si tous ses fervents participants ne se sentaient plus concernés, tout le projet s’écroulerait en moins d’une semaine, envahie par les vandales et autres spammers. Si vous pouvez continuer à voir Wikipédia en ce moment même, cela veut dire qu’une fois de plus le bien a triomphé du mal. »[1]

Cet article vient clore en beauté notre petite série d’articles consacrés à Wikipédia à l’occasion de la célébration de son dixième anniversaire.

Wikipédia – un miracle imprévu

Wikipedia – an unplanned miracle

Clay Shirky – 14 janvier 2011 – The Guardian
(Traduction Framalang : DaphneK)

Depuis sa naissance il y a tout juste dix ans, Wikipédia s’améliore de jour en jour. C’est pourtant incroyable qu’il puisse même exister.

Wikipédia est l’outil de référence le plus utilisé au monde. Cette affirmation est à la fois ordinaire et stupéfiante : c’est le simple reflet du nombre considérable de ses lecteurs et pourtant, si on pose un regard traditionnel sur le fonctionnement du monde, Wikipédia ne devrait même pas exister. Et encore moins avoir atteint un succès aussi spectaculaire en à peine une dizaine d’années.

Grâce à l’effort cumulé des millions de contributeurs de Wikipédia, il suffit d’un clic pour savoir ce qu’est un infarctus du myocarde, connaître les causes de la guerre de la Bande d’Agacher, ou encore découvrir qui était Spangles Muldoon.

Il s’agit d’un miracle imprévu, comme lorsque « le marché » décide de la quantité de pain disponible en magasin. Wikipédia est cependant encore plus bizarre que le marché : Non seulement tout le contenu est rédigé gratuitement, mais il est aussi disponible gratuitement. Même les serveurs et systèmes d’administration sont financés par des dons. On aurait pourtant eu du mal à imaginer un tel miracle à ses débuts. C’est pourquoi, à l’occasion du dixième anniversaire du site, cela vaut la peine de revenir sur l’invraisemblable histoire de sa genèse.

Il y a dix ans jour pour jour, Jimmy Wales et Larry Sanger s’efforçaient en vain de créer Nupedia, une encyclopédie en ligne dotée d’un système de publication en sept étapes. Malheureusement, cela représentait aussi sept endroits où les choses pouvaient s’immobiliser. Et après presque un an de travail, pratiquement aucun article n’avait encore été publié.

Alors il y a dix ans et un jour, Wales et Sanger décidèrent d’opter pour un wiki, afin de raccourcir une partie du processus. Sanger a alors envoyé un mail aux collaborateurs de Nupedia en les informant de cette nouveauté : « Faites-moi plaisir. Allez-y et ajoutez un petit article. Cela prendra cinq ou dix minutes, grand maximum. »

Le « Faites-moi plaisir » était nécessaire car le wiki est le média social par excellence. Inventé au milieu des années 90 par Ward Cunningham, le wiki n’a qu’une fonction primordiale : produire immédiatement du contenu. Pas besoin de permission pour ajouter, modifier ou supprimer du texte, et une fois le travail terminé, pas besoin de permission non plus pour le publier.

Mais ce qui est plus intéressant, c’est qu’au centre du wiki se trouve une seule action sociale qui pourrait se résumer à : je me sens concerné (NdT : I care, que l’on aurait aussi pu traduire par « J’en prends soin »). Les gens qui rédigent des pages sont ceux qui se sentent assez concernés pour les rédiger. Confier le travail à ces gens plutôt qu’aux sacro-saints experts était quelque chose de tellement audacieux, que Wales et Sanger décidèrent de ne pas remplacer Nupedia par le wiki, ce dernier n’étant là que comme une sorte de brouillon pour Nupedia.

Les participants, cependant, ne l’entendaient pas ainsi. La possibilité de créer un article en cinq minutes et d’en améliorer un autre encore plus rapidement devint une pratique si communicative qu’en quelques jours à peine, il y eut plus d’articles sur le wiki nouveau-né que sur Nupedia. Le wiki fut tellement performant et si différent de Nupedia qu’il migra vite sur un site à part entière. Wikipédia était né (quelques mois plus tard, Nupedia ferma définitivement et Sanger abandonna le projet).

C’est ce processus qui se poursuit aujourd’hui, transformant Wikipédia en un miracle ordinaire pour plus de 250 millions de personnes par mois. Chaque jour de ces dix dernières années, Wikipédia s’est amélioré car quelqu’un – plusieurs millions de quelqu’un en tout – a décidé de l’améliorer.

Parfois il s’agit de commencer un nouvel article. La plus souvent il faut juste retoucher un texte déjà rédigé. Parfois il faut défendre Wikipédia contre le vandalisme. Mais il faut toujours se sentir concerné. La plupart des participants se sentent un peu concernés, ne rédigeant qu’un article. Une poignée se sent toutefois très concernée, produisant des centaines de milliers de lignes à travers des milliers d’articles au fil des années. Le plus important c’est que dans l’ensemble, nous avons tous produit assez pour faire de Wikipédia ce qu’il est aujourd’hui. Ce qui nous apparaît comme quelque chose de stable est en fait le résultat d’incessantes tentatives pour préserver ce qui est bon et améliorer ce qui ne l’est pas. Ainsi, Wikipédia ne se définit pas comme un objet, fut-il virtuel, soutenu par une organisation, mais comme une activité qui entraîne une encyclopédie dans son sillage.

Ce glissement de l’objet vers l’activité a entraîné une des plus incroyables expansions de révisions jamais vue : Le rédacteur en chef de Wikipédia est un quorum tournant composé d’individus particulièrement attentifs. Beaucoup de critiques de Wikipédia se sont concentrées sur le fait que le logiciel laisse n’importe qui écrire n’importe quoi. Ce qui leur échappe, c’est que les liens sociaux entre ces éditeurs motivés permet justement de contrôler cette fonctionnalité. Si le logiciel permet facilement de causer des dégâts, il permet tout aussi facilement de les réparer.

Imaginez un mur sur lequel il serait plus facile d’effacer des graffitis que d’en rajouter. La quantité de graffitis dépendrait alors du degré de motivation de ses défenseurs. Il en va de même pour Wikipédia : Si tous ses fervents participants ne se sentaient plus concernés, tout le projet s’écroulerait en moins d’une semaine, envahie par les vandales et autres spammers. Si vous pouvez continuer à voir Wikipédia en ce moment même, cela veut dire qu’une fois de plus le bien a triomphé du mal.

Bien sûr, Wikipédia n’est pas parfait. Beaucoup d’articles médiocres ont besoin d’être améliorés. L’âge, le sexe ou le groupe ethnique des rédacteurs ne sont pas assez variés et les biographies des personnes vivantes sont continuellement truffées d’erreurs. De plus, les protections mises en place contre les vandales et les spammers font bien souvent fuir les novices et épuisent les anciens. Mais Wikipédia n’est pas seulement une activité au niveau des articles. Partant de la production individuelle pour atteindre la culture de tous, Wikipédia est un bien commun créé par le public. C’est donc aux gens qui se sentent concernés d’essayer aussi de résoudre ces problèmes. Tant que cette culture continuera de considérer « soyez audacieux » comme valeur principale, le site demeurera l’un des actes collectifs de générosité les plus importants de l’Histoire.

Souhaitons donc un joyeux anniversaire à Wikipédia, accompagné de chaleureux remerciements aux millions de personnes qui ont ajouté, modifié, discuté, rectifié, ces gens qui ont créé l’outil de référence le plus utilisé au monde. Merci de nous raconter l’histoire des émeutes de Stonewall et comment Pluton a été reléguée au rang de « planète naine », merci de nous parler de la vallée du grand rift et du tsunami de l’Océan Indien, des rascasses volantes, des « Tiger teams » et du « Bear Market ».

Et avec nos meilleurs vœux pour ce dixième anniversaire, souhaitons d’être assez nombreux à nous sentir concernés pour permettre à Wikipédia de souffler ses vingt bougies en parfaite santé.

Notes

[1] Crédit photo : AlicePopkorn (Creative Commons By-Sa)




Quand Wikpédia rime avec le meilleur des USA

Stig Nygaard - CC byNous avons déjà publié des articles sur Wikipédia à l’occasion de son dixième anniversaire, mais aucun qui n’avait cette « saveur si américaine », et c’est justement ce qui nous a intéressé ici.

L’auteur se livre ici à une description pertinente mais classique de l’encyclopédie libre, à ceci près qu’il y fait souvent mention des États-Unis[1].

Si le récent massacre de Tucson symbolise le pire des USA, alors Wikipédia est son meilleur. Et merci au passage à la liberté d’expression toute particulière qui règne dans ce pays.

En lecture rapide, on aurait vite fait de croire que l’encyclopédie est américaine en fait !

Or le contenu du Wikipédia n’appartient à personne puisqu’il appartient à tout le monde grâce aux licences libres attachées à ses ressources. Mais que le créateur, les serveurs (et donc la juridiction qui en découle), le siège et la majorité des membres de cette Fondation, aient tous la même origine n’est ni neutre ni anodin.

On a vu le venin de l’Amérique – Saluons désormais Wikipédia, pionnier made in US du savoir-vivre mondial.

We’ve seen America’s vitriol. Now let’s salute Wikipedia, a US pioneer of global civility

Timothy Garton Ash – 12 janvier 2011 – Guardian.co.uk
(Traduction Framalang : DaphneK)

Malgré tous ses défauts Wikipédia, qui vient de fêter ses dix ans, est le meilleur exemple d’idéalisme à but non-lucratif qu’on puisse trouver sur Internet.

Wikipédia a eu dix ans samedi dernier. C’est le cinquième site Web le plus visité au monde. Environ 400 million de gens l’utilisent chaque mois. Et je pense que les lecteurs de cet article en font certainement partie. Pour vérifier une information, il suffit désormais de la « googliser » puis, la plupart du temps, on choisit le lien vers Wikipedia comme meilleure entrée.

Ce que cette encyclopédie libre et gratuite – qui contient désormais plus de 17 millions d’articles dans plus de 270 langues – a d’extraordinaire, c’est qu’elle est presque entièrement écrite, publiée et auto-régulée par des volontaires bénévoles. Tous les autres sites les plus visités sont des sociétés commerciales générant plusieurs milliards de dollars. Facebook, avec juste 100 millions de visiteurs en plus, est aujourd’hui évalué à 50 milliards de dollars.

Google à Silicon Valley est un énorme complexe fait de bureaux et de bâtiments modernes, comme une capitale surpuissante. On peut certes trouver des pièces de Lego en libre accès dans le foyer, mais il faut signer un pacte de confidentialité avant même de passer la porte du premier bureau. Quant au langage des cadres de Google, il oscille curieusement entre celui d’un secrétaire de l’ONU et celui d’un vendeur de voitures. On peut ainsi facilement passer du respect des Droits de l’Homme au « lancement d’un nouveau produit ».

Wikipédia, par contraste, est géré par une association à but non-lucratif. La Fondation Wikimedia occupe un étage d’un bâtiment de bureau anonyme situé au centre de San Francisco et il faut frapper fort à la porte pour pouvoir entrer. (On parle d’acheter une sonnette pour fêter les dix ans.) A l’intérieur, la fondation ressemble à ce qu’elle est : une modeste ONG internationale.

Si Jimmy Wales, l’architecte principal de Wikipedia, avait choisi de commercialiser l’entreprise, il serait sans doute milliardaire à l’heure actuelle, comme le fondateur de Facebook Mark Zuckerberg. Selon Wales lui-même, placer le site sous licence libre était à la fois la décision la plus idiote et la plus intelligente qu’il ait jamais prise. Plus que n’importe quel autre site international, Wikipedia fleure encore bon l’idéalisme utopique de ses débuts. Les Wikipédiens, comme ils aiment se définir eux-mêmes sont des hommes et des femmes chargés d’une mission. Cette mission qu’ils endossent fièrement, pourrait se résumer par cette phrase presque Lennonienne (de John, pas Vladimir) prononcée par celui que tout le monde ici appelle Jimmy : « Imaginez un monde dans lequel chacun puisse avoir partout sur la planète libre accès à la somme de toutes les connaissances humaines ».

Insinuer que ce but utopique pouvait être atteint par un réseau d’internautes volontaires – travaillant pour rien, publiant tout et n’importe quoi, sachant que leurs mots sont immédiatement visibles et lisibles par le monde entier – était, bien entendu, une idée totalement folle. Pourtant, cette armée de fous a parcouru un chemin remarquablement long en dix ans à peine.

Wikipédia a toujours de très gros défauts. Ses articles varient généralement d’un sujet ou d’une langue à l’autre en termes de qualité. En outre, beaucoup d’articles sur des personnalités sont inégaux et mal équilibrés. Ce déséquilibre dépend en grande partie du nombre de Wikipédiens qui maîtrisent réellement une langue ou un sujet particulier. Ils peuvent être incroyablement précis sur d’obscurs détails de la culture populaire et étonnement faibles sur des sujets jugés plus importants. Sur les versions les plus anciennes du site, les communautés de rédacteurs volontaires, épaulées par la minuscule équipe de la Fondation, ont fait beaucoup d’efforts afin d’améliorer les critères de fiabilité et de vérifiabilité, insistant particulièrement sur les notes et les liens renvoyant aux sources.

Pour ma part, je pense qu’il faut toujours vérifier plusieurs fois avant de citer une information puisée sur le site. Un article sur Wikipédia paru dans le New Yorker notait à ce propos la fascinante distinction entre une information utile et une information fiable. Dans les années à venir, l’un des plus grands défis de l’encyclopédie sera de réduire l’écart qui pouvant exister entre ces deux notions.

Un autre grand défi sera d’étendre le site au-delà des frontières de l’Occident, où il est né et se sent le plus à l’aise. Un expert affirme qu’environ 80% des textes proviennent du monde de l’OCDE. La fondation vise 680 millions d’utilisateurs en 2015 et espère que cette croissance sera principalement issue de régions comme l’Inde, le Brésil et le Moyen-Orient.

Pour percer le mystère Wikipédia, il ne s’agit pas de pointer ses défauts évidents, mais de comprendre pourquoi le site fonctionne si bien. Les Wikipédiens offrent plusieurs explications : Wikipédia est né assez tôt, alors qu’il n’existait pas encore autant de sites dédiés aux internautes novices, une encyclopédie traite (principalement) de faits vérifiables plutôt que de simples opinions (ce qui est monnaie courante mais aussi un des fléaux de la blogosphère), mais c’est surtout avec sa communauté de rédacteurs-contributeurs que Wikipedia a trouvé la poule aux oeufs d’or.

Par rapport à l’échelle du phénomène, la masse des rédacteurs réguliers est incroyablement faible. Environ 100 000 personnes rédigent plus de cinq textes par mois mais les versions les plus anciennes comme l’anglais, l’allemand, le français ou le polonais sont alimentés par un petit groupe de peut-être 15 000 personnes, chacune effectuant plus de 100 contributions par mois. Il s’agit en grande majorité d’hommes jeunes, célibataires, qui ont fait des études. Sue Gardner, Directrice Executive de la Fondation Wikimedia, affirme qu’elle peut repérer un Wikipédien-type à cent mètres à la ronde. Ce sont les accros du cyberespace.

Comme la plupart des sites internationaux très connus, Wikipédia tire avantage de sa position privilégiée au sein de ce que Mike Godwin, Conseiller Général chez Wikipédia jusqu’au mois d’octobre dernier, décrit comme « un havre de liberté d’expression appelé les États-Unis » Quel que soit le pays d’origine du rédacteur, les encyclopédies de toutes les langues différentes sont physiquement hébergées par les serveurs de la Fondation situé aux États-Unis. Ils jouissent des protections légales de la grande tradition américaine qu’est la liberté d’expression.

Wikipédia a cependant été remarquablement épargnée par la spirale infernale particulièrement bien résumée par la Loi de Godwin (que l’on doit au même Mike Godwin). Cette règle affirme en effet que « lorsqu’une discussion en ligne prend de l’ampleur, la probabilité d’une comparaison faisant référence au Nazis ou à Hitler est environ égale à 1 ». Ceci est en parti dû au fait qu’une encyclopédie traite de faits, mais aussi parce que des Wikipédiens motivés passent énormément de temps à défendre leurs critères de « savoir-vivre » contre les nombreuses tentatives de vandalisme.

Ce savoir-vivre – traduction française du « civilty » anglais – est l’un des cinq piliers de Wikipédia. Depuis le début, Wales soutient qu’il est possible de réunir honnêteté et politesse. Toute une éthique en ligne, une nétiquette – pardons, une wikiquette – s’est développée et mise en place autour de cette notion, donnant naissance à des abréviations telles que AGF (Assume Good Faith) qu’on pourrait traduire par « Supposez ma Bonne Foi ». Les personnes manquant de savoir-vivre sont courtoisement interpelées puis mises en garde, avant d’être exclues si elles persistent. Mais je ne suis pas en position de juger si tout ceci se vérifie dans les versions sorabe, gagaouze et samoanes du site. Wikipédia a peut-être sa part de propos déplacés, mais si une communauté a tendance à dégénérer, la Fondation a au final le pouvoir d’ôter les tirades incriminées du serveur. (Wikipédia est une marque protégée par la loi, alors que Wiki-autre-chose ne l’est pas ; D’ailleurs Wikileaks n’a rien à voir avec Wikipedia et n’est même pas un « wiki » au sens collaboratif du terme.)

Nous ne sommes toujours pas en mesure de savoir si la fusillade de Tucson, en Arizona, est le produit direct du détestable climat qui règne actuellement sur le discours politique américain, tel qu’on a pu l’entendre sur des émissions de radio et de télévisions comme Fox news. Un fou est peut-être tout simplement fou. Mais le venin servi chaque jour par la politique américaine est un fait indéniable. Pour lutter contre ce climat déprimant, il est bon de pouvoir célébrer une invention américaine qui, malgré ses défauts, tente de propager dans le monde entier une combinaison d’idéalisme bénévole, de connaissance et de savoir-vivre acharné.

Notes

[1] Crédit photo : Stig Nygaard (Creative Commons By-Sa)




Les partisans de l’ouverture participent-ils d’un maoïsme numérique ?

Luca Vanzella - CC by-saOpen, open, open ! les partisans de l’ouverture n’auraient, d’après Jason Lanier[1], que ce mot à la bouche, qu’ils s’appellent WikiLeaks, hackers, logiciels libres ou Wikipédia.

En plus, vous savez quoi ? Cette ouverture signifie la mort de la vie privée, la qualité nivelée par les masses, l’innovation en hibernation et une économie confisquée par une minorité. Ce que Jason Lanier résume par l’expression pas forcément très heureuse de « maoïsme numérique ».

Il n’en fallait pas plus que pour notre ami Glyn Moody, souvent traduit ici, ne réagisse !

La parole est à la défense des hackers et de l’Open Source

Glyn Moody – 18 janvier 2011 – The H Open Source
(Traduction Framalang : Olivier Rosseler)

In defence of hackers and open source

À mes yeux, l’avènement de WikiLeaks est un évènement marquant car il apporte un nouvel éclairage sur de nombreux domaines, pas forcément ceux auxquels on pense, parmi ceux-ci : l’éthique des hackers et le monde de l’Open Source.

Jaron Lanier s’y est intéressé récemment dans un article amusant, mais il reste dubitatif. Si vous ne connaissez pas ses hauts faits d’armes, voilà ce que l’autre Wiki, Wikipédia, dit de lui :

Jaron Zepel Lanier (né le 3 mai 1960) est un informaticien américain, compositeur, artiste graphique et essayiste. Il est l’auteur d’un film expérimental, mais ne se considère pas comme un producteur. Au début des années 80, il est l’un des pionniers de ce qu’il contribuera à faire connaître sous le terme de « Réalité Virtuelle ». Il fonda à l’époque la société VPL Research, la première entreprise à commercialiser des produits de réalité virtuelle. Actuellement, il est entre autres, professeur honoraire à l’université de Berkeley, Californie. Il figure dans la liste des 100 personnes les plus influentes du magazine Time de 2010.

Le titre de son essai est « Les dangers de la suprématie des nerds : Le cas de WikiLeaks » (NdT : nerd, qu’on aurait pu traduire par polard ou intello), ce qui vous donne une idée de son point de vue sur les hackers et l’Open Source. Je pense qu’il se trompe dans son argumentaire contre WikiLeaks, comme je l’ai déjà évoqué, mais je me concentrerai ici sur les prises de position contre les hackers et l’ouverture qu’il distille au passage.

Point de départ de sa critique : une rencontre de la plus haute importance qui aurait, selon ses dires, mené à la création de WikiLeaks.

Le nid qui vit éclore WikiLeaks est un forum organisé par John Gilmore, l’un des fondateurs de l’Electronic Frontier Foundation. J’aurais d’ailleurs pu moi-même devenir l’un des fondateurs de l’EFF. J’étais présent quand tout a commencé, lors d’un repas à San Francisco, dans le quartier de Mission, avec John, John Perry Barlow et Mitch Kapor. C’est un pressentiment qui m’a empêché de suivre les autres dans la création de l’EFF, le pressentiment que quelque chose clochait.

Il poursuit :

Le chiffrement les obsédait, le Graal qui rendrait les hackers aussi puissants que les gouvernements, et ça me posait un problème. Les têtes enflaient : Nous, hackers, pouvions changer le cours de l’Histoire. Mais si l’Histoire nous a appris quelque chose, c’est bien que la quête du pouvoir ne change pas le monde. Vous devez vous changer vous-même en même temps que vous changez le monde. La désobéissance civile est avant tout une question de discipline spirituelle.

Mais c’est là, je pense, que son argumentation est fausse : les hackers ne sont pas en « quête de pouvoir ». Les actions qu’ils entreprennent leur confèrent peut-être un certain pouvoir, mais ce n’est qu’un effet secondaire. Par définition, les hackers hackent car ils aiment hacker : c’est l’équivalent au XXIe siècle de « l’art pour l’art ». Je concède que Richard Stallman et ses sympathisants ajoutent une dimension hautement morale au hack : apporter la liberté aux peuples. Mais, je le répète, ils ne sont pas en « quête de pouvoir » : ils veulent le donner, pas le prendre.

Vers la fin de son article, Lanier écrit :

J’ai toujours pensé qu’un monde ouvert favoriserait l’honnête et le juste et dé-crédibiliserait le magouilleur et l’arnaqueur. Appliquée avec modération, cette idée est attrayante, mais si le concept de vie privée venait à disparaître, les gens deviendraient d’abord sans intérêt, puis incompétents et ils finiraient eux-mêmes par disparaître. Derrière cette idée d’ouverture radicale se cache une allégeance de l’Homme aux machines.

Là encore il nous sert une hypothèse sans fondement : « si le concept de vie privée venait à disparaître ». Il ne me semble pas que beaucoup de hackers aient appelé à la «disparition du concept de vie privée » (aucun nom ne me vient à l’esprit d’ailleurs). Il y a confusion entre « ouverture » et « absence de vie privée » alors que ce sont deux choses bien distinctes (bien que l’ouverture ait certainement des implications sur la vie privée, mais de là à définir le premier par l’absence du second, il y a un grand pas).

Cette tendance à créer des épouvantails et à passer allégrement dans le hors-sujet est récurrente chez Lanier. Sa précédente diatribe sur tout ce qui est ouvert, « Maoïsme numérique » en est un bon exemple. Voilà le passage consacré à l’Open Source :

Il faut que je m’accorde une parenthèse sur Linux et les projets similaires. Qu’ils soient « libres » ou « Open Source », ces logiciels ne sont pas, à bien des égards, comme Wikipédia, à vouloir agréger tous les contenus. Les programmeurs de Linux ne sont pas anonymes, au contraire, la reconnaissance personnelle fait partie de leurs motivations, c’est ce qui fait avancer de tels projets. Mais des points communs existent, comme l’absence d’opinion représentative ou de sens du design (au sens esthétique du terme), ce sont des défauts que partagent les logiciels Open Source et Wikipédia.

Ces mouvements excellent dans la création de tout ce qui est infrastructure cachée, comme les serveurs Web. Mais ils sont incapables de créer des interfaces utilisateurs léchées ou d’améliorer l’expérience utilisateur. Si le code de l’interface utilisateur de Wikipédia était aussi ouvert que ses articles, vous pouvez être sûr que ça deviendrait rapidement un bourbier inextricable. L’intelligence collective parvient avec brio à résoudre des problèmes qui peuvent être évalués sur des critères objectifs, mais elle n’est pas adaptée ici lorsque les goûts et les couleurs comptent.

Il a raison, c’est simplement une question de critères. Pour le code source, de nombreux critères objectifs existent, vitesse, poids, portabilité, etc. Mais pour ce qui est d’imaginer une interface, tout est très subjectif, difficile donc de s’assurer que les choses évoluent dans le bon sens à chaque transformation. Mais ce n’est pas l’« ouverture » ou le « collectif » qui posent problème ici : les projets extrêmement centralisés rencontrent les mêmes difficultés pour mesurer les « progrès » dans les domaines très subjectifs, alors que pour eux aussi, les questions plus objectives sont plus simples à résoudre.

Il semblerait que Lanier s’en prend une nouvelle fois à l’« ouverture » dans son dernier livre You Are Not a Gadget (NdT : Vous n’êtes pas un gadget). Je dis « il semblerait », car je ne l’ai pas lu : il y a bien d’autres livres que j’aimerais commencer avant, surtout si je me fie à ce résumé (et d’après ses autres écrits, je peux) :

Dans son ouvrage paru en 2010 (You Are Not A Gadget), Lanier critique l’« esprit de ruche » et compare l’Open Source et l’expropriation de la production intellectuelle orchestrée par les contenus ouverts à une forme de maoïsme numérique. Il trouve qu’ils ont ralenti le développement de l’informatique et l’innovation musicale. Il s’en prend à quelques icônes sacrées telles que Wikipédia et Linux dans son manifeste, Wikipédia pour la toute-puissance des auteurs et éditeurs anonymes qui font régner leur loi, pour la faiblesse de son contenu non-scientifique et pour l’accueil brutal réservé aux personnes qui ont effectivement une expertise dans leur domaine. Il affirme également que certains aspects de l’« Open Source » et de l’« Open Content » possèdent leurs limitations et qu’au fond ils ne créent rien de vraiment neuf ou innovant. Il poursuit en disant que ces approches ont retiré aux classes moyennes des opportunités de financer la création et ont concentré la richesse dans les mains de ceux qu’il nomme les « dieux dans les nuages » : ceux qui, plutôt que d’innover deviennent des intermédiaires, des concentrateurs de contenus, présents au bon endroit au bon moment, dans les « nuages ».

Le fait qu’il ressorte ce bon vieux troll montre que ses arguments sont usés jusqu’à la corde, a-t-il seulement entendu parler de ce truc qu’on appelle Internet, dont la création repose entièrement sur des protocoles et du code ouvert ?

De même, l’idée que le financement de la création de contenu par la classe moyenne est moins probable nie le fait que les gens créent plus de contenu que jamais, gratuitement, pour l’amour de la création, vous voyez on retrouve « l’art pour l’art ». Je vous accorde que ce ne sont pas que des chefs-d’œuvre, mais bon, cela a toujours été le cas, non ? La grande majorité des créations ont toujours été médiocres. Par contre, maintenant on s’en rend mieux compte car nous jouissons d’un accès sans précédent à la création. C’est cette richesse, cette variété dans l’abondance que Lanier semble ne pas apprécier lorsqu’il écrit :

L’idéologie qui pousse une bonne partie du monde connecté, pas seulement WikiLeaks, mais aussi des sites très visités comme Facebook par exemple, est que l’information en suffisamment grande quantité devient automatiquement une Vérité. Cela implique pour les extrémistes qu’Internet est en train de devenir une nouvelle forme de vie, singulière, mondiale, supérieure, post-humaine. Pour les sympathisants plus modérés, si l’information est vérité et que la vérité vous rend libre, alors enrichir l’Internet de plus d’informations rend automatiquement les gens plus libres et le monde meilleur.

Pour les hackers, ce n’est pas tant la quantité qui compte, mais plutôt la qualité, c’est ce qui fait la force des logiciels libres. L’ouverture a simplement pour but d’encourager les gens à s’appuyer sur l’existant pour améliorer les choses, pas juste pour amasser des lignes de code. De plus, la culture hacker valorise fortement les échanges interpersonnels. Le don et la collaboration sont des éléments clés de la méthodologie Open Source. Ça fonctionne car l’un des piliers de la culture hacker est l’attribution : ne pas indiquer que l’on s’appuie sur le travail d’autres personnes est une bévue monumentale. C’est une bonne protection contre les personnes mal intentionnées qui voudraient siphonner la bonne volonté de la communauté.

Au fond, Lanier devrait plutôt louer les hackers et l’Open Source, puisqu’ils partagent son désire d’allégeance aux Hommes plutôt qu’aux machines. Quel dommage qu’une personne de sa qualité ne s’en rende pas compte.

Notes

[1] Crédit photo : Luca Vanzella (Creative Commons By-Sa)