Quand Calysto passe au lycée, les élèves se demandent s’il ne faut pas arrêter Internet !

Prakhar Amba - CC byIl est des billets que l’on n’aime pas avoir à publier. Celui-ci en fait clairement partie tant il m’irrite au plus haut point !

Il illustre malheureusement une nouvelle fois l’incapacité chronique de l’école à comprendre et former aux nouvelles technologies et aux enjeux de demain.

C’est donc l’histoire d’un lycée qui souhaite organiser une journée de sensibilisation sur le thème « Réseaux sociaux, gérer son identité numérique ». Louable intention s’il en est. Et l’on imagine fort bien que derrière ce titre se cache l’ombre de Facebook, devenu effectivement omniprésent chez les ados avec toutes les questions et conséquences que cela implique[1].

Soit, les enseignants ne sont pas tous des spécialistes du numérique, mais il doit bien y avoir dans une équipe pédagogique quelques compétences en la matière. Donc logiquement cela devrait pouvoir se préparer en interne. Mais non, on fait appel à une société privée.

Calysto se définit comme « une agence qui concentre son activité dans la maîtrise des enjeux liés aux usages de l’Internet et aux Technologies de l’Information et de la Communication ». Et, via son site TousConnectes.fr, elle propose aux établissements scolaires des journées d’information « dans le cadre de son partenariat avec le ministère de l’Education nationale ».

Voici la page de présentation de l’offre pour le lycée, sachant qu’il en coûtera à l’établissement (et donc au contribuable) 376 euros par jour. Elle commence ainsi : « Les lycéens se sont largement appropriés l’univers de l’Internet et du téléphone mobile dont les usages sont en constante évolution. S’ils en sont très souvent les prescripteurs, certaines notions leur échappent et nécessitent d’être approfondies. »

Calysto propose également de conférences pour les parents et se targue d’avoir déjà organisé plus de 230 conférences ayant touché plus de 22 000 adultes.

J’ai fait une rapide recherche Web et il semblerait que beaucoup établissements scolaires aient déjà fait appel aux services de Calysto, qui, il y a à peine une semaine, a même eu l’honneur d’un article dans le journal Sud Ouest. Extrait : « De nombreux contenus multimédias sont soumis à des droits d’auteur, la récente loi Hadopi a été mise en place pour les protéger (…) On peut retrouver n’importe quel internaute par son adresse IP ».

Cet extrait anxiogène n’est qu’un avant-goût de ce qui va suivre.

Calysto est passée tout dernièrement dans un lycée dont nous tairons le nom. C’est le témoignage édifiant d’un enseignant présent ce jour-là que nous vous proposons ci-dessous.

Parents vous pouvez dormir tranquille, la police de la pensée veille sur vos enfants ! Sauf que les enfants ne sont pas dupes, et leurs réactions radicales au sortir de la journée donnent paradoxalement espoir : « On fait quoi ? Il faut tout arrêter ? On ne va pas arrêter de vivre quand-même. Dans ce cas il faut interdire Internet ».

Quant à nous (nous Framasoft, mais aussi April, Quadrature, Wikipédia, etc.), il faut absolument que l’on s’organise pour proposer des journées alternatives, bénévoles et gratuites, afin d’opposer à un tel discours notre propre approche et culture du Net.

La plus belle c’est Calysto !

Par un enseignant, quelque part en France

À l’initiative des documentalistes et des CPE dans mon lycée se sont tenus des débats-conférences autour des dangers de l’internet et des réseaux sociaux. Ils ont fait appel à la société privée Calysto qui propose des solutions « clé en main ».

J’y ai assisté avec mes élèves de Seconde, et là je dois dire que j’ai été atterré.Le débat n’avait rien de participatif, l’intervenant faisait réagir les élèves avec des images chocs mais ne poussait pas la réflexion. Nous avons eu droit à une succession à un rythme effréné de faits divers et d’anecdotes. Le discours était très culpabilisant, ce qui est contre-productif avec les ados, « C’est interdit, c’est pas bien, vous n’avez pas lu les conditions d’utilisations, et oui, faut lire ».

Voici mon témoignage mais je dois préalablement dire que parmi mes collègues certains trouvaient d’une part que ça avait le mérite de lancer le débat et qu’il fallait donner une suite avec les profs, et que d’autre part tout le monde n’est pas spécialiste du sujet et qu’il faut passer par des simplifications et des abus de langage. Et qu’un discours policé de spécialiste n’aurait pas eu d’effet sur le public ado.

Lors de la conférence il y a  des oppositions franches sur des faits précis. L’intervenant soutenait certains propos que je lui disais être faux. Il a insisté et à aucun moment n’a montré le moindre doute du genre « je ne suis plus sûr du chiffre exact, il faudrait vérifier ». J’ai du prouver mon point de vue sourcé  a posteriori à mes collègues pour démontrer qu’il s’était manifestement trompé et qu’il a soutenu le contraire, quitte à me faire passer pour un incompétent.

Exemple 1 : Les conditions d’utilisation

Lui – Vous avez un compte Facebook par exemple ? Mains levées. Avez-vous lu les conditions d’utilisation ? Mains baissées. Eh oui faut lire !

Moi, me mettant dans la peau d’un élève – Mais encore ? Une fois qu’on l’a lu, on fait quoi s’il y a un truc qui nous gène ? On n’a pas le choix ?

Lui, véhément – Je ne peux vous laisser dire ça, on a toujours le choix, il faut lire les clauses c’est votre responsabilité, blabla…

C’était ma première intervention je ne pensais vraiment pas à mal, au contraire c’était pour lancer le débat.

Moi, dans mon idée faire émerger l’e-citoyen – Bien sûr mais ce que je veux dire, c’est s’il y a parfois des clauses abusives on fait quoi, les CLUF sont rédigés par des armées d’avocats qui se sont blindés ! N’est-ce pas à la loi, à nos députés, aux associations de consommateurs de nous protéger ?

(Et je ne parle même pas de class-action qu’on n’a pas en France.)

Lui, impatient ne voulant pas aller dans cette direction et voulant reprendre le fil de son intervention formatée et bien rodée – Non vous avez accepté c’est trop tard.

À partir de là il me suggère franchement de me taire, je lui réponds que j’ai été invité avec mes élèves et l’intitulé de l’invitation était Conférence, débat et échanges, là-dessus, il me mouche en me disant « oui, mais avec les élèves. » Je suis passablement énervé. J’ironise en disant que j’avais bien lu les CLUF pourtant.

Exemple 2 : L’HADOPI

Lui – L’Hadopi a faim, ils veulent rentrer dans leurs frais ça coûte cher, elle a condamné 75 000 internautes depuis le mois d’août.

Moi – Personne n’a été condamné, des mails d’avertissements ont été envoyés mais à ce jour aucun accès internet n’a été coupé !

Lui – Si il y a eu 75 000 condamnations et pas plus tard que …. il y a avait un jeune de 19 ans qui s’est fait coupé son accès.

Moi – Il y a eu 75 000 mails envoyés je vous l’accorde mais aucune coupure.

Lui – Nous avons les chiffres, mon collègue de Calysto va à l’ALPA (Association de lutte contre la piraterie audiovisuelle) tout le temps alors…

Grosso-modo on sait mieux que vous.

À ce moment là j’abandonne vu la réaction d’un de mes collègues (mais c’est du détail les batailles de chiffres), au même moment un autre collègue avec son iPhone se connecte sur le site de l’Hadopi et me dit qu’il doit confondre condamnations et recommandations ! Effarant.

Là en se moquant de moi il me demande si je n’ai pas une pause à aller prendre.

On passe à des copies d’écrans de sites pro-ana, les images choquent et font réagir les élèves. Il demande le silence, les menace de ne plus laisser parler si ils sont aussi bruyants.

Exemple 3 : La LOPPSI

Un autre prof pose la question suite aux diapos concernant le streaming et le direct download, peut-on (les autorités) aller voir dans mon disque dur ?

Lui – Oui bien sûr !

Moi, me sentant obligé de réagir alors que je ne voulais plus – Non c’est faux, il faut l’avis d’un juge, la police ou la gendarmerie doit avoir une commision rogatoire pour examiner le contenu de votre ordinateur.

Lui – Et non monsieur c’est LOPPSI 2, vous n’avez pas lu dans le journal : Les dictateurs en rêvaient Sarkozy l’a fait ! ?

Moi, j’ai un doute j’avoue que je n’avais pas potassé la loi LOPPSI2 – La LOPPSI2 n’est pas encore entrée en vigueur, elle vient juste d’être votée, aucun décret d’application n’a été publié.

Lui poursuit sans tenir compte de ma réponse, alors dans la tête des élèves ça donne ceci : « la police, les gendarmes peuvent se connecter même de l’extérieur comme ils veulent à notre ordinateur et accéder à son contenu ».

Après avoir fait quelques recherches ils se trouve que la LOPPSI 2 est actuellement visée par le Conseil constitutionnel et sur Wikipédia (à vérifier) j’ai pu lire que : « La police, sur autorisation du juge des libertés, pourrait utiliser tout moyen (physiquement ou à distance) pour s’introduire dans des ordinateurs et en extraire des données dans diverses affaires, allant de crimes graves (pédophilie, meurtre, etc.) au trafic d’armes, de stupéfiants, au blanchiment d’argent, mais aussi au délit « d’aide à l’entrée, à la circulation et au séjour irrégulier d’un étranger en France commis en bande organisée », sans le consentement des propriétaires des ordinateurs. »

Nos ados téléchargeurs illégaux seraient-ils des terroristes trafiquants de stupéfiants ?

Après ça, c’en était trop je suis sorti une dizaine de minutes de la salle, puis je suis revenu m’installer tout au fond pour ne plus rien dire jusqu’à la fin. Pendant ce temps on assistait à d’autre passes d’armes moins intenses avec un autre collègue.

Et le libre dans tout ça ?

Et bien surprise il y en avait un peu. C’était pas le top mais quand même. On a eu droit à une diapo sur les contenus Creative Commons, mais sans rentrer dans les détails. « Il existe des contenus libres de droits comme le portail Jamendo pour la musique. »

Lui – Jamendo où ce sont des artistes pas connus qui partagent le contenu, c’est financé par la pub.

Moi – On peut aussi donner pour soutenir un artiste qu’on aime… aller à ses concerts.

Lui – Oui c’est comme Grégoire, vous misez sur un artiste en espérant que…

j’ai voulu dire que MyMajorCompany et Jamendo ce n’était pas la même chose, mais je n’ai pu le confier qu’à mon voisin car il était déjà reparti sur un autre sujet.

On a vu aussi un slide sur le P2P avec trois contenus Batman_origin.avi, Firefox, Adobe Reader et il a demandé si c’était du piratage ? Oui pour Batman mais non pour Firefox et Acrobat Reader qui sont gratuits mais nous ne sommes pas rentrés dans les différences entre ces deux contenus « gratuits ».

Lui qui disait qu’il fallait absolument lire les CLUF pour savoir à quoi s’en tenir apparemment ne le savait pas. Et préalablement il a bien dit que l’outil P2P avait été conçu pour partager des fichiers et que ce sont certains utilisateurs qui s’en servent pour partager des contenus qui ne respectent pas le droit d’auteur.

Pour conclure

Je pense  vraiment que l’intervenant était un animateur commercial formé sur le sujet à la va-vite, utilisant des techniques de communication éprouvées : frapper les esprits, faire réagir (rires) puis engueuler méchamment, culpabiliser, provoquer un sentiment de honte (en invoquant par exemple la sexualité hésitante des ados), affirmer sa connaissance sans faille en invoquant des sources bétons mais invérifiables, et abuser des arguments d’autorité sans justifier leur raison d’être.

Le thème que nous voulions traiter était « Réseaux sociaux, gérer son identité numérique ». J’ai eu l’occasion de parler avec quelques élèves par la suite, ils sont sortis de là en se disant « On fait quoi ? Il faut tout arrêter ? On ne va pas arrêter de vivre quand-même. Dans ce cas il faut interdire Internet ».

Peut-être que c’est ce qui nous attend si ce genre d’idées simplistes continue à se diffuser.

Bientôt on aura le droit un avertissement du type : « Internet tue, provoque la dépendance, l’isolement ».

Et nous rajouterons : « et libère des peuples ».

Notes

[1] Crédit photo : Prakhar Amba (Creative Commons By)




Nous sommes prêts à participer nous aussi à la reconstruction du monde

Jane Murple - CC by-saIl n’était pas possible d’envisager un système d’exploitation ou une encyclopédie universelle libres. Et pourtant GNU/Linux et Wikipédia l’ont fait.

Il n’était pas possible d’envisager la chute de tyrans installés depuis plusieurs décennies dans des pays sous contrôle. Et pourtant les Tunisiens, les Égyptiens et les Libyens l’ont fait.

Il n’est pas possible de voir à son tour le monde occidental s’écrouler parce que contrairement aux pays arabes il y règne la démocratie. Et pourtant, si l’on continue comme ça, on y va tout droit. Parce que le problème n’est plus politique, il est désormais avant tout économique.

Et lorsque ceci adviendra, nous, les utopistes de la culture libre, les idéalistes des biens communs, nous serons prêts à participer avec d’autres à la nécessaire reconstruction. Parce que nous avons des modèles, des savoirs et des savoir-faire, des exemples qui marchent, de l’énergie, de la motivation, de l’enthousiasme et cela fait un petit bout de temps déjà que nous explorons les alternatives.

Il n’est guère dans les habitudes du Framablog de s’aventurer dans de telles prophéties. C’est pourtant, à la lecture de la vidéo ci-dessous, la réflexion « brève de comptoir » qui m’est venue ce matin et que je vous livre donc telle quelle à brûle-pourpoint.

Il s’agit d’une vidéo que vous avez peut-être déjà vue car elle a fait le buzz, comme on dit, l’hiver dernier. Sauf que dans « le monde selon Twitter », rien ne remplace plus vite un buzz qu’un autre buzz (parfois aussi futile qu’un lipdub UMP). Elle mérite cependant qu’on s’y attarde un tout petit peu, au moins le temps de sa lecture qui dure une dizaines de minutes.

Nous ne sommes pas à la cellule du Parti communiste de Clichy-sous-Bois mais à la Chambre du Sénat américain, le 10 décembre 2010, et le sénateur du Vermont Bernie Sanders est bien décidé à prendre la parole contre la décision de Barack Obama de reconduire les exemptions d’impôts décidées par George Bush. Une parole qu’il ne lâchera que huit heures et demi plus tard en tentant de faire obstruction par la technique parlementaire dite de la « flibuste » (on se croirait en plein épisode d’À la Maison Blanche sauf que c’est la réalité).

Et son discours débute ainsi : « M. le Président, il y a une guerre en cours dans ce pays… »

Une guerre que mènent les ultra-riches contre une classe moyenne qui doit par conséquent lutter pour sa survie[1]. L’exposé est édifiant et il est étayé par de nombreuses références chiffrées qui font froid dans le dos (1% des américains possèdent aujourd’hui un quart de la richesse du pays, 0,1 % en possèdent même un huitième).

Tout est effectivement en place pour que cela explose le jour où nous arrêterons de nous gaver de pubs, de foot, de téléréalité, d’iTruc et même de Facebook, le jour où nous arrêterons de regarder de travers celui qui pense-t-on ne nous ressemble pas, le jour où nous arrêterons également de croire avec nos médias et nos sondages que voter centre droit ou centre gauche pour élire un homme sans pouvoir pourra changer la donne.

Et n’allez pas me dire que ceci ne concerne que les USA, puisque tout ce qui a été fait en Europe ces dernières années consistait peu ou prou à leur emboîter le pas.

On notera par ailleurs que même certains ultra-riches commencent à comprendre que cela ne tourne pas rond. C’est ainsi qu’on a vu récemment les repentis milliardaires Bill Gates et Warren Buffet proposer aux autres milliardaires de donner un bonne part de leur colossale fortune à des bonnes œuvres. C’est touchant. Il n’est jamais trop tard pour se découvrir philanthrope et obtenir l’absolution mais cela n’y changera rien car le problème est structurel.

Oui la classe moyenne des pays occidentaux se meurt. Or c’est précisément elle qui fournit le gros des troupes du logiciel libre et sa culture (on pensera notamment à tous ces jeunes intellectuels précaires et déclassés). Viendra le jour où elle n’aura plus rien à perdre. Et elle descendra elle aussi dans la rue non seulement pour voir des têtes tomber mais pour proposer et mettre en place un autre monde possible…

—> La vidéo au format webm

Notes

[1] Crédit photo : Jane Murple (Creative Cmmons By-Sa)




Combien de grands écrivains bloqués à la frontière par le droit d’auteur ?

Shandi-Lee Cox - CC byPourquoi certains livres ne sont-ils pas traduits alors que tout porte à croire qu’ils le méritent ?

A contrario pourquoi d’autres livres connaissent de nombreuses traductions malgré le caractère très confidentiel de leur sujet et donc de leur audience potentielle ?

Pour les uns comme pour les autres à cause du droit d’auteur.

Un droit d’auteur qui selon le cas (et le choix) peut décourager ou encourager, nous dit ici Karl Fogel, qui est bien placé pour en parler car ses deux livres, le premier sous licence GNU General Public License et le second sous licence Creative Commons By, ont connu spontanément de nombreuses traductions[1].

Et nous aussi à Framasoft, nous sommes bien placés pour en parler, car lorsque nous décidons d’entamer un long projet de traduction via notre groupe de travail Framalang, la condition sine qua non est que la licence de l’ouvrage original nous y autorise explicitement. Un long projet comme notre dernier framabook Produire du logiciel libre de… Karl Fogel justement !

Le conte des deux auteurs : pourquoi l’un est traduit et l’autre pas

A Tale of Two Authors: Why Translations Happen, or Don’t.

Karl Fogel – 21 février 2011 – QuestionCopyright.org
(Traduction Framalang : Brandelune, Goofy et Penguin)

Pourquoi certains livres ne sont-ils pas traduits ?

Vous penserez peut-être qu’il est difficile de trouver des traducteurs disposés, ou que les compétences nécessaires sont rares, mais je vous propose deux études qui fournissent une autre explication.

La raison principale d’un texte non traduit vient tout simplement du fait qu’on nous interdit de le traduire. Lorsque les restrictions dues aux droits d’auteur ne les entravent pas, les traductions fleurissent.

Si vous êtes sceptique, lisez plutôt la suite. Voici l’histoire de deux auteurs, l’un dont les livres peuvent être traduits librement par n’importe qui, l’autre qu’on ne peut pas traduire. Nous allons même tricher un peu en disant que celui dont les livres sont ouverts à la traduction est un auteur mineur (un de ceux dont les œuvres, pour être parfaitement honnête, ne vont pas changer la face du monde). Tandis que certains des ouvrages de l’autre sont considérés comme des chefs-d’œuvre dans leur langue d’origine, au point que l’on peut trouver des citations d’éminents universitaires mentionnant l’absence de traduction comme « un des plus grands scandales de notre époque ».

Le premier auteur, c’est moi. J’ai écrit deux livres, tous deux sous licence libre, aucun n’a la moindre importance historique même si j’en suis fier et ai été content de les écrire. Le premier, publié en 1999, était un manuel semi-technique expliquant comment utiliser certains logiciels de collaboration. Bien que son public soit limité et que j’aie mis en ligne une version dans un format un peu lourd, des traductions bénévoles ont très vite été proposées, et l’une d’elles au moins (en allemand) a été achevée. D’autres traductions ont peut-être abouti, je ne sais pas (le livre étant déjà ancien et les traductions m’étant incompréhensibles, je n’ai pas fait l’effort d’en savoir plus).

Remarquez que je ne parle ici que de traductions faites par des bénévoles, celles qu’ils entreprennent juste parce qu’ils en ont envie, sans demander au préalable de permission à quiconque (il y avait aussi une traduction en chinois achevée et dont j’ai une version papier publiée, mais je ne la considère pas dans ma démonstration car elle est passée par les canaux de publication contrôlés par l’éditeur).

Mon livre suivant, publié à l’origine en 2005, ne visait également qu’un lectorat potentiel limité : il traite de la gestion de projets collaboratifs open source — il n’était pas exactement destiné à devenir un best-seller. Mais avec le soutien de mon aimable éditeur, O’Reilly Media, je l’ai mis en ligne sous une licence libre, cette fois sous un format plus agréable, et des projets de traductions bénévoles sont aussitôt apparus. Plusieurs ont maintenant porté fruit : le titre existe en japonais, en galicien, en allemand, en néerlandais et en français. La traduction espagnole est presque terminée, et d’autres encore sont en cours dont je vous épargne la liste.

(Ah oui, au fait, plusieurs de ces traductions sont disponibles en format papier de qualité commerciale, j’en ai chez moi des exemplaires. L’activité lucrative est parfaitement compatible avec les modèles de distribution non restrictifs, comme nous l’avons déjà souligné à plusieurs reprises)

Alors… tout ça pour un livre traitant de collaboration au sein des projets open source ? Vraiment ? Que peut-on en déduire ?

Eh bien, voyons un contre-exemple.

Hans Günther Adler (« HG Adler » de son nom de plume) est un auteur mort en 1988 dont l’œuvre est désormais largement reconnu comme majeure dans la littérature allemande sur l’Holocauste. Très peu de ses œuvres ont été traduites en anglais, sauf tout récemment le roman Panorama, publié en Angleterre et dont la critique a longuement parlé.

Deux de ces critiques nous permettent de bien comprendre pourquoi ici, sur QuestionCopyright.org, nous considérons que notre mission essentielle est de recadrer le débat public sur le droit d’auteur. Les deux critiques littéraires — manifestement intelligents, manifestement d’accord sur l’importance d’Adler, et écrivant tous deux pour les plus influentes revues littéraires de langue anglaise — commentent l’absence scandaleuse de traductions d’Adler en anglais tout en se recroquevillant dans une attitude passive quand il s’agit d’expliciter les raisons de cette absence.

D’abord, Judith Shulevitz dans le New York Times :

De temps en temps, un livre vous fait prendre brutalement conscience de la somme d’efforts et de chance qui ont été nécessaires pour le faire arriver entre vos mains. « Panorama » est le premier roman écrit par H. G. Adler, un intellectuel juif et germanophone vivant à Prague qui a survécu à un camp de travail en Bohème, Theresienstadt, Auschwitz, ainsi qu’à un autre camp de travail forcé particulièrement horrible car souterrain, appelé Langenstein près de Buchenwald. Adler écrit la première ébauche en moins de deux semaines, en 1948 il arrive enfin en Angleterre mais ne trouve personne pour publier son livre avant 1968. 20 ans et deux manuscrits plus tard le livre est enfin publié en anglais aujourd’hui, pour la première fois.

Il est difficile de concevoir la raison pour laquelle nous avons dû attendre si longtemps. Il en résulte que Adler est un presque parfait inconnu dans le monde anglophone. Seuls trois de ses livres ont été traduits : un travail historique intitulé « Jews in Germany », un roman appelé « The Journey » et, maintenant, « Panorama ». Le fait que les lecteurs anglais et américains aient eu un accès aussi limité à l’œuvre et à la pensée d’Adler pendant si longtemps est, comme l’écrit ce spécialiste éminent de la litérature allemande moderne qu’est Peter Demetz, « l’un des grands scandales de notre époque ».

Ensuite, voici ce qu’écrit Ruth Franklin dans le New Yorker :

Hermann Broch a écrit que le livre Theresienstadt 1941–1945 deviendrait un classique sur la question, et que la méthode d’Adler « clinique et précise, non seulement saisit les détails essentiels mais parvient à montrer en plus l’étendue de l’horreur des camps d’une manière particulièrement pénétrante ». (Le livre a été publié en Allemagne en 1955 et il est devenu très vite un ouvrage de référence pour les études allemandes sur l’Holocauste mais n’a jamais été traduit en anglais.)

Soit, Shulevitz et Franklin écrivaient des critiques du travail même d’Adler, pas des analyses sur les raisons pour lesquelles ces ouvrages avaient été si peu traduits en anglais. Il est pourtant frappant qu’ils aient choisi tous deux de commenter le manque de traduction, plus ou moins longuement, et pourtant ils n’offrent aucune hypothèse sur les raisons de cette absence. Ils décrivent simplement la situation et expriment leurs regrets, comme s’ils parlaient simplement du mauvais temps ; il n’y aucune indignation ni frustration sur le fait que l’absence de traduction est tout simplement due au fait qu’elles ont été interdites avant même qu’on puisse les commencer.

Je ne vais même pas utiliser « probablement » ou « sans doute » dans cette déclaration. À ce point, il faut considérer qu’il s’agit de faits établis. Si mes livres – mes petits ouvrages qui ne visent qu’une population limitée dans le monde du développement logiciel – sont traduits depuis l’anglais dans d’autres langues au lectorat plus faible, il est tout simplement impossible que les livres bien plus importants de H.G. Adler, sur des sujets beaucoup plus importants, n’aient pas été traduits de l’allemand vers l’anglais, si même une seule personne (ou, plus important encore, un seul groupe) qui aurait eu l’ambition de les traduire avait été libre de le faire.

Il existe un grand nombre de personnes qui parlent couramment à la fois l’anglais et l’allemand ; les études sur l’Holocauste intéressent de très nombreux locuteurs de ces deux langues et il existe des sources de financement, tant gouvernementales que provenant d’organismes à but non lucratif, qui auraient volontiers soutenu ce travail (certaines traductions de mon deuxième livre ont reçu ce genre de financement, il serait incompréhensible que ces financements puissent exister pour cela et pas pour les traductions du travail de Adler).

Le fait que l’absence de traductions d’Adler, ou d’autres œuvres importants, ne soit pas directement compris comme étant dû aux restrictions issues du droit d’auteur souligne la dramatique faiblesse du débat public autour du droit d’auteur. A l’heure actuelle, les traducteurs ne peuvent pas traduire s’ils ne sont pas assurés en premier lieu d’en avoir le droit, et puisque la position par défaut du droit d’auteur est que vous n’avez pas le droit de traduire à moins que quelqu’un ne vous en donne explicitement le droit, la plupart des traducteurs potentiels abandonnent sans avoir même essayé. Ou, plus probablement, ils ne pensent même pas à essayer, car ils ont été habitués à cette culture basée sur la permission. La simple recherche de la personne à qui demander la permission est un processus suffisamment décourageant, sans même compter le temps passé dans les incertaines négociations qui s’ensuivent lorsque vous avez trouvé la bonne personne.

Il n’est pas étonnant que de nombreux ouvrages de valeur restent sans traduction, étant donné les obstacles. Mais il est étonnant que nous continuions à nous voiler la face sur les raisons de cette situation, alors même lorsqu’elles nous crèvent les yeux.

Notes

[1] Crédit photo : Shandi-Lee Cox (Creative Commons By)




Google Art Project : Une petite note discordante dans un concert de louanges

Antonio Pollaiuolo - Public DomainGoogle vient de sortir un énième nouveau projet : Google Art Project.

Il est ainsi décrit dans cette dépêche AFP : « Google a lancé une plate-forme permettant aux amateurs d’art de se promener virtuellement dans 17 des plus grands musées du monde, dont le MoMA de New York et le Château de Versailles, grâce à sa technologie Street View, familier des utilisateurs du site de cartes Google Maps ».

La présentation vidéo de Google est spectaculaire et la visite virtuelle l’est tout autant. Ce qui m’a le plus impressionné c’est le fait que chaque musée offre l’une de ses œuvres à une précision numérique hors du commun (7 milliards de pixels !). Regardez un peu ce que cela donne dans le détail pour La Naissance de Vénus de Boticceli.

Faites un zoom sur son visage et vous serez peut-être comme moi saisi par une certaine émotion. Et si j’ai pris cet exemple ce que j’étais encore récemment devant le vrai tableau à Florence. L’émotion est tout autre, sans commune mesure, elle est bien plus intense évidemment, mais pouvoir regarder à la loupe un tel chef-d’œuvre n’est pas sans intérêt[1].

On a alors vu toute la presse, petit et grande, s’enthousiasmer sur ce nouveau service gratuit (cela allait sans dire avec Google). J’ai ainsi pu comptabiliser plus d’une centaine d’articles dans… Google Actualités (sic, on n’en sort pas !), et jamais je n’y ai lu la moindre critique.

La seule question que l’on se pose éventuellement est de se demander furtivement si un tel projet peut se substituer à la visite réelle. Et la réponse, aussi bien du côté Google que du côté musées, est au contraire que cela stimule la curiosité et amplifie le désir de venir. Un peu comme la vitrine d’un magasin vous donne envie de rentrer en somme. Et puis pour ceux qui ne peuvent vraiment pas y aller comme les enfants d’Afrique ou d’Amérique Latine, c’est toujours bien mieux que rien.

Personne n’est donc venu apporter un seul bémol. On aurait pu souligner que c’est encore et toujours du Google, qui de projets sympas en projets sympas, commence à atteindre une taille intrinsèquement monstrueuse. On aurait pu regretter que pour pouvoir bénéficier d’un parcours individualisé et former ses propres collections il faille évidemment un compte Google (c’est gratuit mais c’est bien là le prix à payer à Google). Plus subtil mais pas moins important, on aurait pu se demander quelles étaient exactement les conditions juridiques des accords entre Google et les musées, notamment pour ce qui concerne l’épineuse question de la reproduction d’œuvres dans le domaine public (d’ailleurs on voit déjà fleurir dans Wikimedia Commons des reproductions d’œuvres directement issues des reproductions de Google Art Project !).

Personne, sauf peut-être Adrienne Alix, présidente de Wikimedia France, qui a publié sur son blog personnel sa « vision critique » du projet, dans un billet que nous avons reproduit ci-dessous parce que nous partageons sa perplexité.

« Les wikimédiens passent énormément de temps à prendre de belles photographies de ces œuvres pour les mettre librement à disposition sur Wikimedia Commons et permettre à tous de les réutiliser. Il est souvent difficile de faire admettre aux musées qu’il est bon de permettre cette très large diffusion de la culture. Les choses changent peu à peu, le dialogue s’engage ces derniers temps, et c’est une très bonne chose (…) Quelle est ma crainte ? Que ces musées qui commencent timidement à ouvrir leurs portes et se lancent avec nous en faisant confiance, en prenant le pari de la diffusion libre de contenus dans le domaine public, se replient sur une solution verrouillée comme celle proposée par Google Art Project, où l’internaute ne peut absolument pas réutiliser les œuvres ainsi montrées. On visite, on ne touche pas. On ne s’approprie pas. On est spectateur, et c’est tout. Je crains que par envie de contrôle de l’utilisation des reproductions d’œuvres conservées dans les musées, la notion de domaine public recule. »

Vous trouverez par ailleurs en annexe, un petit clip vidéo montrant un photographe wikipédien à l’œuvre. Quand Google nous propose une visite virtuelle clinquante mais balisée et pour tout dire un brin étouffante, Wikipédia donne envie d’arpenter le vaste monde et d’en garder traces au bénéfice de tous.

Google Art Project : vision critique

URL d’origine du document

Adrienne Alix – 3 février 2011 – Compteurdedit
Licence Creative Commons By-Sa

Depuis deux jours, le web (et notamment le web « culturel », mais pas seulement) s’enthousiasme pour le dernier-né des projets développés par Google, Google Art Project.

Le principe est compréhensible facilement : Google Art Project, sur le modèle de Google Street View, permet de visiter virtuellement des musées en offrant aux visiteurs une vue à 360°, un déplacement dans les salles. On peut aussi zoomer sur quelques œuvres photographiées avec une très haute résolution et pouvoir en apprécier tous les détails, certainement mieux que ce qu’on pourrait faire en visitant réellement le musée.

Et donc, tout le monde s’extasie devant ce nouveau projet, qui permet de se promener au musée Van Gogh d’Amsterdam, au château de Versailles, à l’Hermitage, à la National Gallery de Londres, etc. En effet c’est surprenant, intéressant, on peut s’amuser à se promener dans les musées.

En revanche, au-delà de l’aspect anecdotique et de l’enthousiasme à présent de rigueur à chaque sortie de projet Google, j’aimerais pointer quelques petits points, qui peuvent paraître pinailleurs, mais qui me semblent importants.

1- d’une part, la qualité n’est pas toujours là. Vous pouvez en effet vous promener dans le musée, mais ne comptez pas forcément pouvoir regarder chaque œuvre en détail. On est dans de la visite « lointaine », un zoom sur une œuvre donnera quelque chose de totalement flou. Les deux captures d’écran ci-dessous sont, je pense, éloquentes.

2- Google rajoute une jolie couche de droits sur les œuvres qui sont intégrées dans ces visites virtuelles. Une part énorme de ces œuvres est dans le domaine public. Pourtant, les conditions générales du site Google Art Project sont très claires : cliquez sur le « Learn more » sur la page d’accueil. Vous verrez deux vidéos expliquant le fonctionnement du service, puis en descendant, une FAQ. Et cette FAQ est très claire :

Are the images on the Art Project site copyright protected?

Yes. The high resolution imagery of artworks featured on the art project site are owned by the museums, and these images are protected by copyright laws around the world. The Street View imagery is owned by Google. All of the imagery on this site is provided for the sole purpose of enabling you to use and enjoy the benefit of the art project site, in the manner permitted by Google’s Terms of Service.

The normal Google Terms of Service apply to your use of the entire site.

On y lit que les photos en haute résolution des œuvres d’art sont la propriété des musées et qu’elles sont protégées par le « copyright » partout dans le monde. Les images prises avec la technologie « street view » sont la propriété de Google. Les images sont fournies dans le seul but de nous faire profiter du Google Art Projetc. Et on nous renvoie vers les conditions générales de Google.

En gros, vous ne pouvez rien faire de ce service. Vous pouvez regarder, mais pas toucher.

3 – D’ailleurs vous ne pouvez techniquement pas faire grand chose de ces vues. Y compris les vues en très haute définition. Effectivement le niveau de détail est impressionnant, c’est vraiment une manière incroyable de regarder une œuvre. Mais après ? Vous pouvez créer une collection. Soit, je décide de créer une collection. Pour cela il faut que je m’identifie avec mon compte google (donc si vous n’avez pas de compte google, c’est dommage pour vous, et si vous vous identifiez, cela fait encore une donnée sur vous, votre personnalité, que vous fournissez à Google. Une de plus). Je peux annoter l’œuvre (mettre un petit texte à côté, sauvegarder un zoom, etc). Que puis-je faire ensuite ? Et bien, pas grand chose. Je peux partager sur Facebook, sur Twitter, sur Google Buzz ou par mail.
Mais en fait, je ne partage pas réellement l’œuvre, je partage un lien vers ma « collection ». C’est à dire que jamais, jamais je ne peux réutiliser cette œuvre en dehors du site.

Donc si par exemple je suis professeur d’histoire ou d’histoire de l’art, je suis obligée de faire entrer mes élèves sur ce site pour leur montrer l’œuvre, je ne peux pas la réutiliser à l’intérieur de mon propre cours, en l’intégrant totalement. Ni pour un exposé. Je ne peux pas télécharger l’œuvre. Qui pourtant est, dans l’immense majorité des cas, dans le domaine public. Il faut donc croire que la photographie en très haute résolution rajoute une couche de droits sur cette photo, ce qui pourrait se défendre, pourquoi pas, mais aujourd’hui ça n’est pas quelque chose d’évident juridiquement.


Vous me direz qu’après tout, cela résulte de partenariats entre des musées et Google, ils prennent les conditions qu’ils veulent, c’est leur problème, on a déjà de la chance de voir tout cela. Ok. Mais ce n’est pas la conception de partage de la culture que je défends.

Je me permettrai de rappeler que, en tant que wikimédienne, et défendant la diffusion libre de la culture, je suis attachée à la notion de « domaine public ». Au fait que, passé 70 ans après la mort d’un auteur, en France et dans une très grande partie du monde, une œuvre est réputée être dans le domaine public. Et donc sa diffusion peut être totalement libre. Sa réutilisation aussi, son partage, etc.

Les wikimédiens passent énormément de temps à prendre de belles photographies de ces œuvres pour les mettre librement à disposition sur Wikimedia Commons et permettre à tous de les réutiliser. Il est souvent difficile de faire admettre aux musées qu’il est bon de permettre cette très large diffusion de la culture. Les choses changent peu à peu, le dialogue s’engage ces derniers temps, et c’est une très bonne chose. Nos points d’achoppement avec les musées tiennent souvent à la crainte de « mauvaise utilisation » des œuvres, le domaine public leur fait peur parce qu’ils perdent totalement le contrôle sur ces œuvres (notamment la réutilisation commerciale). Ils discutent cependant avec nous parce qu’ils ont conscience qu’il est impensable aujourd’hui de ne pas diffuser ses œuvres sur internet, et Wikipédia est tout de même une voie royale de diffusion, par le trafic énorme drainé dans le monde entier (pour rappel, plus de 16 millions de visiteurs unique par mois en France, soit le 6e site fréquenté).

Quelle est ma crainte ? Que ces musées qui commencent timidement à ouvrir leurs portes et se lancent avec nous en faisant confiance, en prenant le pari de la diffusion libre de contenus dans le domaine public, se replient sur une solution verrouillée comme celle proposée par Google Art Project, où l’internaute ne peut absolument pas réutiliser les œuvres ainsi montrées. On visite, on ne touche pas. On ne s’approprie pas. On est spectateur, et c’est tout. Je crains que par envie de contrôle de l’utilisation des reproductions d’œuvres conservées dans les musées, la notion de domaine public recule.

Alors certes, la technologie est intéressante, le buzz est légitime, l’expérience de visite est plaisante. Mais au-delà de cela, est-ce vraiment une vision moderne et « 2.0 » du patrimoine qui est donnée ici ? Je ne le pense pas. J’ai même une furieuse impression de me retrouver dans un CD-ROM d’il y a 10 ans, ou dans le musée de grand-papa.

Pour terminer, je vous invite à aller vous promener sur Wikimedia Commons, dans les catégories concernant ces mêmes musées. C’est moins glamour, pas toujours en très haute résolution, mais vous pouvez télécharger, réutiliser, diffuser comme vous voulez, vous êtes libres…

Au cas où il serait nécessaire de le préciser : je m’exprime ici en mon nom personnel, et uniquement en mon nom personnel. Les opinions que je peux exprimer n’engagent en rien l’association Wikimédia France, qui dispose de ses propres canaux de communication.

Annexe : Vidéo promotionnelle pour Wiki loves monuments

Réalisée par Fanny Schertzer et Ludovic Péron (que l’on a déjà pu voir par ailleurs dans cet excellent reportage).

—> La vidéo au format webm

URL d’origine du document

Notes

[1] Illustration : Portrait de jeune femme, Antonio Polaiolo, fin XVe siècle, MoMatélécharger librement…)




La nouvelle version Squeeze de Debian lavera encore plus blanc

Mark Robinson - CC byC’est un billet un peu technique que nous vous proposons aujourd’hui. Il évoque la « quête du 100% libre » des distributions GNU/Linux.

En effet, vous l’ignoriez peut-être, mais rares sont les distributions GNU/Linux qui soient « totalement libres ».

Ainsi la fort pratique distribution Linux Mint installe dès le départ des codecs (MP3, divX…) et des plugins (Java, flash…) propriétaires. On ne peut donc la considérer comme libre.

Mais, plus subtil, la très populaire distribution Ubuntu non plus, car elle embarque en son sein des drivers propriétaires comme ceux pour les cartes graphiques Nvidia et ATI.

Ces drivers sont des exemples de firmwares (ou micrologiciel), ces logiciels intégrés dans un composant matériel, et ils constituent le sujet principal de notre billet, et traduction, du jour.

Debian est l’une des plus anciennes et célèbres distributions GNU/Linux. Elle sert de base de développement à de nombreuses autres distributions, dont justement Ubuntu et Linux Mint.

L’une des principales caractéristiques de Debian, outre sa stabilité reconnue et le grand nombre d’architectures matérielles supportées, est de ne dépendre directement d’aucune société commerciale : comme le navigateur Firefox de la fondation Mozilla, Debian est le fruit d’une association à but non lucratif. Et si Mozilla possède son Manifesto, Debian a son fameux contrat social.

Elle se trouve actuellement dans sa version 5.0 mais la nouvelle version 6 (nom de code « Squeeze ») devrait sortir d’ici quelques jours.

Or le projet Debian a annoncé que cette nouvelle version bénéficierait, à sa sortie, d’un noyau Linux « libéré», c’est à dire débarrassé de tout firmware qui ne serait pas libre[1]. Cette décision a suscité un certain nombre de d’interrogations autour des conséquences pratiques pour l’utilisateur : allait-il pouvoir continuer à faire fonctionner pleinement sa machine avec cette nouvelle version ?

C’est à ces interrogations que répond l’un des développeurs du projet ci-dessous.

Mythes et réalités concernant les firmwares et leur non-retrait de Debian

Myths and Facts about Firmwares and their non-removal from Debian

Alexander Reichle-Schmehl – 20 janvier 2011 – Tolimar’s Blog
(Traduction Framalang : Antistress, Penguin et Goofy)

L’annonce par le projet Debian de la publication de Squeeze avec un noyau Linux complètement libre a retenu l’attention, ce qui n’est pas une mauvaise chose. Pourtant il semble que cette annonce ait parfois été mal interprétée ou mal relayée. Je vais essayer de résumer les principales erreurs et d’y répondre.

  • Mythe : Debian a retiré tous les firmwares de ses noyaux !
  • Réalité : Non, cette décision ne concerne que les noyaux qui seront inclus dans la prochaine version Debian 6.0 Squeeze. Les noyaux de la version stable actuelle Debian 5.0 Lenny restent tels quels… sauf que, bien sûr, nous réaliserons les mises à jour de sécurité qui s’imposent les concernant, mais ils continueront de contenir les mêmes firmwares qu’actuellement.
  • Mythe : Debian est en train de dégrader ses noyaux en en retirant des choses.
  • Réalité : Debian a transféré certains firmwares de sa section principale (NdT : main) vers sa section non-libre (NdT : non-free). Ils sont toujours présents, dans la section dédiée aux logiciels qui ne répondent à nos critères tels qu’ils résultent des principes du logiciel libre selon Debian (NdT : The Debian Free Software Guidelines – ou DFSG).
  • Mythe : La plupart des utilisateurs ne vont plus pouvoir installer Debian.
  • Réalité : les firmwares non-libres resteront disponibles à travers notre infrastructure. Ceux qui sont requis durant l’installation (par exemple pour contrôler l’accès au réseau ou au périphérique de stockage) peuvent également être chargés durant l’installation (qu’ils soients sur un CD ou une clé USB). Nous proposons des archives compressées de ces fichiers (décompressez les simplement sur une clé USB et branchez-la quand cela vous est demandé durant l’installation) ainsi que des images ISO permettant de créer un CD d’installation par le réseau qui contiennent déjà ces fichiers. Bien entendu, elles vont continuer d’exister, même aprés la publication de Squeeze.
  • Mythe : Ces fimwares sont requis, les ôter ne sert à rien et ne rend pas service à l’utilisateur.
  • Réalité : Oui, ces firmwares sont en effet nécessaires au fonctionnement de certains pilotes de certains matériels. Mais tout le monde n’en veut pas. À présent que nous sommes capables de charger ces firmwares sur demande (au lieu de devoir les compiler dans le pilote lui-même), nous pouvons les proposer séparément. Cela permet ainsi à ceux qui ont besoin de firmwares non-libres de les utiliser tandis que que ceux qui n’en veulent pas bénéficieront d’une installation qui en sera dénuée.
  • Mythe : Ah, encore un coup des fêlés de la liberté du projet Debian…
  • Réalité : Il n’y a pas que nous en réalité : nous n’y serions jamais parvenus sans la coopération d’un certain nombre de développeurs du noyau Linux. Et nous ne sommes pas les seuls intéressés par la création d’un noyau libre, d’autres distributions importantes ont également conscience du problème. Citons par exemple le récent commentaire d’un développeur du projet Fedora évoquant des changements dans un de ces firmwares non-libres. Il semble donc que Debian ait simplement été le premier à réaliser le problème des firmwares non-libres.
  • Mythe : Debian fait allégeance à Stallman.
  • Réalité : Je ne me suis pas entretenu avec Richard Stallman à ce sujet mais je pense que Debian n’est pas encore assez libre pour lui ; pour autant que je sache, il aimerait la disparition pure et simple de la section non-libre, ou au minimum qu’elle ne soit plus mentionnée nulle part.

Il reste donc une question : qu’il y a t-il de mal avec les firmwares non-libres ? Ne s’agit-il pas simplement de petits programmes exécutés par le microprocesseur du périphérique concerné ? Pourquoi s’en faire ? Bonne question ! Mettons de côté les problèmes juridiques qui sont susceptibles de se poser, et concentrons-nous sur l’aspect pratique. Le nœud du problème tient au fait que, sans leur code source (et les outils pour les compiler), les firmwares ne sont qu’une suite aléatoire de nombres pour nous. Nous ne savons pas ce qu’ils font, nous ne pouvons pas les analyser ni les améliorer. Nous ne pouvons pas les changer, nous ne pouvons pas assurer leur suivi. Peut-être avez-vous été lire le commentaire du développeur Fedora dont le lien a été donné plus haut ? Je le cite à nouveau car il me semble qu’il a très bien résumé le problème :

Mise à jour des firmwares qlogic 2400 et 2500 vers la version 5.03.13. Que fait la version 5.03.13 ? Personne ne le sait hormis QLogic et ils ne le disent pas. Je leur ai posé la question et ils m’ont répondu que l’information ne pouvait être donnée sans accord de confidentialité. Je vous invite donc à imaginer ce que fait ce firmware et les bogues qu’il corrige. Tant que vous y êtes, imaginez un monde où les fabricants publieraient le code source de leurs firmwares.

À présent que vous savez que nous ne pouvons assurer le suivi de ces firmwares, vous pourriez vous demander si c’est vraiment utile de toute façon. Quels dégâts pourraient bien faire à votre ordinateur un simple petit programme logé dans un périphérique ? Eh bien un scientifique a déjà fait la démonstration d’un firmware pour certaines cartes réseau qui dissimulait un cheval de troie. Donc non seulement c’est un problème en soi, mais cela peut même être un problème de sécurité !

Résumons-nous. Oui, Debian a modifié quelque chose dans ses noyaux. Non, ils vont continuer de fonctionner comme d’habitude. Certains utilisateurs devront peut-être activer le dépôt non-libre mais ce n’est pas obligatoire. Les firmwares nécessaires à l’installation sont aussi disponibles et peuvent être chargés lors du processus d’installation. Alors pourquoi tout ce ramdam ?

À propos, ceux d’entre vous qui craignent de ne pas se rappeler les liens des images ISO et des archives compressées, souvenez-vous de deux choses: wiki et Firmware. Vous trouverez tout ce dont vous avez besoin sur la page Firmware du wiki Debian.

Notes

[1] Crédit photo : Mark Robinson (Creative Commons By)




Selon François Fillon, Microsoft représente l’avenir de l’économie mondiale

Tophee - CC by-nc-saNon seulement Microsoft « représente l’avenir de l’économie mondiale » mais aussi Microsoft « symbolise beaucoup des priorités de la politique économique du Gouvernement » !

La citation exacte, prononcée par François Fillon le 27 janvier dernier à l’occasion d’une visite au siège de Microsoft pour y parler de l’emploi des jeunes, est la suivante :

« Je voulais depuis longtemps venir ici à Microsoft, parce que l’entreprise symbolise beaucoup des priorités de la politique économique du Gouvernement, à la fois parce qu’elle représente la très haute technologie, l’avenir de l’économie mondiale et qu’elle a fait un choix d’implanter une grande partie de ses activités, notamment de ses activités de recherche en France et je sais qu’un certain nombre de mesures que nous avons prises, comme le crédit impôt recherche n’y est pas étranger. »

Je vous laisse juge de la pertinence du propos.

Notre Premier ministre poursuit : « Et puis ensuite, et c’est la raison pour laquelle je suis avec Xavier Bertrand et Nadine Morano ici ce matin, parce que Microsoft est une entreprise exemplaire en matière d’alternance, en matière d’apprentissage, 5 % de ses recrutements sont en alternance c’est plus que le niveau légal minimum. ET il se trouve que cela correspond à une priorité absolue du Gouvernement. »

(intégralité de l’allocution en texte ou en vidéo)

Que Microsoft soit « exemplaire » en matière d’emplois des jeunes et qu’on soit bien content que la société ait décidé d’implanter son siège européen en France, je n’y trouve a priori rien à redire. Sauf peut-être. que le « vrai » siège lui est en Irlande, pour d’évidentes raisons fiscales, et que c’est autant d’argent qui n’est pas redistribué dans l’économie nationale. Et puis n’oublions pas également que Microsoft tire principalement ses revenus de ses vaches à lait que sont Windows et MS Office, qui bénéficient d’une rente de situation de fait (cf le problème de la vente liée) non propice à développer l’informatique locale (et tous les emplois qui vont avec, CQFD). Inutile de rappeler qu’il en va autrement chez le logiciel libre.

Ajoutons que pour un site comme Framasoft qui fait ce qu’il peut depuis des années pour dénoncer la trop grande place faite à Microsoft dans l’Éducation nationale française, ce vibrant hommage, venu du plus haut sommet de l’État, n’est pas forcément une bonne nouvelle. Cela va compliquer plus encore les négociations avec les décideurs de rue de Grenelle. En plus je croyais que c’était plutôt le modèle Apple ou Google qui avait le vent en poupe ces derniers temps chez les observateurs du Nasdaq.

En tout cas, si « Microsoft symbolise les priorités économiques du Gouvernement », je comprends mieux pourquoi cela ne ne se passe pas bien[1].

En toute objectivité, et quelles que soient vos respectables opinions politiques, nous nous sommes choisis, me semble-t-il, le pire gouvernement qui soit pour ce qui concerne les nouvelles technologies. La gauche, les écologistes, le centre la droite non inféodée et même Le Pen (qui, si, si, sait distinguer une licence GPL d’une licence BSD) auraient certainement fait mieux !

Dans un an ce sera l’heure du bilan et il me sera bien difficile de dégager du positif dans ce quinquennat pour l’Internet, le logiciel libre, sa culture et ses enjeux.

Addendum : Dans ce contexte, on pourra s’amuser à relire l’article Fillon, ce « vrai geek »… de Libération, qui commence ainsi : « Fondu d’informatique, le Premier ministre ? Dans un entretien au magazine SVM, il confie vouloir essayer toutes les nouveautés… »

Notes

[1] Crédit photo : Tophee (Creative Commons By-Nc-Sa)




Wikipédia ou quand prendre soin peut faire des miracles

Alice Popkorn - CC by-saComme tout miracle il était imprévu, mais en l’occurrence il a bien eu lieu.

C’est que nous rappelle ici Clay Shirky, considéré comme l’une des têtes pensantes du Web.

Parce que « si on pose un regard traditionnel sur le fonctionnement du monde, Wikipédia ne devrait même pas exister ».

Et pourtant cette encyclopédie tourne. Et elle tourne parce que suffisamment de gens se sentent concernés et veulent en prendre soin. C’est le double et joli sens du verbe « to care » (plus proche ici de Bernard Stiegler que de Martine Aubry !).

« Imaginez un mur sur lequel il serait plus facile d’effacer des graffitis que d’en rajouter. La quantité de graffitis dépendrait alors du degré de motivation de ses défenseurs. Il en va de même pour Wikipédia : Si tous ses fervents participants ne se sentaient plus concernés, tout le projet s’écroulerait en moins d’une semaine, envahie par les vandales et autres spammers. Si vous pouvez continuer à voir Wikipédia en ce moment même, cela veut dire qu’une fois de plus le bien a triomphé du mal. »[1]

Cet article vient clore en beauté notre petite série d’articles consacrés à Wikipédia à l’occasion de la célébration de son dixième anniversaire.

Wikipédia – un miracle imprévu

Wikipedia – an unplanned miracle

Clay Shirky – 14 janvier 2011 – The Guardian
(Traduction Framalang : DaphneK)

Depuis sa naissance il y a tout juste dix ans, Wikipédia s’améliore de jour en jour. C’est pourtant incroyable qu’il puisse même exister.

Wikipédia est l’outil de référence le plus utilisé au monde. Cette affirmation est à la fois ordinaire et stupéfiante : c’est le simple reflet du nombre considérable de ses lecteurs et pourtant, si on pose un regard traditionnel sur le fonctionnement du monde, Wikipédia ne devrait même pas exister. Et encore moins avoir atteint un succès aussi spectaculaire en à peine une dizaine d’années.

Grâce à l’effort cumulé des millions de contributeurs de Wikipédia, il suffit d’un clic pour savoir ce qu’est un infarctus du myocarde, connaître les causes de la guerre de la Bande d’Agacher, ou encore découvrir qui était Spangles Muldoon.

Il s’agit d’un miracle imprévu, comme lorsque « le marché » décide de la quantité de pain disponible en magasin. Wikipédia est cependant encore plus bizarre que le marché : Non seulement tout le contenu est rédigé gratuitement, mais il est aussi disponible gratuitement. Même les serveurs et systèmes d’administration sont financés par des dons. On aurait pourtant eu du mal à imaginer un tel miracle à ses débuts. C’est pourquoi, à l’occasion du dixième anniversaire du site, cela vaut la peine de revenir sur l’invraisemblable histoire de sa genèse.

Il y a dix ans jour pour jour, Jimmy Wales et Larry Sanger s’efforçaient en vain de créer Nupedia, une encyclopédie en ligne dotée d’un système de publication en sept étapes. Malheureusement, cela représentait aussi sept endroits où les choses pouvaient s’immobiliser. Et après presque un an de travail, pratiquement aucun article n’avait encore été publié.

Alors il y a dix ans et un jour, Wales et Sanger décidèrent d’opter pour un wiki, afin de raccourcir une partie du processus. Sanger a alors envoyé un mail aux collaborateurs de Nupedia en les informant de cette nouveauté : « Faites-moi plaisir. Allez-y et ajoutez un petit article. Cela prendra cinq ou dix minutes, grand maximum. »

Le « Faites-moi plaisir » était nécessaire car le wiki est le média social par excellence. Inventé au milieu des années 90 par Ward Cunningham, le wiki n’a qu’une fonction primordiale : produire immédiatement du contenu. Pas besoin de permission pour ajouter, modifier ou supprimer du texte, et une fois le travail terminé, pas besoin de permission non plus pour le publier.

Mais ce qui est plus intéressant, c’est qu’au centre du wiki se trouve une seule action sociale qui pourrait se résumer à : je me sens concerné (NdT : I care, que l’on aurait aussi pu traduire par « J’en prends soin »). Les gens qui rédigent des pages sont ceux qui se sentent assez concernés pour les rédiger. Confier le travail à ces gens plutôt qu’aux sacro-saints experts était quelque chose de tellement audacieux, que Wales et Sanger décidèrent de ne pas remplacer Nupedia par le wiki, ce dernier n’étant là que comme une sorte de brouillon pour Nupedia.

Les participants, cependant, ne l’entendaient pas ainsi. La possibilité de créer un article en cinq minutes et d’en améliorer un autre encore plus rapidement devint une pratique si communicative qu’en quelques jours à peine, il y eut plus d’articles sur le wiki nouveau-né que sur Nupedia. Le wiki fut tellement performant et si différent de Nupedia qu’il migra vite sur un site à part entière. Wikipédia était né (quelques mois plus tard, Nupedia ferma définitivement et Sanger abandonna le projet).

C’est ce processus qui se poursuit aujourd’hui, transformant Wikipédia en un miracle ordinaire pour plus de 250 millions de personnes par mois. Chaque jour de ces dix dernières années, Wikipédia s’est amélioré car quelqu’un – plusieurs millions de quelqu’un en tout – a décidé de l’améliorer.

Parfois il s’agit de commencer un nouvel article. La plus souvent il faut juste retoucher un texte déjà rédigé. Parfois il faut défendre Wikipédia contre le vandalisme. Mais il faut toujours se sentir concerné. La plupart des participants se sentent un peu concernés, ne rédigeant qu’un article. Une poignée se sent toutefois très concernée, produisant des centaines de milliers de lignes à travers des milliers d’articles au fil des années. Le plus important c’est que dans l’ensemble, nous avons tous produit assez pour faire de Wikipédia ce qu’il est aujourd’hui. Ce qui nous apparaît comme quelque chose de stable est en fait le résultat d’incessantes tentatives pour préserver ce qui est bon et améliorer ce qui ne l’est pas. Ainsi, Wikipédia ne se définit pas comme un objet, fut-il virtuel, soutenu par une organisation, mais comme une activité qui entraîne une encyclopédie dans son sillage.

Ce glissement de l’objet vers l’activité a entraîné une des plus incroyables expansions de révisions jamais vue : Le rédacteur en chef de Wikipédia est un quorum tournant composé d’individus particulièrement attentifs. Beaucoup de critiques de Wikipédia se sont concentrées sur le fait que le logiciel laisse n’importe qui écrire n’importe quoi. Ce qui leur échappe, c’est que les liens sociaux entre ces éditeurs motivés permet justement de contrôler cette fonctionnalité. Si le logiciel permet facilement de causer des dégâts, il permet tout aussi facilement de les réparer.

Imaginez un mur sur lequel il serait plus facile d’effacer des graffitis que d’en rajouter. La quantité de graffitis dépendrait alors du degré de motivation de ses défenseurs. Il en va de même pour Wikipédia : Si tous ses fervents participants ne se sentaient plus concernés, tout le projet s’écroulerait en moins d’une semaine, envahie par les vandales et autres spammers. Si vous pouvez continuer à voir Wikipédia en ce moment même, cela veut dire qu’une fois de plus le bien a triomphé du mal.

Bien sûr, Wikipédia n’est pas parfait. Beaucoup d’articles médiocres ont besoin d’être améliorés. L’âge, le sexe ou le groupe ethnique des rédacteurs ne sont pas assez variés et les biographies des personnes vivantes sont continuellement truffées d’erreurs. De plus, les protections mises en place contre les vandales et les spammers font bien souvent fuir les novices et épuisent les anciens. Mais Wikipédia n’est pas seulement une activité au niveau des articles. Partant de la production individuelle pour atteindre la culture de tous, Wikipédia est un bien commun créé par le public. C’est donc aux gens qui se sentent concernés d’essayer aussi de résoudre ces problèmes. Tant que cette culture continuera de considérer « soyez audacieux » comme valeur principale, le site demeurera l’un des actes collectifs de générosité les plus importants de l’Histoire.

Souhaitons donc un joyeux anniversaire à Wikipédia, accompagné de chaleureux remerciements aux millions de personnes qui ont ajouté, modifié, discuté, rectifié, ces gens qui ont créé l’outil de référence le plus utilisé au monde. Merci de nous raconter l’histoire des émeutes de Stonewall et comment Pluton a été reléguée au rang de « planète naine », merci de nous parler de la vallée du grand rift et du tsunami de l’Océan Indien, des rascasses volantes, des « Tiger teams » et du « Bear Market ».

Et avec nos meilleurs vœux pour ce dixième anniversaire, souhaitons d’être assez nombreux à nous sentir concernés pour permettre à Wikipédia de souffler ses vingt bougies en parfaite santé.

Notes

[1] Crédit photo : AlicePopkorn (Creative Commons By-Sa)




Quand Wikpédia rime avec le meilleur des USA

Stig Nygaard - CC byNous avons déjà publié des articles sur Wikipédia à l’occasion de son dixième anniversaire, mais aucun qui n’avait cette « saveur si américaine », et c’est justement ce qui nous a intéressé ici.

L’auteur se livre ici à une description pertinente mais classique de l’encyclopédie libre, à ceci près qu’il y fait souvent mention des États-Unis[1].

Si le récent massacre de Tucson symbolise le pire des USA, alors Wikipédia est son meilleur. Et merci au passage à la liberté d’expression toute particulière qui règne dans ce pays.

En lecture rapide, on aurait vite fait de croire que l’encyclopédie est américaine en fait !

Or le contenu du Wikipédia n’appartient à personne puisqu’il appartient à tout le monde grâce aux licences libres attachées à ses ressources. Mais que le créateur, les serveurs (et donc la juridiction qui en découle), le siège et la majorité des membres de cette Fondation, aient tous la même origine n’est ni neutre ni anodin.

On a vu le venin de l’Amérique – Saluons désormais Wikipédia, pionnier made in US du savoir-vivre mondial.

We’ve seen America’s vitriol. Now let’s salute Wikipedia, a US pioneer of global civility

Timothy Garton Ash – 12 janvier 2011 – Guardian.co.uk
(Traduction Framalang : DaphneK)

Malgré tous ses défauts Wikipédia, qui vient de fêter ses dix ans, est le meilleur exemple d’idéalisme à but non-lucratif qu’on puisse trouver sur Internet.

Wikipédia a eu dix ans samedi dernier. C’est le cinquième site Web le plus visité au monde. Environ 400 million de gens l’utilisent chaque mois. Et je pense que les lecteurs de cet article en font certainement partie. Pour vérifier une information, il suffit désormais de la « googliser » puis, la plupart du temps, on choisit le lien vers Wikipedia comme meilleure entrée.

Ce que cette encyclopédie libre et gratuite – qui contient désormais plus de 17 millions d’articles dans plus de 270 langues – a d’extraordinaire, c’est qu’elle est presque entièrement écrite, publiée et auto-régulée par des volontaires bénévoles. Tous les autres sites les plus visités sont des sociétés commerciales générant plusieurs milliards de dollars. Facebook, avec juste 100 millions de visiteurs en plus, est aujourd’hui évalué à 50 milliards de dollars.

Google à Silicon Valley est un énorme complexe fait de bureaux et de bâtiments modernes, comme une capitale surpuissante. On peut certes trouver des pièces de Lego en libre accès dans le foyer, mais il faut signer un pacte de confidentialité avant même de passer la porte du premier bureau. Quant au langage des cadres de Google, il oscille curieusement entre celui d’un secrétaire de l’ONU et celui d’un vendeur de voitures. On peut ainsi facilement passer du respect des Droits de l’Homme au « lancement d’un nouveau produit ».

Wikipédia, par contraste, est géré par une association à but non-lucratif. La Fondation Wikimedia occupe un étage d’un bâtiment de bureau anonyme situé au centre de San Francisco et il faut frapper fort à la porte pour pouvoir entrer. (On parle d’acheter une sonnette pour fêter les dix ans.) A l’intérieur, la fondation ressemble à ce qu’elle est : une modeste ONG internationale.

Si Jimmy Wales, l’architecte principal de Wikipedia, avait choisi de commercialiser l’entreprise, il serait sans doute milliardaire à l’heure actuelle, comme le fondateur de Facebook Mark Zuckerberg. Selon Wales lui-même, placer le site sous licence libre était à la fois la décision la plus idiote et la plus intelligente qu’il ait jamais prise. Plus que n’importe quel autre site international, Wikipedia fleure encore bon l’idéalisme utopique de ses débuts. Les Wikipédiens, comme ils aiment se définir eux-mêmes sont des hommes et des femmes chargés d’une mission. Cette mission qu’ils endossent fièrement, pourrait se résumer par cette phrase presque Lennonienne (de John, pas Vladimir) prononcée par celui que tout le monde ici appelle Jimmy : « Imaginez un monde dans lequel chacun puisse avoir partout sur la planète libre accès à la somme de toutes les connaissances humaines ».

Insinuer que ce but utopique pouvait être atteint par un réseau d’internautes volontaires – travaillant pour rien, publiant tout et n’importe quoi, sachant que leurs mots sont immédiatement visibles et lisibles par le monde entier – était, bien entendu, une idée totalement folle. Pourtant, cette armée de fous a parcouru un chemin remarquablement long en dix ans à peine.

Wikipédia a toujours de très gros défauts. Ses articles varient généralement d’un sujet ou d’une langue à l’autre en termes de qualité. En outre, beaucoup d’articles sur des personnalités sont inégaux et mal équilibrés. Ce déséquilibre dépend en grande partie du nombre de Wikipédiens qui maîtrisent réellement une langue ou un sujet particulier. Ils peuvent être incroyablement précis sur d’obscurs détails de la culture populaire et étonnement faibles sur des sujets jugés plus importants. Sur les versions les plus anciennes du site, les communautés de rédacteurs volontaires, épaulées par la minuscule équipe de la Fondation, ont fait beaucoup d’efforts afin d’améliorer les critères de fiabilité et de vérifiabilité, insistant particulièrement sur les notes et les liens renvoyant aux sources.

Pour ma part, je pense qu’il faut toujours vérifier plusieurs fois avant de citer une information puisée sur le site. Un article sur Wikipédia paru dans le New Yorker notait à ce propos la fascinante distinction entre une information utile et une information fiable. Dans les années à venir, l’un des plus grands défis de l’encyclopédie sera de réduire l’écart qui pouvant exister entre ces deux notions.

Un autre grand défi sera d’étendre le site au-delà des frontières de l’Occident, où il est né et se sent le plus à l’aise. Un expert affirme qu’environ 80% des textes proviennent du monde de l’OCDE. La fondation vise 680 millions d’utilisateurs en 2015 et espère que cette croissance sera principalement issue de régions comme l’Inde, le Brésil et le Moyen-Orient.

Pour percer le mystère Wikipédia, il ne s’agit pas de pointer ses défauts évidents, mais de comprendre pourquoi le site fonctionne si bien. Les Wikipédiens offrent plusieurs explications : Wikipédia est né assez tôt, alors qu’il n’existait pas encore autant de sites dédiés aux internautes novices, une encyclopédie traite (principalement) de faits vérifiables plutôt que de simples opinions (ce qui est monnaie courante mais aussi un des fléaux de la blogosphère), mais c’est surtout avec sa communauté de rédacteurs-contributeurs que Wikipedia a trouvé la poule aux oeufs d’or.

Par rapport à l’échelle du phénomène, la masse des rédacteurs réguliers est incroyablement faible. Environ 100 000 personnes rédigent plus de cinq textes par mois mais les versions les plus anciennes comme l’anglais, l’allemand, le français ou le polonais sont alimentés par un petit groupe de peut-être 15 000 personnes, chacune effectuant plus de 100 contributions par mois. Il s’agit en grande majorité d’hommes jeunes, célibataires, qui ont fait des études. Sue Gardner, Directrice Executive de la Fondation Wikimedia, affirme qu’elle peut repérer un Wikipédien-type à cent mètres à la ronde. Ce sont les accros du cyberespace.

Comme la plupart des sites internationaux très connus, Wikipédia tire avantage de sa position privilégiée au sein de ce que Mike Godwin, Conseiller Général chez Wikipédia jusqu’au mois d’octobre dernier, décrit comme « un havre de liberté d’expression appelé les États-Unis » Quel que soit le pays d’origine du rédacteur, les encyclopédies de toutes les langues différentes sont physiquement hébergées par les serveurs de la Fondation situé aux États-Unis. Ils jouissent des protections légales de la grande tradition américaine qu’est la liberté d’expression.

Wikipédia a cependant été remarquablement épargnée par la spirale infernale particulièrement bien résumée par la Loi de Godwin (que l’on doit au même Mike Godwin). Cette règle affirme en effet que « lorsqu’une discussion en ligne prend de l’ampleur, la probabilité d’une comparaison faisant référence au Nazis ou à Hitler est environ égale à 1 ». Ceci est en parti dû au fait qu’une encyclopédie traite de faits, mais aussi parce que des Wikipédiens motivés passent énormément de temps à défendre leurs critères de « savoir-vivre » contre les nombreuses tentatives de vandalisme.

Ce savoir-vivre – traduction française du « civilty » anglais – est l’un des cinq piliers de Wikipédia. Depuis le début, Wales soutient qu’il est possible de réunir honnêteté et politesse. Toute une éthique en ligne, une nétiquette – pardons, une wikiquette – s’est développée et mise en place autour de cette notion, donnant naissance à des abréviations telles que AGF (Assume Good Faith) qu’on pourrait traduire par « Supposez ma Bonne Foi ». Les personnes manquant de savoir-vivre sont courtoisement interpelées puis mises en garde, avant d’être exclues si elles persistent. Mais je ne suis pas en position de juger si tout ceci se vérifie dans les versions sorabe, gagaouze et samoanes du site. Wikipédia a peut-être sa part de propos déplacés, mais si une communauté a tendance à dégénérer, la Fondation a au final le pouvoir d’ôter les tirades incriminées du serveur. (Wikipédia est une marque protégée par la loi, alors que Wiki-autre-chose ne l’est pas ; D’ailleurs Wikileaks n’a rien à voir avec Wikipedia et n’est même pas un « wiki » au sens collaboratif du terme.)

Nous ne sommes toujours pas en mesure de savoir si la fusillade de Tucson, en Arizona, est le produit direct du détestable climat qui règne actuellement sur le discours politique américain, tel qu’on a pu l’entendre sur des émissions de radio et de télévisions comme Fox news. Un fou est peut-être tout simplement fou. Mais le venin servi chaque jour par la politique américaine est un fait indéniable. Pour lutter contre ce climat déprimant, il est bon de pouvoir célébrer une invention américaine qui, malgré ses défauts, tente de propager dans le monde entier une combinaison d’idéalisme bénévole, de connaissance et de savoir-vivre acharné.

Notes

[1] Crédit photo : Stig Nygaard (Creative Commons By-Sa)