Les universitaires ont intérêt à contribuer à Wikipédia — qui a intérêt à ce qu’ils contribuent…


présenté par Christophe Masutti

Le moins que l’on puisse dire, lorsqu’on fréquente les milieux universitaires, c’est que les enseignants-chercheurs partagent des avis très différents à propos de l’encyclopédie en ligne libre Wikipédia. Pour certains, c’est un non-sujet puisqu’il s’agit seulement de permettre à n’importe qui d’écrire n’importe quoi. Pour d’autres, il faut savoir y contribuer parfois pour corriger des erreurs, parfois parce qu’il est aussi du devoir du chercheur que de partager ses connaissances, et pour d’autres encore la pertinence de Wikipédia ne saurait être valide à cause de l’anonymat des contributeurs et de l’absence d’un comité éditorial dans les règles de l’art des revues universitaires classiques.

Une quatrième catégorie, en revanche, prend du recul par rapport aux régimes de publication académiques et considère que ce n’est pas parce que les règles de publications sont universitaires qu’elles doivent être universelles. Ceux-là proposent de contribuer activement à Wikipédia mais en tâchant d’opérer la distinction entre les objectifs et les normes de Wikipédia et les attentes habituelles des publications académiques.

L’American Historical Association est l’une des plus anciennes sociétés savantes aux États-Unis. L’une de ses publications mensuelles, Perspectives on History, a 50 ans d’existence et reste l’une des revues historiques les plus lues au niveau mondial. Stephen W. Campbell, un jeune chercheur, vient d’y publier un article-témoignage dont nous vous proposons ci-dessous une traduction. Il y synthétise rapidement l’attitude classique des historiens vis-à-vis de Wikipédia et propose justement de prendre un peu de recul par rapport aux questions épistémologiques de la neutralité et de l’objectivité.

Certains arguments sont bien entendus discutables, mais le plus important est que, en publiant ce témoignage dans une telle revue, on assiste certainement à une déclaration d’intérêt. Cela montre aussi que l’attitude des chercheurs par rapport à Wikipédia n’est pas un phénomène générationnel. William Cronon, le président de l’AHA en 2012, y est cité comme ayant encouragé la participation à Wikipédia.

La question est plutôt à entrevoir du point de vue de la participation active et volontaire : il y a une vie au-delà du régime de l’évaluation permanente et épuisante des instances de “valorisation” de la recherche académique…


Améliorer Wikipédia : Notes d’un sceptique éclairé

Source : Stephen W. Campbell, Improving Wikipedia: Notes from an Informed Skeptic, dans la revue : Perspectives on History, American Historical Association, mai 2014

Traduction Framalang : hack, r0u, KoS, Amargein, Gilles, Asta, Fchaix, goofy

En tant qu’historien américain qui étudie l’économie politique de la période d’avant la guerre de Sécession, j’ai toujours été fasciné par le mouvement de panique de 1837 – un cataclysme financier qui mérite son nom de « première grande dépression américaine », suivant l’expression employée dans un livre récent. Pendant les congés d’hiver 2012-1013, j’ai cherché « Crise de 1837 » sur Wikipédia et n’ai trouvé qu’une entrée assez décousue qui ne pointait que sur bien peu de sources secondaires. C’était fâcheux, c’est le moins qu’on puisse dire. Les rédacteurs de Wikipédia avaient marqué l’article comme partial ou incomplet et demandaient à un « spécialiste » de l’histoire des États-Unis de l’améliorer.

J’ai pris la décision d’améliorer l’entrée, et dans ce processus j’ai découvert des détails importants concernant les règles de Neutralité du point de vue de Wikipédia, les sous-cultures idéologiquement chargées qui, souvent, altèrent et falsifient ces entrées et une explication probable de mon aptitude à réhabiliter l’entrée avec succès. Depuis deux ans et jusque très récemment, j’ai été un critique véhément à l’encontre de Wikipédia, étant frustré par de trop nombreuses réponses dérivées de Wikipédia aux examens. Mais comme je vais le montrer plus loin, je suis devenu plus optimiste concernant la mission de Wikipédia et je crois qu’elle incarne de nombreuses valeurs auxquelles sont très attachés les universitaires.

Parmi ces derniers on trouve un large éventail d’opinions sur l’utilité de Wikipédia. L’ancien président de l’AHA William Cronon ne voyait que des avantages au fait d’encourager les historiens à contribuer davantage à Wikipédia, tandis que Timothy Messer-Kruse émet un jugement sévère en soulignant les écueils d’un site web qui ne fait pas la différence entre les opinions d’un expert et celles d’un profane, et dont la politique de vérification exclut les contenus seulement fondés sur des sources primaires inaccessibles – ce qui fait de lui un critique virulent de Wikipédia(1). Ma position se situe quelque part entre les deux.

En examinant de plus près cet article sur la Crise de 1837, j’ai remarqué que pratiquement tous les auteurs cités dans les références étaient des libertariens radicaux. La seule « référence externe » était un article écrit de façon informelle, aux sources sélectives, écrit par un obscur historien ne citant pas ses références, et rendu publique lors d’une conférence au Ludwig Von Mises Institute (LVMI), un think-tank d’Alabama qui n’est rattaché à aucune université ni soumis à un système de révision par des pairs.

Tenant son nom de l’économiste autrichien Ludwig Von Mises (1881-1973), l’organisation sponsorise des chercheurs prônant le « laissez-faire » économique et les théories du cycle économique de Friedrich Hayek. Certains LVMIstes (« membres » du LVMI) ont réduit à néant Abraham Lincoln, promu l’étalon-or, et donné une vision romantique du Vieux Sud en omettant l’esclavage. Le groupe rejette catégoriquement, d’après son site web, toute forme de régulation par l’État comme dangereuse pour « la science de la liberté ». Cela semble simpliste. La plupart des historiens reconnaissent que le terme « liberté » a plusieurs significations. L’accès à une assurance-maladie, la protection de l’environnement, ou celle des droits civiques, relèvent de la « liberté », mais nécessitent l’intervention de l’État

J’ai passé plusieurs jours de mes congés d’hiver à ajouter du contenu et des références sur le site, et les éditeurs de Wikipédia, vraisemblablement après avoir approuvé mes modifications, ont supprimé la mention qui fait référence à des informations partiales et incomplètes. Quant à savoir pourquoi cette expérience a été un succès, la réponse pourrait se trouver dans la politique de Wikipédia sur la neutralité de point de vue : les contributeurs doivent s’efforcer de « ne pas donner une fausse impression de parité, ni ne donner trop de poids à un point de vue particulier »(2). Tout économiste chevronné qu’ait été Hayek, l’interprétation de Von Mises était encore en minorité.

La façon dont j’ai édité pourrait expliquer pourquoi je ne me suis pas retrouvé dans une guerre d’édition chronophage. J’ai plus que doublé le nombre de références monographiques et d’articles de journaux révisés par des pairs tout en supprimant très peu du texte préexistant même si je le jugeais suspect. J’ai plutôt restructuré la prose pour la rendre plus lisible. Cette formule ne fonctionne peut être pas toujours, mais les historiens devraient essayer d’écrire autant que possible d’une manière descriptive sur Wikipédia et non de façon analytique, bien que cela puisse être contre-intuitif par rapport à notre formation et que la frontière entre description et analyse soit incertaine.

Les détracteurs de Wikipédia ont beaucoup d’objections valides. Il n’y a pas de rédacteur en chef ayant le dernier mot sur le contenu. La sagesse collective peut renforcer certains préjugés innés ou se révéler erronée au cours du temps. C’est le problème que Messer-Kruse a judicieusement mis en exergue dans ses recherches approfondies sur l’attentat de Haymarket Square – même lorsqu’un contributeur-expert, comme Messer-Kruse, élabore un argumentaire basé sur de solides preuves, les éditeurs bénévoles de Wikipédia peuvent tergiverser ou amoindrir le nouveau point de vue « minoritaire ». Enfin, il existe une possibilité pour que l’existence même de Wikipédia dévalue l’art et le travail d’enseigner et publier. Il y a quelques années, j’ai rédigé un article pour un projet d’encyclopédie sur l’esclavage américain d’un éditeur de référence bien connu. L’éditeur m’informa, après que j’eus fini mon article, que le projet serait interrompu pour une durée indéterminée, en partie en raison de la concurrence avec Wikipédia.

Il n’y a peut-être aucun sujet qui mène autant à la controverse que la pierre fondatrice de Wikipédia sur la neutralité. Les détracteurs se demandent si cet objectif peut être atteint ou même s’il est désirable(3). En décrivant ses règles qui mettent l’accent sur le double verrou de la « vérifiabilité » et du refus des « travaux inédits », Wikipédia indique qu’il vise à décrire les débats, mais pas à s’y engager. C’est cela qui fait hésiter les historiens. À partir du moment où nous sélectionnons un sujet de recherche et que nous collationnons des faits dans un ordre particulier, nous nous engageons involontairement dans un débat. Ajoutons à cela que les faits ne sont jamais vraiment neutres puisque ils sont toujours compris à l’intérieur d’un contexte idéologique plus vaste(4).

De plus, le plus surprenant parmi les règles de Wikipédia est la façon dont le site gère les approches complexes de ces nombreux problèmes philosophiques. Les contributeurs de Wikipédia insistent sur le fait que la neutralité n’est pas la même chose que l’objectivité. Le site évite de traiter les peudo-sciences, les fausses équivalences et soutient les principes de la revue par les pairs. Pour valider des arguments contradictoires, il donne la primauté à l’argument dans les publications érudites, et non à la validation par le grand public. Le règlement de Wikipédia reconnaît même que l’on ne peut pas considérer le principe de neutralité au sens le plus strict car les tentatives d’élimination de toute partialité peuvent se faire au détriment de la signification(5). Ce sont toutes ces normes que les universitaires devraient applaudir. Les rédacteurs de Wikipédia ont sans doute répondu aux critiques de Messer-Kruse, et bien qu’il n’incorporera jamais correctement des informations trop innovantes et récentes uniquement connues dans les milieux scientifiques, la beauté du site est qu’il contient les outils de ses propres améliorations.

Ayant conscience que certains de ces problèmes ne trouveront jamais vraiment de solution, j’en appelle aux historiens pour qu’ils consacrent quelques heures de leur précieux temps libre à l’amélioration de Wikipédia ; à titre d’encouragement, je demande aux administrateurs d’intégrer les contributions à Wikipédia dans leurs exigences de publication concernant l’attribution de poste de professeurs. Les docteurs récemment diplômés font face actuellement à une terrible crise de l’emploi et l’objectif tant convoité d’obtenir un poste de professeur à temps plein s’avère de plus en plus difficile à atteindre. Les contributions à Wikipédia pourraient être un bon moyen de valoriser leur CV en prévision d’un prochain entretien d’embauche. Les détails pour y parvenir restent probablement à régler.

Photo par mikedesign, licence CC BY-2.0 

Peut-être des historiens pourraient-ils s’identifier publiquement sur Wikipédia, sauvegarder leurs contributions, et être crédités si Wikipédia conserve leurs corrections. Publier ouvertement peut réduire le risque de troll, l’anonymat protégeant souvent les internautes des répercussions de commentaires indésirables. Les articles Wikipédia doivent venir en complément, et non en substitution, des articles traditionnels (dans des revues) et monographies, et les comités de validation devraient prendre en compte un certain quota d’articles en ligne par rapport aux articles traditionnels – peut-être quatre ou cinq entrées validées dans Wikipédia pour chaque article dans un journal traditionnel spécialisé.

Une des critiques récurrentes à l’égard des monographies est qu’elles conviennent seulement à un public spécialisé et limité, et finissent par s’empoussiérer sur des étagères de bibliothèques endormies. Peut-être que Wikipédia est le lieu idéal pour diffuser nos propres recherches et expertises à destination d’un public plus vaste, ce qui, théoriquement, permettrait d’améliorer la conception de l’histoire qu’a le public et la façon dont on en parle. Nombreux sont les représentants des sciences dures qui ont déjà pris en compte la publication électronique et comme d’autres l’ont souligné, nous risquons d’être marginalisés comme discipline si nous ne nous joignons pas à ce mouvement(6).

Au moment où j’écris ceci, environ un tiers du texte et la moitié des citations de l’article sur la crise de 1837 sont de ma main. J’ai dû mettre de côté ce précieux projet parce que le nouveau semestre venait de commencer, ce qui est bien regrettable parce que la page pouvait encore être améliorée, du moins ai-je procuré les lignes directrices aux autres spécialistes. Le site compte cinquante-huit « abonnés à cette page » et la section « Historique » affiche un grand nombre de suppressions qui ont été réintroduites – ce qui est peut-être l’indice de l’incorrigible obstination des partisans de Wikipédia. Les étudiants, les passionnés d’économie politique et le grand public disposeront toutefois de meilleures informations historiques, du moins je l’espère, à mesure que Wikipédia s’améliorera de façon continue.

Stephen W. Campbell est maître de conférence au Pasadena City College. Sa thèse de doctorat, terminée en 2013 à l’Université de Santa Barbara, analyse l’interaction entre les journaux, les institutions financières et le renforcement de l’État avant la guerre de Sécession.

Notes (Les ouvrages référencés en liens sont en anglais)

1.  William Cronon, « Scholarly Authority in a Wikified World », Perspectives on History, février 2012, http://www. historians.org/perspectives/issues/2012/1202/Scholarly-Authority-in-a-Wikified-World.cfm (consulté le 23 avril 2013). « The Professor Versus Wikipedia », On The Media, 9 mars 2012, http://www.onthemedia.org/story/191440-professor-versus-wikipedia/transcript/ (consulté le 27 février 2014).

2. Wikipédia : Neutralité du point de vue, http://en.wikipedia. org/wiki/Wikipedia:Neutral_point_of_view (consulté le 26 décembre 2013).

3. Jeremy Brown et Benedicte Melanie Olsen, « Using Wikipedia in the Undergraduate Classroom to Learn How to Write about Recent History », Perspectives on History, 50, Avril 2012 (consulté le 23 avril 2013).

4. Martha Nichols et Lorraine Berry, « What Should We Do About Wikipedia ? », Talking on Writing, 20 mai 2013, http://talkingwriting.com/what-should-we-do-about-wikipedia (consulté le 27 décembre 2013).

5. Wikipédia : Neutralité du point de vue.

6. Lori Byrd Phillips et Dominic McDevitt-Parks, « Historians in Wikipedia : Building an Open, Collaborative History », Perspectives on History, décembre 2012, http://www.historians.org/perspectives/issues/2012/1212/Historians-in-Wikipedia. cfm (consulté le 26 avril 2013).

* Ce travail est sous licence Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International.




Bye bye Google Groups, bonjour Framalistes !

Framalistes

Après un premier billet pour se mettre en ordre de marche et un article d’au revoir à Gmail, Framasoft poursuit sa « chronique d’une migration annoncée ».

Or si la messagerie concernait avant tout notre popote interne, c’est toute notre communauté qui est impactée ici puisque ces listes constituent notre principal outil de travail pour coordonner nos nombreux projets (les Frama***).

Confier nos listes à Google, c’était déjà un problème en soi avant l’affaire Snowden (il fallait ainsi avoir un compte Gmail par exemple pour accéder aux archives) et ça l’est devenu plus encore après. Vous étiez quelques uns à nous le faire remarquer à juste titre, avec plus ou moins de bienveillance et d’impatience 😉

Nous venons donc de passer au moteur de listes Sympa. Voici nos nouvelles listes déjà en production (pour s’inscrire par exemple à Framalang c’est par ici). Cela donne plus de travail à nos serveurs et notre équipe technique mais nous nous sentons d’un coup plus légers, pour ne pas dire plus libres.

Rendez-vous le mois prochain pour de nouvelles aventures…

EDIT : notre Sympa ne servira que pour nos listes, au moins dans un premier temps.
Si par la suite nous constatons que notre infra tourne parfaitement bien et que nous avons quelqu’un qui se sent de gérer ça, nous réfléchirons à ouvrir la création de listes à plus de monde… mais clairement pas maintenant alors qu’on commence seulement le test en conditions réelles.




Les programmeurs ne sont pas des branleurs !

Le travail intellectuel des programmeurs souffrirait-il d’un manque de visibilité et de reconnaissance aux yeux d’une logique managériale qui cherche à mesurer le travail effectif avec des critères dépassés ? C’est ce que laisse entendre ce témoignage qui au détour d’une plaisante anecdote met l’accent sur un relatif malaise d’une profession qu’il est difficile de cerner de l’extérieur, et même de l’intérieur d’une entreprise.

Are Your Programmers Working Hard, Or Are They Lazy? article paru sur le blog de l’auteur

Traduction Framalang : sinma, goofy, KoS

Vos programmeurs travaillent-ils dur, ou sont-ils fainéants ?

par Mike Hadlow

Quand quelqu’un effectue une tâche physique, il est facile d’évaluer à quel point il travaille dur. Vous pouvez le voir physiquement en mouvement et en transpiration. Vous pouvez aussi voir le résultat de son travail : le mur de briques s’élève, le trou dans le sol devient plus profond. Reconnaître et récompenser un dur labeur est un instinct assez fondamental chez l’être humain, c’est l’une des raisons pour lesquelles nous trouvons les sports d’endurance si fascinants. Cette reconnaissance d’un dur travail physique devient un problème quand on l’applique à la gestion de personnes qui travaillent à des activités techniques ou créatives. Souvent, les travailleurs intellectuels efficaces n’ont pas l’air de travailler très dur.

En 2004, j’étais développeur junior dans une grande équipe qui s’occupait du système de fourniture et de facturation d’une entreprise de télévision par câble. Comme tous les grands systèmes, il était constitué de plusieurs unités relativement indépendantes dont s’occupaient des personnes ou des équipes différentes. Les départements de TV analogiques et numériques étaient presque entièrement séparés, pris en charge par des équipes différentes.

L’équipe de la TV analogique avait décidé de fonder son système autour d’une pré-version de Microsoft Biztalk. Quatre gars de chez nous et une équipe de Microsoft le développaient et le faisaient tourner en production. Ils avaient tous l’air de travailler très dur. On les voyait souvent travailler tard dans la nuit et pendant le weekend.

Chacun laissait tomber ce qu’il était en train de faire si un problème survenait en production, ils se réunissaient souvent autour du bureau d’un type, faisaient des suggestions pour régler ce qui n’allait pas, ou pour réparer quelque chose. L’activité était permanente, et tout le monde pouvait voir non seulement qu’il y avait un véritable esprit d’équipe, mais que tout le monde travaillait très très dur.

L’équipe chargée de la TV numérique était tout à fait différente. Le code avait été, en majorité, écrit par une seule personne que l’on appellera Dave. Il était développeur de maintenance junior dans l’équipe. Au départ, j’ai eu beaucoup de difficultés à comprendre le code. Au lieu d’une seule longue procédure dans un endroit précis où tout le travail se serait effectué, il y avait des tas de petites classes et méthodes avec seulement quelques lignes de code. Plusieurs collègues se plaignirent que Dave rendait les choses extrêmement compliquées. Mais Dave me prit sous son aile et me conseilla de lire quelques livres sur la programmation orientée objet. Il m’apprit les patrons de conception, les principes SOLID, et les tests unitaires. Le code commença alors à avoir du sens, et plus je travaillais dessus plus j’appréciais l’élégance de sa conception. Il ne posait pas de problème en phase de production, il ronronnait dans son coin et faisait le boulot. Il était assez facile d’opérer des modifications dans le code, du coup l’implémentation de nouvelles fonctionnalités se faisait souvent sans aucun problème. Les tests unitaires permettaient de trouver la plupart des bugs avant la mise en production.

Le résultat de tout cela est que nous n’avions pas l’air de travailler très dur du tout. Je rentrais chez moi à 18h30, je ne travaillais jamais pendant les weekends, nous ne passions pas des heures attroupés autour du bureau de quelqu’un d’autre pour deviner le problème avec un quelconque système planté en production. De l’extérieur, notre tâche devait sembler beaucoup plus facile que celle des gens de la TV analogique. En vérité, les exigences étaient très similaires, mais nous avions un logiciel mieux conçu et implémenté, et une meilleure infrastructure de développement, notamment les tests unitaires.

La direction fit savoir que des augmentations seraient accordées sur la base de nos performances. Quand ce fut mon tour de parler au directeur, il expliqua qu’il était normal que les augmentations soient accordées à ceux qui travaillaient vraiment dur, et que l’entreprise ne semblait pas importer beaucoup à notre équipe, au contraire de ces héros qui lui consacraient leurs soirées et leurs weekends.

photo par nic’s events – CC BY-SA 2.0

Cette entreprise était l’un des rares laboratoires où l’on pouvait comparer directement les effets d’une bonne ou d’une mauvaise conception logicielle et le comportement d’une équipe. La plupart des organisations ne permettent pas une telle comparaison. Il est très difficile de dire si ce type, transpirant sang et eau, travaillant tard les soirs et weekends, constamment sur la brèche, fait preuve d’une grande volonté pour faire fonctionner un système vraiment très complexe, ou s’il est simplement nul. Sauf si vous pouvez vous permettre d’avoir deux ou plusieurs équipes concurrentes travaillant à résoudre le même problème, mais bon, personne ne fait ça, on ne saura donc jamais. Et au contraire, le type assis dans son coin, travaillant de 9 heures à 17 heures et qui semble passer beaucoup de temps à lire sur internet ? Est-il très compétent pour écrire un code stable et fiable, ou son boulot est-il plus facile que celui des autres ? Pour l’observateur moyen, le premier travaille vraiment dur, pas le second. Travailler dur c’est bien, la paresse c’est mal, n’est-ce pas ?

Je dirais qu’avoir l’air de travailler dur est souvent un signe d’échec. Le développement logiciel est souvent mal fait dans un environnement sous pression et dans lequel on est souvent interrompu. Ce n’est généralement pas une bonne idée de travailler de longues heures. Quelquefois, la meilleure façon de résoudre un problème est d’arrêter d’y penser, d’aller prendre l’air, ou encore mieux, de prendre une bonne nuit de sommeil et de laisser faire notre subconscient. Un de mes livres favoris est « A Mathematician’s Apology » (traduit sous le titre L’apologie d’un mathématicien) par G. H. Hardy, un des mathématiciens anglais les plus importants du XXe siècle. Il y décrit sa routine : quelques heures de travail le matin suivies par un après-midi à regarder le cricket. Il dit qu’il est inutile et contre-productif d’effectuer un travail mental intensif plus de quatre heures par jour.

photo par sfllaw – CC BY-SA 2.0

J’aimerais dire aux manageurs de juger les gens en regardant leurs résultats, leurs logiciels qui tournent bien, et non en regardant si les programmeurs ont l’air de travailler dur. C’est contre-intuitif, mais il est sans doute préférable de ne pas vous assoir tout près de vos développeurs, vous pourrez ainsi avoir une meilleure idée de ce qu’ils ont produit, sans être affecté par des indicateurs conventionnels ou intuitifs. Le travail à distance est particulièrement bénéfique ; vous devez apprécier vos employés pour leur travail, plutôt que par la solution de facilité qui consiste à les regarder assis à leur bureau 8 heures par jour, martelant de façon lancinante sur leur IDE, ou se pressant autour du bureau des autres pour offrir des suggestions « utiles ».




Lecture numérique pour tous ? — Oui, mais en Norvège

Il y a vingt ans, Daniel Ichbiah écrivait :

La connaissance planétaire est à la portée de votre micro-ordinateur. Des bibliothèques bourrées à craquer de littérature, images et sons. Des plus beaux tableaux du musée du Louvre jusqu’à la plastique de Cindy Crawford en passant par des mélopées new age inédites, des extraits de Thelonious Monk ou l’intégrale des Fables d’Ésope. Un geyser d’informations indescriptible. Avec la possibilité de communiquer avec des milliers de passionnés du même sujet, d’échanger idées, documents, clips vidéo… Il ne s’agit pas d’un rêve éveillé. Cela ne se passe pas en 2020, ni même en 2010 ! Vous pouvez l’avoir chez vous en 1994. Il s’agit d’Internet, le réseau qui regroupe déjà trente millions de branchés du monde entier.

Aujourd’hui… le même enthousiaste d’alors publie un pamphlet pour dénoncer la confiscation de nos biens culturels par les nouvelles superpuissances.

Aujourd’hui… ou plutôt non, c’est déjà hier que pour une poignée de dollars Google s’est approprié la culture mondiale. C’est hier que nous avons vu le mouvement inéluctable par lequel les éditeurs finissent par passer des accords de numérisation des imprimés avec Google. Et c’est bien cette année qu’a éclaté le scandale de la numérisation concédée par la BNF (oui, la Bibliothèque Nationale de France !) à des opérateurs privés qui mettent ainsi la main sur le domaine public.

Dans ce contexte, la décision de la Bibliothèque Nationale norvégienne semble d’une audace inouïe, alors qu’on devrait la considérer comme allant de soi : donner l’accès numérique à leur culture à tous les citoyens devrait être un principe partagé. Même en France.

Lire une page à la plage… (Photo mikemol– CC BY 2.0)

La Norvège s’apprête à numériser tous les livres en norvégien, et autorisera les adresses IP norvégiennes à les lire tous, quel que soit le copyright

Article original du magazine Techdirt

Traduction Framalang : audionuma, sinma, goofy, KoS, Penguin, peupleLà, Sky, lamessen

Voici une nouvelle plutôt étonnante qui nous vient de Norvège :

La Bibliothèque Nationale de Norvège prévoit la numérisation de tous les livres d’ici le milieu des années 2020. Oui, tous. Tous les livres. Du moins les livres en norvégien. Des centaines de milliers de livres. Chacun des livres du fonds de la Bibliothèque Nationale.

Bon, dans n’importe quel pays normal — appelons « normal » un pays où le copyright a atteint des sommets de démence monopolistique —, si lesdits livres étaient encore sous copyright, et à supposer que leurs éditeurs en aient au préalable autorisé une version numérique, on ne pourrait probablement y avoir accès que dans un réduit spécialement conçu à cet usage au troisième sous-sol de la Bibliothèque Nationale, et les lire sur un (petit) écran, sous le regard de gardiens placés de chaque côté, chargés de vérifier qu’aucune copie illégale n’est effectuée.

Voici tout au contraire ce qui va se passer avec la collection numérisée de la Bibliothèque Nationale norvégienne :

Si, selon l’adresse IP de votre machine, vous résidez en Norvège, vous aurez la possibilité d’accéder à tous les ouvrages du XXe siècle, y compris ceux qui sont encore sous copyright. Les œuvres hors copyright, quelle que soit la période, seront accessibles en téléchargement.

Comme le souligne avec humour Alexis C. Madrigal dans son article du magazine The Atlantic, il peut y avoir des conséquences plutôt intéressantes à ces approches de la numérisation si différentes entre la Norvège et les USA :

Imaginez les archéologues numériques du futur tombant sur les vestiges d’une civilisation datant du début du XXIe siècle, dans un antique data center au fin fond de la toundra en plein réchauffement climatique. Ils fouillent tout cela, trouvent quelques débris de Buzzfeed et de The Atlantic, peut-être un fragment de l’Encyclopaedia Britannica, et puis soudain, brillant comme une pépite au milieu des résidus numériques : une collection complète de littérature norvégienne.

Tout à coup, les Norvégiens deviennent pour les humains du XXVIIe siècle ce que les Grecs de l’Antiquité ont été pour notre Renaissance. Tous les couples des colonies spatiales se mettent à donner à leurs enfants des prénoms comme Per ou Henrik, Amalie ou Sigrid. La capitale de notre nouvelle planète d’accueil sera baptisée Oslo.

Voilà ce qui arrive aux pays qui imposent des lois abusives en matière de copyright. Non seulement elles empêchent les artistes d’aujourd’hui de créer leurs œuvres en s’appuyant sur celles de leurs prédécesseurs — une pratique qui était habituelle pendant des siècles avant que n’apparaissent récemment les monopoles intellectuels — mais ces lois vont jusqu’à mettre en péril la conservation et la transmission de cultures entières, tout cela en raison du refus des éditeurs d’adapter la règlementation du copyright à notre temps, c’est-à-dire d’autoriser la numérisation à grande échelle et la diffusion à la façon dont la Norvège l’envisage.

 – – –
En savoir plus : La page de présentation de la politique de numérisation sur le site de la National Library of Norway




Pourquoi le logiciel libre est plus important que jamais, par Richard Stallman

Richard Stallman a publié un article important dans le magazine Wired à l’occasion des 30 ans du projet GNU.

Article que nous avons traduit collaborativement avec la relecture attentive du groupe de travail « trad-gnu » de l’April et l’accord final de Richard himself.

Pour l’anecdote Stallman commence désormais toujours ses emails ainsi : « À l’attention des agents de la NSA ou du FBI qui liraient ce courriel : veuillez envisager l’idée que la défense de la constitution des États-Unis contre tous ses ennemis, étrangers ou nationaux, nécessite que vous suiviez l’exemple de Snowden. » (cf ce tweet)

Medialab Prado - CC by-sa

Pourquoi le logiciel libre est plus important que jamais

Why Free Software Is More Important Now Than Ever Before

Richard Stallman – 28 septembre 2013 – Wired (Opinion)
(Traduction Framalang : Asta, ckiw, Penguin, Amine Brikci-N, lgodard, Feadurn, Thérèse, aKa, Paul, Scailyna, Armos, genma, Figue + anonymes)
Licence : CC By-Nd – Version de la traduction : 5 octobre 2013

Cela fait maintenant 30 ans que j’ai lancé la campagne pour la liberté en informatique, c’est-à-dire pour que le logiciel soit free ou « libre » (NdT : en français dans le texte — RMS utilise ce mot pour souligner le fait que l’on parle de liberté et non de prix). Certains programmes privateurs, tels que Photoshop, sont vraiment coûteux ; d’autres, tels que Flash Player, sont disponibles gratuitement — dans les deux cas, ils soumettent leurs utilisateurs au pouvoir de quelqu’un d’autre.

Beaucoup de choses ont changé depuis le début du mouvement du logiciel libre : la plupart des gens dans les pays développés possèdent maintenant des ordinateurs — parfois appelés « téléphones » — et utilisent internet avec. Si les logiciels non libres continuent de forcer les utilisateurs à abandonner à un tiers le pouvoir sur leur informatique, il existe à présent un autre moyen de perdre ce pouvoir : le « service se substituant au logiciel » ou SaaSS (Service as a Software Substitute), qui consiste à laisser le serveur d’un tiers prendre en charge vos tâches informatiques.

Tant les logiciels non libres que le SaaSS peuvent espionner l’utilisateur, enchaîner l’utilisateur et même attaquer l’utilisateur. Les logiciels malveillants sont monnaie courante dans les services et logiciels privateurs parce que les utilisateurs n’ont pas de contrôle sur ceux-ci. C’est là le coeur de la question : alors que logiciels non libres et SaaSS sont contrôlés par une entité externe (généralement une société privée ou un État), les logiciels libres sont contrôlés par les utilisateurs.

Pourquoi ce contrôle est-il important ? Parce que liberté signifie avoir le contrôle sur sa propre vie.

Si vous utilisez un programme pour mener à bien des tâches affectant votre vie, votre liberté dépend du contrôle que vous avez sur ce programme. Vous méritez d’avoir un contrôle sur les programmes que vous utilisez, d’autant plus quand vous les utilisez pour quelque chose d’important pour vous.

Votre contrôle sur le programme requiert quatre libertés essentielles. Si l’une d’elles fait défaut ou est inadaptée, le programme est privateur (ou « non libre ») :

(0) La liberté d’exécuter le programme, pour tous les usages.

(1) La liberté d’étudier le fonctionnement du programme, et de le modifier pour qu’il effectue vos tâches informatiques comme vous le souhaitez ; l’accès au code source est une condition nécessaire. Les programmes sont écrits par des programmeurs dans un language de programmation — comme de l’anglais combiné avec de l’algèbre — et sous cette forme le programme est le code source. Toute personne connaissant la programmation, et ayant le programme sous forme de code source, peut le lire, comprendre son fonctionnement, et aussi le modifier. Quand tout ce que vous avez est la forme exécutable, une série de nombres qui est optimisée pour fonctionner sur un ordinateur mais extrêmement difficile à comprendre pour un être humain, la compréhension et la modification du programme sous cette forme sont d’une difficulté redoutable.

(2) La liberté de redistribuer des copies, donc d’aider votre voisin. (Ce n’est pas une obligation ; c’est votre choix. Si le programme est libre, cela ne signifie pas que quelqu’un a l’obligation de vous en offrir une copie, ou que vous avez l’obligation de lui en offrir une copie. Distribuer un programme à des utilisateurs sans liberté, c’est les maltraiter ; cependant, choisir de ne pas distribuer le programme — en l’utilisant de manière privée — ce n’est maltraiter personne.)

(3) La liberté de distribuer aux autres des copies de vos versions modifiées; en faisant cela, vous donnez à toute la communauté une possibilité de profiter de vos changements ; l’accès au code source est une condition nécessaire.

Les deux premières libertés signifient que chaque utilisateur a un contrôle individuel sur le programme. Avec les deux autres libertés, n’importe quel groupe d’utilisateurs peuvent exercer ensemble un contrôle collectif sur le programme. Ce sont alors les utilisateurs qui contrôlent le programme.

Si les utilisateurs ne contrôlent pas le programme, le programme contrôle les utilisateurs.

Avec le logiciel privateur, il y a toujours une entité, le « propriétaire » du programme, qui en a le contrôle — et qui exerce, par ce biais, un pouvoir sur les utilisateurs. Un programme non libre est un joug, un instrument de pouvoir injuste. Dans des cas extrêmes (devenus aujourd’hui fréquents), les programmes privateurs sont conçus pour espionner les utilisateurs, leur imposer des restrictions, les censurer et abuser d’eux. Le système d’exploitation des iChoses d’Apple, par exemple, fait tout cela. Windows, le micrologiciel des téléphones mobiles et Google Chrome pour Windows comportent chacun une porte dérobée universelle qui permet à l’entreprise de modifier le programme à distance sans requérir de permission. Le Kindle d’Amazon a une porte dérobée qui peut effacer des livres.

Dans le but d’en finir avec l’injustice des programmes non libres, le mouvement du logiciel libre développe des logiciels libres qui donnent aux utilisateurs la possibilité de se libérer eux-mêmes. Nous avons commencé en 1984 par le développement du système d’exploitation libre GNU. Aujourd’hui, des millions d’ordinateurs tournent sous GNU, principalement sous la combinaison GNU/Linux.

Où se situe le SaaSS dans tout cela ? Le recours à un Service se substituant à un logiciel n’implique pas que les programmes exécutés sur le serveur soient non libres (même si c’est souvent le cas) . Mais l’utilisation d’un SaaSS ou celle d’un programme non libre produisent les mêmes injustices : deux voies différentes mènent à la même situation indésirable. Prenez l’exemple d’un service de traduction SaaSS : l’utilisateur envoie un texte à traduire, disons, de l’anglais vers l’espagnol, au serveur ; ce dernier traduit le texte et renvoie la traduction à l’utilisateur. La tâche de traduction est sous le contrôle de l’opérateur du serveur et non plus de l’utilisateur.

Si vous utilisez un SaaSS, l’opérateur du serveur contrôle votre informatique. Cela nécessite de confier toutes les données concernées à cet opérateur, qui sera à son tour obligé de les fournir à l’État. Qui ce serveur sert-il réellement ?

Quand vous utilisez des logiciels privateurs ou des SaaSS, avant tout vous vous faites du tort car vous donnez à autrui un pouvoir injuste sur vous. Il est de votre propre intérêt de vous y soustraire. Vous faites aussi du tort aux autres si vous faites la promesse de ne pas partager. C’est mal de tenir une telle promesse, et c’est un moindre mal de la rompre ; pour être vraiment honnête, vous ne devriez pas faire du tout cette promesse.

Il y a des cas où l’utilisation de logiciel non libre exerce une pression directe sur les autres pour qu’ils agissent de même. Skype en est un exemple évident : quand une personne utilise le logiciel client non libre Skype, cela nécessite qu’une autre personne utilise ce logiciel également — abandonnant ainsi ses libertés en même temps que les vôtres (les Hangouts de Google posent le même problème). Nous devons refuser d’utiliser ces programmes, même brièvement, même sur l’ordinateur de quelqu’un d’autre.

Un autre dommage causé par l’utilisation de programmes non libres ou de SaaSS est que cela récompense son coupable auteur et encourage le développement du programme ou « service » concerné, ce qui conduit à leur tour de nouvelles personnes à tomber sous la coupe de l’entreprise qui le développe.

Le dommage indirect est amplifié lorsque l’utilisateur est une institution publique ou une école. Les services publics existent pour les citoyens — et non pour eux-mêmes. Lorsqu’ils utilisent l’informatique, ils le font pour les citoyens. Ils ont le devoir de garder un contrôle total sur cette informatique au nom des citoyens. C’est pourquoi ils doivent utiliser uniquement des logiciels libres et rejeter les SaaSS.

La souveraineté des ressources informatiques d’un pays l’exige également. D’après Bloomberg, Microsoft montre les bogues de Windows à la NSA avant de les corriger. Nous ne savons pas si Apple procède pareillement, mais il subit la même pression du gouvernement américain que Microsoft. Pour un gouvernement, utiliser de tels logiciels met en danger la sécurité nationale.

Les écoles — et toutes les activités d’éducation — influencent le futur de la société par l’intermédiaire de leur enseignement. C’est pourquoi les écoles doivent enseigner exclusivement du logiciel libre, pour transmettre les valeurs démocratiques et la bonne habitude d’aider autrui (sans mentionner le fait que cela permet à une future génération de programmeurs de maîtriser leur art). Enseigner l’utilisation d’un programme non libre, c’est implanter la dépendance à l’égard de son propriétaire, en contradiction avec la mission sociale de l’école.

Pour les développeurs de logiciels privateurs, nous devrions punir les étudiants assez généreux pour partager leurs logiciels ou assez curieux pour chercher à les modifier. Ils élaborent même de la propagande contre le partage à l’usage des écoles. Chaque classe devrait au contraire suivre la règle suivante :

« Élèves et étudiants, cette classe est un endroit où nous partageons nos connaissances. Si vous apportez des logiciels, ne les gardez pas pour vous. Au contraire, vous devez en partager des copies avec le reste de la classe, de même que le code source du programme au cas où quelqu’un voudrait s’instruire. En conséquence, apporter des logiciels privateurs en classe n’est pas autorisé, sauf pour les exercices de rétroingénierie. »

En informatique, la coopération comprend la redistribution de copies identiques d’un programme aux autres utilisateurs. Elle comprend aussi la redistribution des versions modifiées. Le logiciel libre encourage ces formes de coopération quand le logiciel privateur les prohibe. Ce dernier interdit la redistribution de copies du logiciel et, en privant les utilisateurs du code source, il empêche ceux-ci d’apporter des modifications. Le SaaSS a les même effets : si vos tâches informatiques sont exécutées au travers du web, sur le serveur d’un tiers, au moyen d’un exemplaire du programme d’un tiers, vous ne pouvez ni voir ni toucher le logiciel qui fait le travail et vous ne pouvez, par conséquent, ni le redistribuer ni le modifier.

D’autres types d’œuvres sont exploitées pour accomplir des tâches pratiques ; parmi celles-ci, les recettes de cuisine, les matériels didactiques tels les manuels, les ouvrages de référence tels les dictionnaires et les encyclopédies, les polices de caractère pour l’affichage de texte formaté, les schémas électriques pour le matériel à faire soi-même, et les patrons pour fabriquer des objets utiles (et pas uniquement décoratifs) à l’aide d’une imprimante 3D. Il ne s’agit pas de logiciels et le mouvement du logiciel libre ne les couvre donc pas au sens strict. Mais le même raisonnement s’applique et conduit aux mêmes conclusions : ces œuvres devraient être distribuées avec les quatre libertés.

On me demande souvent de décrire les « avantages » du logiciel libre. Mais le mot « avantages » est trop faible quand il s’agit de liberté.

La vie sans liberté est une oppression, et cela s’applique à l’informatique comme à toute autre activité de nos vies quotidiennes.

Nous devons gagner le contrôle sur tous les logiciels que nous employons. Comment y arriver ? en refusant les SaaSS et les logiciels privateurs sur les ordinateurs que nous possédons ou utilisons au quotidien. En développant des logiciels libres (pour ceux d’entre nous qui sont programmeurs). En refusant de développer ou de promouvoir les logiciels privateurs ou les SaaSS. En partageant ces idées avec les autres. Rendons leur liberté à tous les utilisateurs d’ordinateurs.

Crédit photo : Medialab Prado (Creative Commons By-Sa)




Structurer un projet communautaire, par Lamessen

Repéré, pauvre de lui, de par son activisme forcené au sein du groupe Framalang, Lamessen est l’un des plus récents (et jeunes) membres de Framasoft. Il a notamment activement participé au projet de traduction du livre Open Advice, dont nous vous reparlerons.

Il nous fait partager ici les fruits de son expérience en matière de gestion de projets.

David Shankbone - CC by

Structurer un projet communautaire

URL d’origine du document

Lamessen – 9 septembre 2013 – CC By-Sa

Lancer un projet communautaire est toujours une aventure humaine intéressante. Au-delà des avantages que cela confère (multiplier les compétences, trouver de la complémentarité et ainsi proposer un rendu final de meilleure qualité, avancer plus rapidement, etc.) c’est avant tout l’occasion de partager des moments de complicité et de travailler dans la bonne humeur. Cela permet aussi de créer une synergie qui permet de palier certaines périodes creuses que peut connaître un projet mené individuellement. Mais si les projets communautaires représentent une expérience unique, ils présentent aussi des difficultés supplémentaires qu’il faut prendre en compte dès le départ, de façon à être sûr qu’il arrivera à son terme.

La Cathédrale et le Bazar

Vous connaissez sans doute l’essai d’Eric Raymond, La Cathédrale et le Bazar. Cet essai oppose, dans une comparaison entre le développement de logiciels fermés et de logiciels open source, un mode de fonctionnement en cathédrale (approche excessivement organisée et inflexible) à un mode de fonctionnement en bazar (approche apparemment désorganisée et hautement flexible).

Par nature, un projet communautaire libre, comme pour les projets logiciels, ressemble davantage à un fonctionnement en mode Bazar. Cela permet une flexibilité plus grande, et les allées et venues des différents contributeurs. Cette forme est tout à fait adaptée, mais nécessite tout de même la mise en place d’une organisation initiale. Fonctionner globalement en mode bazar ne doit pas dire fonctionner sans aucune structure. Sinon, les énergies se disperseront et le projet ne pourra pas aboutir. Il est donc nécessaire, pour lancer le projet, d’organiser le travail, et de mettre en place un système de suivi du projet. C’est bien entendu ce qui est mis en place dans le cadre des logiciels. Mais il ne faut pas oublier de le faire également de façon plus large pour les projets de traduction, de livres, de documentation etc. Cet article est avant tout issu d’un retour d’expérience sur les projets de traduction, en raison de mon expérience personnelle. Mais cela peut s’appliquer dans d’autres domaines.

Structurer le projet

Souvent, le projet naît d’une idée. Il a parfois été commencé par une personne unique, qui va chercher à faire appel à d’autres contributeurs motivés pour le mener à son terme. C’est à ce moment, avant que le projet collaboratif se lance réellement, qu’il est nécessaire de proposer un squelette de projet. Cette création de structure peut se diviser en plusieurs étapes.

Étape 1 : état des lieux

Tout comme vous le feriez en arrivant dans un nouveau logement, il est nécessaire de faire l’état des lieux du projet. C’est une étape rapide, qui consiste finalement à synthétiser un certain nombre d’informations.

  • Quel est l’objectif final du projet ? Dès le départ (et pour toute la durée du projet), il faut bien garder à l’esprit la finalité du projet. Cet objectif est ce qui doit permettre d’orienter chacun des choix techniques qui seront à faire pendant le projet.
  • Qui sont les contributeurs intéressés ? Il faut s’assurer de disposer de toutes les compétences nécessaires pour arriver au bout du projet. Si certaines compétences manquent (un graphiste manquant à l’appel par exemple), il faudra prévoir dès le lancement du projet de trouver un contributeur pour combler ce manque.
  • Quelles sont les étapes nécessaires ? Il faut décomposer dès le départ le projet en étapes intermédiaires qui permettront de cadencer la réalisation globale. Ces jalons intermédiaires pourront parfois être menés en parallèle. Dans le cadre de la traduction d’un livre par exemple, on peut imaginer une étape de traduction, puis une étape de correction, une de mise en page, etc.
  • Où en est le projet ? Quand le projet a été initié suite à une initiative individuelle, il est possible que certaines parties du projet soient déjà commencées, voire parfois terminées. Il est également possible – c’est la grande force du Libre – de récupérer des éléments déjà existants, réalisés dans le cadre d’autres projets. (Dans ce dernier cas, il faudra bien sûr penser à respecter les licences et ne pas oublier de citer la présence de travaux issus d’un autre projet/d’une autre personne.)
Étape 2 : créer un système de suivi

Il est nécessaire de pouvoir avoir une vision d’ensemble du projet tout au long de sa réalisation. Les différentes étapes du projet doivent y être réunies, avec les informations nécessaires pour les participants, et l’avancement. Ce système doit être idéalement partagé avec les différents participants, de façons à ce qu’un nouveau contributeur arrivant en cours de route puisse immédiatement voir où le groupe en est et tout de suite contribuer efficacement. Pour les étapes qui ne peuvent pas être réalisées de façon collaborative, ce fichier permettra aussi d’indiquer clairement qui est en charge de l’étape, de façon à ce qu’elle ne soit pas commencée par plusieurs personnes en même temps. Il existe bien entendu de nombreuses façon de procéder. Les logiciels de gestion de version permettent de regrouper la dernière version du projet, mais aussi les versions précédentes et toutes les modifications apportées. C’est la meilleure réponse au besoin de suivi de projet.

  • Github est un service de gestion de version collaborative en ligne très utilisé. Il est basé sur le programme git créé par Linus Torvalds. Il est avant tout destiné aux développements logiciels, mais il peut toutefois être utilisé pour des projets de création de livres ou de documentations, comme c’est le cas pour le livre Open Advice. Cet outil, bien que non libre, est très en vogue, et gratuit pour les projets de logiciel libre. Vous pouvez toutefois privilégier l’un de ses équivalents libres, comme Gitorious.
  • Open project est probablement la solution offrant le plus large potentiel. Cet outil complet de gestion de projet permet de suivre l’avancement du projet, permettant un accès distant, la gestion d’un planning, des participants et des différentes tâches. Il est bien entendu utilisable pour bien d’autres choses que les projets communautaires.
  • Dans le cadre de projets courts et linéaires, où il y a peu de parallélisation des tâches, il est bien sûr possible d’utiliser un tableur pour faire un suivi allégé. Il pourra être partagé via le cloud, ou réalisé sur des tableurs en ligne, comme le service proposé par Framasoft : Framacalc. Cette solution est moins complète que les outils présentés ci-dessus, orientés pour le logiciel. Mais dans le cadre de traductions ou de documentation, cela peut parfaitement remplir sa fonction.
Étape 3 : mettre en place les outils de travail collaboratif

Une fois l’outil de suivi en place, il faut avoir les outils nécessaires au travail collaboratif. En fonction du projet, ils peuvent être variés. Dans le cadre de développement logiciel, cela peut tout simplement passer par l’utilisation de git, en passant par des services comme github, cité dans l’étape 2. Mais quand il s’agit de traductions, ou d’organisations d’événements, la création de documentations ou d’autres choses, il existe des outils simples, qui ne seront pas un frein à la participation d’utilisateurs moins connaisseurs. Voici 3 exemples d’outils facilement disponibles et simples d’utilisation :

  • Etherpad est un éditeur de texte collaboratif en ligne (libre, bien entendu). Il permet de se connecter à plusieurs utilisateurs pour modifier un même document en direct. Un système de coloration du texte permet de repérer les contributions de chacun. Il intègre également une gestion de versions, un petit chat pour pouvoir dialoguer avec les autres utilisateurs et un système d’export du document. Il est à installer sur son propre serveur, ou à utiliser via des services en ligne qui le proposent, comme le service Framapad, proposé par Framasoft.
  • Booktype est une plate-forme collaborative (libre) qui permet la rédaction collaborative de livres. Les différents utilisateurs peuvent interagir sur ces derniers par chapitre, en mode texte ou en HTML (une seul utilisateur par chapitre à la fois, contrairement à etherpad). Il intègre un gestionnaire de version, et permet l’export du document sous divers formats (PDF, ePub, ODT, HTML, MOBI, etc.). C’est un outil qui est utilisé pour la préparation ou la traduction de livres libres, notamment par Framabook ou Floss Manuals. Il faudra toutefois l’installer sur un serveur pour pouvoir l’utiliser.
  • Les Wiki sont des sites modifiables directement par les utilisateurs, avec ou sans inscription. Il est particulièrement adapté pour des projets de documentation. Il existe différentes versions de Wiki, à installer en fonction de ses besoins, du plus simple (par exemple DokuWiki) au plus avancé (par exemple Mediawiki, utilisé pour Wikipédia).

En route vers le succès

En mettant en place une structure comme celle décrite ci-dessus, vous pourrez sereinement lancer votre projet. Le mode de fonctionnement global pourra être en bazar, cette structure initiale vous permettra de garder la main, avoir une bonne vision de l’avancement et vous aidera à mieux animer le projet. Ce n’est bien entendu pas la seule façon de structurer un projet de culture Libre pour réussir. Tout ceci n’est finalement qu’un exemple issu d’un retour d’expérience.

Ne pas oublier la communication

Bien sûr, cette structure est destinée à un projet communautaire. Et qui dit travail de groupe dit communication. Pour que la mayonnaise puisse prendre, il est absolument indispensable d’échanger un maximum entre les différents contributeurs. Tout le monde doit pouvoir savoir ce qu’il y a à faire, connaître les tenants et aboutissants du projet et se sentir impliqué. Et cela passe par une communication efficace. Un maximum d’échange est donc nécessaire, y compris pour assurer une bonne ambiance de travail au sein du projet. Un projet qui se déroule dans une ambiance conviviale est un projet qui aboutira à un résultat final de meilleur qualité, et de façon plus efficace qu’un projet sans communication qui se déroule de façon morne. Garder ce fil de communication actif du début à la fin du projet, c’est s’assurer que le tout ne finisse pas par s’essouffler, en laissant les contributeurs s’isoler et se décourager. Bref, la communication est en réalité le point le plus important.

Crédit photo : David Shankbone (Creative Commons By)




Le chiffrement, maintenant (1)

Internet est dans un sale état. Tout cassé, fragmenté, explosé en parcelles de territoires dont des géants prédateurs se disputent âprement les lambeaux : Google, Apple, Facebook, Amazon, et tous ceux qui sont prêts à tout pour ravir leur monopole ne voient en nous que des profils rentables et dans nos usages que des consommations. La captation par ces entreprises de nos données personnelles a atteint un degré de sophistication auquel il devient difficile d’échapper.

Mais désormais une autre menace pèse sur tous les usagers du net, celle de la surveillance généralisée. Sans remonter aux années où était révélé et contesté le réseau Echelon, depuis longtemps on savait que les services secrets (et pas seulement ceux des pays de l’Ouest) mettaient des moyens technologiques puissants au service de ce qu’on appelait alors des « écoutes ». Ce qui est nouveau et dévastateur, c’est que nous savons maintenant quelle ampleur inouïe atteint cette surveillance de tous les comportements de notre vie privée. Notre vie en ligne nous permet tout : lire, écrire, compter, apprendre, acheter et vendre, travailler et se détendre, communiquer et s’informer… Mais aucune de nos pratiques numériques ne peut échapper à la surveillance. et gare à ceux qui cherchent à faire d’Internet un outil citoyen de contestation ou de dévoilement : censure politique du net en Chine et dans plusieurs autres pays déjà sous prétexte de lutte contre la pédopornographie, condamnation à des peines disproportionnées pour Manning, exil contraint pour Assange et Snowden, avec la complicité des gouvernements les systèmes de surveillance piétinent sans scrupules les droits fondamentaux inscrits dans les constitutions de pays plus ou moins démocratiques.

Faut-il se résigner à n’être que des consommateurs-suspects ? Comment le simple utilisateur d’Internet, qui ne dispose pas de compétences techniques sophistiquées pour installer des contre-mesures, peut-il préserver sa « bulle » privée, le secret de sa vie intime, sa liberté de communiquer librement sur Internet — qui n’est rien d’autre que la forme contemporaine de la liberté d’expression ?

Oui, il est difficile au citoyen du net de s’installer un réseau virtuel privé, un serveur personnel de courrier, d’utiliser TOR, de chiffrer ses messages de façon sûre, et autres dispositifs que les geeks s’enorgueillissent de maîtriser (avec, n’est-ce pas, un soupçon de condescendance pour les autres… Souvenez-vous des réactions du type : « — Hadopi ? M’en fous… je me fais un tunnel VPN et c’est réglé »).

Aujourd’hui que tout le monde a compris à quelle double surveillance nous sommes soumis, c’est tout le monde qui devrait pouvoir accéder à des outils simples qui, à défaut de protéger intégralement la confidentialité, la préservent pour l’essentiel.

Voilà pourquoi une initiative récente de la Fondation pour la liberté de la presse (Freedom of the Press Foundation) nous a paru utile à relayer. Encryption works (« le chiffrement, ça marche ») est un petit guide rédigé par Micah Lee (membre actif de l’EFF et développeur de l’excellente extension HTTPS Everywhere) qui propose une initiation à quelques techniques destinées à permettre à chacun de protéger sa vie privée.

Nous vous en traduisons aujourd’hui le préambule et publierons chaque semaine un petit chapitre. Répétons-le, il s’agit d’une première approche, et un ouvrage plus conséquent dont la traduction est en cours sera probablement disponible dans quelques mois grâce à Framalang. Mais faisons ensemble ce premier pas vers la maîtrise de notre vie en ligne.

Contributeurs : Slystone, Asta, peupleLa, lamessen, Calou, goofy, Lolo

Le chiffrement, ça marche

Comment protéger votre vie privée à l’ère de la surveillance par la NSA

par Micah Lee

Le chiffrement, ça marche. Correctement configurés, les systèmes de chiffrement forts font partie des rares choses sur lesquelles vous pouvez compter. Malheureusement, la sécurité des points d’accès est si horriblement faible que la NSA peut la contourner fréquemment.

— Edward Snowden, répondant en direct à des questions sur le site du Guardian

La NSA est la plus importante et la plus subventionnée des agences d’espionnage que le monde ait pu connaître. Elle dépense des milliards de dollars chaque année dans le but d’aspirer les données numériques de la plupart des gens de cette planète qui possèdent un accès à Internet et au réseau téléphonique. Et comme le montrent des articles récents du Guardian et du Washington Post, même les plus banales communications américaines n’échappent pas à leur filet.

Vous protéger de la NSA, ou de toute autre agence gouvernementale de renseignements, ce n’est pas simple. Et ce n’est pas un problème que l’on peut résoudre en se contentant de télécharger une application. Mais grâce au travail de cryptographes civils et de la communauté du FLOSS, il reste possible de préserver sa vie privée sur Internet. Les logiciels qui le permettent sont librement accessibles à tous. C’est particulièrement important pour des journalistes qui communiquent en ligne avec leurs sources.

(à suivre…)

Copyright: Encryption Works: How to Protect Your Privacy in the Age of NSA Surveillance est publié sous licence Creative Commons Attribution 3.0 Unported License.




Quelques enseignements de la décennie Pirate Bay sur la censure et le partage

The Pirate Bay fête ses dix ans d’âge cette année.

L’occasion pour Rick Falkvinge (souvent traduit par le Framablog) d’en faire un petit bilan et perspectives…

Sopues - CC by

La décennie Pirate Bay : combattre la censure, les monopoles du copyright octet par octet

Pirate Bay decade: Fighting censorship, copyright monopolies bit by bit

Rick Falkvinge – 16 août 2013 – RT
(Traduction Framalang : Slystone, gaetanm, Alain_111, maximem, greygjhart, Asta, lamessen, FF255, angezanetti, @zKooky, Genma + anonymes)

Pendant 10 ans, The Pirate Bay a fait apparaître clairement qu’aucune loi dans le monde ne peut couper un service Internet voulu par des centaines de millions de personnes. Il continuera à se décentraliser pour se protéger des assauts légaux, affirme ici le fondateur du Parti Pirate suédois Rick Falkvinge.

Le phénomène de partage de la culture et du savoir semble osciller entre des cycles de décentralisation et de centralisation. The Pirate Bay est apparu sans tambour ni trompette il y a 10 ans en 2003. À cette époque, BitTorrent n’était pas du tout la technologie privilégiée pour le partage, et le groupe de réflexion suédois appellé The Pirate Bureau voulut tester cette technologie, qui semblait prometteuse car décentralisée.

Alors que nous pourrions penser que le partage devrait être décentralisé par nature, il apparaît que c’est rarement le cas. Quand nous partagions culture et savoir pendant notre adolescence, cela se faisait sur cassettes audio. Les lecteurs de cassette de cette époque étaient d’ailleurs livrés avec deux emplacements à cassettes et un bouton copier A sur B, fournissant des fonctionnalités pour faciliter le partage de la culture et du savoir entre les gens.

Quand les ordinateurs sont arrivés, ils utilisaient également les cassettes pour stocker la culture, la connaissance et les programmes, ainsi le partage au sein de ce nouveau monde n’en était que plus facilité.

Autour des années 90, les modems sur ligne téléphonique devinrent populaires, et un pré-Internet composés de proto-sites BBS (Bulletin Board System) émergea. Plutôt que de se connecter au Net et d’être en ligne avec tout le monde en même temps, on connectait son ordinateur à un seul BBS via sa ligne téléphonique, et ces BBS partageaient ensuite les fichiers entre eux, les rendant de ce fait disponibles à tous leurs utilisateurs.

Comme c’était toujours plus pratique que de partager et copier des cassettes entre amis, le partage de culture et de connaissance via les BBS se répandit rapidement. Il y avait des dépôts centralisés d’où vous pouviez télécharger les tendances du moment, principalement des fichiers textes, des jeux et occasionnellement de la pornographie pixélisée en faible résolution (Un BBS avec un demi gigaoctet d’espace disque était énorme à cette époque).

Centralisé versus décentralisé

Faisons avance rapide pour arriver au temps du déploiement d’Internet en général, et de Napster en particulier. Quand les BBS avaient l’intégralité des catalogues sur leurs disques durs, le génie de Napster fut de connecter les disques durs des utilisateurs les uns aux autres plutôt que de tenter de tout rassembler de façon centralisée.

Le pari de Napster était que l’industrie de l’enregistrement du disque verrait les opportunités de profits, et ferait de Napster une partie de cette industrie. L’alternative serait de forcer le partage clandestin, d’encourager la décentralisation.

Comme le dit Cory Doctorow : « Copier devient toujours plus simple, partager ne sera jamais plus difficile que ça ne l’est à présent. »

Napster était aussi une merveille dans sa facilité d’utilisation. Vous tapiez le nom d’une chanson, vous l’écoutiez quasiment instantanément. On ne pouvait pas mieux faire. À toutes les conférences sur le peer-to-peer et l’architecture technique qui expliquait le succès de Napster, c’était la simplicité d’utilisation qui était la caractéristique principale et non sa technique sous-jacente.

Maintenant, comme nous le savons, l’industrie de la musique a choisi la folie plutôt que la raison (et continue de faire ainsi), en décidant de tuer Napster.

À ses débuts, un protocole relativement décentralisé appelé DirectConnect est apparu, qui donnait la possibilité à tout un chacun de déployer son propre clone de Napster. Mais les transferts étaient plutôt inefficaces – vous deviez trouver spécifiquement la personne qui avait le contenu que vous vouliez, et ensuite créer votre propre copie du fichier culturel partagé depuis les sources fournies par cette personne.

L’ère Pirate Bay : combattre la censure

La technologie BitTorrent, rendue très populaire par The Pirate Bay, a amélioré cela de deux manières.

Dans un premier temps, tout le monde transférait à tout le monde. Si vous cherchiez des sources pour produire votre propre copie de Game of Thrones et que 10.000 personnes partageaint ces sources, vous ne les obteniez pas à partir d’une seule personne, mais à partir de différents morceaux de milliers de personnes à la fois. Ce qui était bien plus efficace.

La seconde amélioration eut ceci de remarquable qu’elle n’était pas technique mais juridique. Des personnes avaient été mises en cause pour le partage de milliers de fichiers culturels, permettant aux autres d’avoir leurs propres copies pour leurs propres usages, mais il n’était pas possible de voir quelles autres sources partageait une personne, juste parce que l’on ne recevait d’elle qu’une partie de ses fichiers pour un élément spécifique. Cela ajoutait une protection significative contre des poursuites éventuelles pour avoir enfreint le monopole du copyright.

Mais la vraie percée de The Pirate Bay ne repose pas dans sa technologie, mais dans sa défense des droits civiques. Lorsqu’ils étaient persécutés par les avocats de l’industrie du copyright, les opérateurs de The Pirate Bay leurs ont répondu, et les gens les aimaient pour cela. Ils n’ont pas perdu leur temps à être poli non plus. « Allez vous faire foutre » était une une réponse très gentille à une une menace vide d’un point de vue légal. Une fois qu’ils ont publié toutes les menaces reçues et leur réponse en ligne, ils sont instantanément devenus les héros d’une génération du partage.

Ce qui est le plus intrigant est que les avocats de ces industries du copyright martèlent que les droits exclusifs (les monopoles) sont une « propriété », alors que ce n’est clairement pas le cas dans la loi. On pourrait penser que les avocats ne mentiraient pas à propos de ce que dit réellement la loi. Pourtant ils persistent à le faire, pour de simples questions de relations publiques : essayer de faire apparaître le monopole comme de la propriété alors qu’en réalité c’est un monopole qui limite les droits à la propriété.

L’industrie du copyright n’a pas perdu de temps dans sa lutte visant à censurer The Pirate Bay, en utilisant tous les prétextes, de la pornographie infantile (oui, ils ont constamment tenté d’associer la culture du partage libre avec le viol d’enfant) aux embargos à l’échelle mondiale.

Dans certains pays, l’industrie du copyright a réussi à introduire ce type de censure en théorie, mais des outils pour la contourner apparaissent alors presque instantanément. Ainsi, The Pirate Bay se présente comme le site BitTorrent le plus résistant du monde, une réputation durement gagnée et à laquelle le site a tous les droits de prétendre. Il a combattu la censure à peu près partout dans le monde, enseignant par là-même à la population comment éviter la censure gouvernementale.

Il est clair et évident que The Pirate Bay évolue peu. Du point de vue technique, il reste à peu près le même site qu’en 2006. Il faut remarquer que c’est le seul dans son genre au sein du top 100 mondial des sites.

Ce fait en dit aussi beaucoup sur la demande actuelle pour les services fournis. La condamnation des premiers opérateurs de The Pirate Bay en 2009 n’a évidement rien changé en ce qui concerne le site lui-même. Alors que le procès en tant que tel était une blague juridique commandée par correspondance depuis les États-Unis que le futur jugera très sévèrement, il n’a pas fait la moindre égratignure au partage.

Aucune loi ne peut l’arrêter

À l’heure actuelle, en 2013, il existe des cartes recensant les endroits où les gens se livrent le plus au partage de la culture et de la connaissance, en violation du monopole du copyright. Les États-Unis sont systématiquement en dessous de la moyenne sur ces cartes, mais il n’y a pas de quoi se vanter : en comparant les cartes du partage à celles de la bande-passante domestique, on s’aperçoit qu’elles sont très fortement corrélées.

Ainsi, le fait que les gens résidant aux États-Unis partagent moins que leurs collègues européens ou asiatiques n’a rien à voir avec leur respect des monopoles qui faussent le marché : s’ils partagent moins, les causes réelles en sont les infrastructures gravement sous-développées et lentes présentes aux États-Unis.

Cet article a débuté avec une étude de l’opposition entre la centralisation et la décentralisation. Cela aurait tout aussi bien pu être une étude de la confrontation entre la communauté de la justice et celle des entrepreneurs techniques. Là où les juristes attaquent la technologie, cette dernière répond par la décentralisation, devenant de ce fait résistante aux attaques.

Une décennie avec The Pirate Bay a rendu quatre choses limpides quant aux prévisions pour le futur.

La première est que The Pirate Bay a montré qu’aucune loi existante ne peut arrêter un service voulu par des centaines de millions de personnes ; la seconde est que la censure gouvernementale est aussi détestée universellement qu’elle est facilement détournée ; la troisième est que les services continuent à se décentraliser pour se protéger des attaques légales ; et la quatrième est que le partage de la culture et de la connaissance en violation du monopole du droit d’auteur continue de croître tous les jours après avoir déjà atteint des sommets.

Je pense que des enseignements importants peuvent être tirés de ces quatre observations. Si seulement nos hommes politiques pouvaient en prendre conscience, nous nous en porterions beaucoup mieux.

Crédit photo : Sopues (Creative Commons By)