OpenStreetMap : le prochain projet libre vraiment indispensable, par Glyn Moody

OpenStreetMap vient de fêter sa dixième bougie (et la communauté française vous invite à célébrer cela le lundi 8 septembre à Numa Paris).

Et comme le souligne Glyn Moody dans l’article traduit ci-dessous, on est bien content qu’il soit là parce qu’on ne peut pas compter sur Google pour aborder la cartographie sous l’angle des biens communs…

OpenStreetMap 10 ans

OpenStreetMap : le prochain projet libre vraiment indispensable

OpenStreetMap: the Next Truly Indispensable Open Project

Glyn Moody – 28 août 2014 – ComputerWorld
(Traduction : Narcisse, rocherd, aKa, PxlCtzn, Asta, fal7i, Piup, yoLotus, Mooshka, tetrakos, Mooshka, Jeff_, Omegax, Goofy, yaap, GregR + 4 anonymes)

L’année dernière, je décrivais OpenStreetMap (OSM) comme « la cartographie open source » » À l’occasion des dix ans du projet, j’aimerais me pencher plus avant sur cet exemple important de collaboration ouverte et expliquer en quoi il est selon moi destiné à devenir le prochain projet ouvert absolument incontournable.

Tout d’abord, un peu d’histoire ; pour fêter l’anniversaire d’OSM, TechCrunch a réalisé une excellente interview de Steve Coast, le fondateur du projet. Voici comment tout a commencé :

L’idée de départ était très très simple. J’avais un GPS sur mon portable mais l’on ne pouvait pas en faire grand-chose car il ne contenait aucune donnée. On pouvait télécharger l’image d’une carte, mais si l’on voulait faire quoi que ce soit d’un peu utile comme demander à l’ordinateur d’identifier la route sur laquelle on se trouvait ou de nous guider à chaque intersection, c’était impossible car il n’y avait pas de données cartographiques. Je me suis donc dit : pourquoi ne pas créer des données cartographiques ? Avec un GPS, il suffit de passer en voiture, en vélo ou à pied sur toutes les routes, tous les chemins et utiliser ces informations pour créer une carte. J’établis un petit bout de carte là où j’habite et tu établis un petit bout de carte là où tu habites et nous construisons tout cela comme un puzzle géant — et accessoirement, on le met à disposition gratuitement. Tout comme Wikipédia qui développait une encyclopédie de façon très similaire ; j’ai copié beaucoup d’éléments utilisés par Wikipédia — comme la licence libre, la possibilité que tout le monde puisse contribuer, etc.

Bien que Coast évoque ici Wikipédia, GNU/Linux a également joué un rôle déterminant dans le développement du projet :

J’ai fait beaucoup d’interventions. Les groupes d’utilisateurs de Linux étaient très à la mode — les gens se retrouvaient le samedi après-midi pour discuter de Linux. Ils connaissaient déjà une bonne partie de l’histoire puisqu’ils connaissaient l’open source et avaient des connaissances informatiques. Il n’était donc pas très difficile de leur expliquer ce que faisait OpenStreetMap. À partir de là, je suis intervenu dans des conférences sur la cartographie. J’ai arrêté de compter après environ 500 interventions. J’avais l’habitude de mettre le chiffre sur ma première diapo.

L’existence préalable des communautés Linux a permis à Coast d’avancer dans leur sillage. Comme il le souligne, les idées fondatrices comme la collaboration et le fait que le produit fini soit libre étaient les mêmes, il n’a donc pas bataillé pour convaincre. C’est un autre bon exemple de l’aspect déterminant du succès de GNU/Linux sur celui des autres choses « ouvertes » — le contenu ouvert, les données ouvertes, l’accès ouvert et OpenStreetMap.

L’autre parallèle intéressant avec la montée de GNU/Linux est que Coast travaille maintenant pour Telenav, une entreprise développant un logiciel de navigation (il a aussi travaillé pour Microsoft pendant un temps, curieux…). Telenav a apparemment embauché plusieurs acteurs clés d’OSM, tout comme des entreprises comme Red Hat ont employé des bidouilleurs du noyau de Linux à ses débuts. Dans l’interview TechCrunch, Coast explique les principaux défis actuels :

Il manque plusieurs choses à OpenStreetMap. Des informations de navigation comme les rues à sens unique, les restrictions horaires ou les limites de vitesse. Il manque aussi des adresses. Telenav a beaucoup de tracés GPS. Nous traitons ces tracés en informations pour la navigation. Si vous prenez toutes les personnes qui voyagent sur une nationale et qu’elles vont toutes à 90 km/h, vous savez que c’est probablement la vitesse limite. Si personne ne tourne à gauche à une intersection, c’est probablement qu’il y a une interdiction de tourner à cet endroit.

Vous pouvez donc résoudre ce problème avec les traces GPS. Cependant, les données d’adresse sont plus difficiles à utiliser. Aux États-Unis, il est possible de placer une licence sur ces données, mais, en Europe, entre autres, c’est plus difficile. Aux États-Unis, le gouvernement fédéral est comparable à une organisation du domaine public, et cela transpire sur les gouvernements locaux. Vous pouvez en obtenir les données. Tous les autres pays essayent de s’approprier les données cartographiques. Aux États-Unis, la plupart des adresses sont prévisibles. Dans le reste du monde, ce n’est pas aussi simple. Au Japon, les numéros de rue sont à la fois basés sur le bloc et l’âge de la maison. La première maison a le numéro un, la suivante le deux, et ainsi de suite. De fait, il est plus difficile de prédire où se trouvent les choses.

C’est quelque chose que beaucoup de personnes cherchent à résoudre, donc j’imagine que ce sera résolu un de ces jours ; et il existe beaucoup de façons intéressantes de le faire. Vous pouvez faire intervenir la communauté pour obtenir ces données, vous pouvez payer des gens pour les collecter mais, je pense qu’au final, la solution sera un mix de plusieurs choses. Par exemple, à chaque fois que vous utilisez une application qui vous permet de vous géolocaliser, vous signalez que tel restaurant à telle adresse se trouve à tel endroit.

Cela nous amène directement au futur d’OSM : que peut ajouter OSM à ses données géographiques de base – et que faut-il ajouter ? Doit-on, par exemple, chercher à coller au fonctionnement de Google Maps en tous points, y compris la navigation (point qui est visiblement important pour Coast) ou même l’imagerie satellitaire ? La première semble réellement faisable, et peut être que des drones bon marché pourraient être utilisés par la communauté pour la seconde. Mais que pourrions-nous ajouter encore ?

Comme je l’ai écrit l’an dernier, je pense qu’OSM devrait essayer de devenir l’infrastructure open source du monde mobile, comme GNU/Linux l’a fait pour la précédente génération d’ordinateurs (et pour la plateforme mobile dominante, Android). le service Waze donne une assez bonne idée de ce que cela pourrait être :

Le concept de Waze est la contribution au bien commun quand vous êtes sur la route.

En connectant les conducteurs les uns aux autres, nous aidons les gens à créer des communautés locales de conducteurs qui travaillent ensemble pour améliorer la qualité de conduite de chacun au quotidien. Cela leur permet d’éviter la frustration de rester bloqués par des bouchons ou un barrage de police, ou de gagner 5 minutes sur leur trajet quotidien en leur montrant un nouveau trajet dont ils ne connaissaient même pas l’existence.

Alors, comment ça fonctionne ?

Après avoir saisi l’adresse de destination, les utilisateurs n’ont qu’à conduire avec l’application lancée sur leur téléphone afin de contribuer passivement à mettre à jour les informations liées au trafic et aux autres informations de la route. Mais ils peuvent aussi être actifs en partageant un état de la route comme un accident, un barrage de police ou tout autre danger sur leur chemin, ce qui aide les autres usagers à savoir ce qui se passe sur leur trajet.

En plus de la communauté de conducteurs locaux utilisant l’application, Waze profite aussi d’une communauté active éditant la carte en ligne afin d’assurer que les environs soient aussi à jour que possible.

Même si cela met l’accent sur les données routières issues des voitures, le processus se généralise à toute forme de transport. Waze porte sur l’utilisation d’une application sur périphériques mobiles pour produire en temps réel et de manière participative des informations à jour sur les déplacements et les lieux. C’est une bonne idée, avec une erreur fatale : l’énorme quantité des données uniques fournies par les utilisateurs de Waze appartiennent à Waze : c’est un cas classique où les utilisateurs créent le service pour ensuite laisser quelqu’un d’autre en gérer la valeur. Voilà pour « la contribution “au bien commun” ».

Les choses sont pires depuis que Waze fait maintenant partie de Google, car cela veut dire que toutes ces informations incroyablement personnelles à propos de vous et de vos compagnons de voyage sont envoyées aux machines avides de Google, dans le but d’être traitées, liées et analysées pour révéler plus de choses sur les gens qu’ils ne le pensent probablement.

En fait, le problème avec Google est encore plus vaste depuis qu’il possède le service de cartographie qui domine le monde de la cartographie exactement comme le fait Microsoft Windows dans le monde du système d’exploitation grand public. Même avant qu’il n’achète Waze, Google encourageait ses utilisateurs à contribuer à « l’amélioration » de l’entreprise, qui en conserve la plupart des bénéfices, comme il le fait avec la quasi-totalité des ses services « gratuits ».

Mikel Maron nous a avertis du danger de cette approche pour OSM — et pour nous — depuis 2011, lorsqu’il a écrit un billet intitulé « Nous devons empêcher Google d’exploiter les communautés ouvertes »

La stratégie de Google est de construire un marché en Afrique en s’appropriant des méthodes de la communauté des données ouvertes tout en laissant à l’entreprise le contrôle de ce qui mérite d’être une ressource partagée. Ils ciblent spécifiquement les gouvernements et les ONG, proposant de « cartographier leurs pays gratuitement », mais en gardant les résultats et en attirant les consommateurs.

Ce qui me dérange le plus, c’est qu’ils ont copié OpenStreetMap de manière flagrante. Premièrement, leur produit MapMaker est directement calqué sur OSM, mais avec une licence restrictive pour les données qui fait en sorte que vous ne puissiez pas les utiliser comme bon vous semble. Ensuite, ils ont volé l’idée des Carto-parties, un concept unique et un nom que nous avons développé. Enfin, ils ont même copié des initiatives visant à cartographier des bidonvilles, comme Map Kibera.

Ce ne sont pas des choses qui importent uniquement aux geeks de la cartographie. Maron donne un très bon exemple concernant l’importance de la cartographie dans notre société. Il nous invite à comparer la carte de Google d’une zone particulièrement digne d’intérêt à l’heure actuelle — Gaza — avec celle d’OSM. Quand la première montre une grosse grille de rues anonymes, sans aucun détail, et donc aucune humanité quelle qu’elle soit, celle d’OSM ne se contente pas de montrer le nom de la plupart des principales rues et bâtiments, mais montre aussi la présence actuelle des bâtiments — une représentation exacte de la population et des vies qu’ils contiennent. En d’autres mots, les cartes sont très politiques et il est important qu’elles ne soient pas contrôlées par quelques entités commerciales.

Dans un article paru cette année dans le Guardian, Serge Wroclawski se penche sur ce problème et suggère à quel point l’importance d’OSM est vitale ici. Il distingue trois motifs d’inquiétude à propos des cartes fournies par Google (ou par une autre société quelconque) :

Qui décide de ce qui s’affiche sur Google Maps ? C’est Google, bien sûr. J’ai entendu cette préoccupation lors d’une rencontre avec une collectivité locale en 2009 : le souci portait sur le choix par Google des commerces affichés dans Google Maps. Les personnes présentes à cette réunion avaient raison d’être inquiètes, car les pouvoirs publics doivent rester impartiaux. En sous-traitant leurs cartes, ils en donneraient le contrôle à des tiers.

Il semble inévitable que Google se mette à monétiser les recherches géographiques, avec des résultats premium ou de l’affichage prioritaire — si ce n’est pas déjà en place (est-ce une coïncidence si, quand je cherche « petit-déjeuner » près de mon domicile, la chaîne Subway est le premier résultat ?)

C’est le problème habituel du contrôle. Si le logiciel sur votre ordinateur n’est pas un logiciel libre, ce n’est pas réellement votre ordinateur, mais juste un que le fournisseur de logiciel propriétaire vous autorise à utiliser d’une certaine façon, définie par lui.

Le second problème concerne la localisation. Qui définit où se situe un quartier ou si oui on non vous devriez vous y rendre ? Ce problème a été soulevé par l’American Civil Liberties (ACLU) quand les algorithmes d’un fournisseur d’itinéraires (en voiture, en vélo ou à pied) prenaient en compte le fait qu’un quartier était considéré comme « sûr » ou « dangereux » pour éditer ses trajets. Cela soulève la question de qui détermine ce qui fait un quartier « sûr » ou non ou si le terme « sûr » cache quelque chose de plus grave.

On peut étendre cet avis à Gaza : les cartes ne sont pas seulement un ensemble de données mais représentent un point de vue. Bien qu’une carte totalement neutre soit probablement impossible, on peut au moins la faire aussi ouverte que possible. La façon dont les cartes sont élaborées pose aussi problème finalement, et la façon dont les métadonnées peuvent être bien ou mal utilisées… d’autant plus crucial dans un monde post-Snowden :

Les fournisseurs de cartes ont une propension à collecter des informations vous concernant avec des méthodes que vous pourriez ne pas apprécier. Google et Apple amoncellent toutes vos données géographiques quand vous utilisez leurs services. Ils peuvent les utiliser pour améliorer la précision de leurs cartes mais Google a déjà annoncé qu’il utiliserait ces données pour calculer la corrélation entre les recherches que vous effectuez et les endroits où vous vous rendez. Avec plus de 500 millions de smartphones sous Android en cours d’utilisation, cela représente une masse énorme d’informations collectées à l’échelle individuelle à propos des habitudes des gens : s’ils se baladent occasionnellement, s’ils effectuent un changement dans les transports en commun pour aller travailler, s’ils se rendent chez le médecin ou peut-être s’ils participent à une manifestation.

Ce n’est pas un problème avec OSM, qui ne collecte que les données de base dont il a besoin pour créer les cartes, sans intentions cachées.

Comme l’indique ce qui précède, du moins je l’espère, le succès mondial d’OSM nous concerne tous autant que le succès de GNU/Linux dans le monde du logiciel. Nous avons besoin d’une source complète et indépendante de données et d’informations géoréférencées. Durant ces dix années d’existence, OpenStreetMap a largement progressé dans ce sens ; c’est dans notre intérêt à tous de l’aider à prospérer et grandir jusqu’à ce qu’elle réussisse et devienne aussi incontournable que GNU/Linux l’est aujourd’hui.




Promenons-nous sur le chemin de l’évolution des espèces

Depuis le 15 août, une nouvelle web-série vient de voir le jour sur la toile. Il s’agit d’un documentaire scientifique et pédagogique sur l’évolution des espèces : « Promenades en Évolution ». Dans ce premier épisode, consacré à l’arbre du vivant, nous découvrons les liens de parentés entre différentes espèces rencontrées lors d’une promenade en forêt.

promenade-4.jpg

Cette série est produite par le Mithril Studio en association avec le Centre de Vulgarisation des Connaissances de l’université de Paris XI. Rencontre avec Virginie Népoux, une des principales protagonistes de ce projet.

Bonjour Virginie, pouvez-vous vous présenter ?

Bonjour ! Je suis biologiste, j’ai soutenu ma thèse de doctorat en biologie évolutive il y a trois ans à l’université de Lausanne après un cursus réalisé aux universités de Paris XI et Paris XIII (master de biologie du comportement). Ma thèse portait sur la variation naturelle des capacités d’apprentissage des drosophiles, ces petites mouches qui viennent l’été sur les fruits trop mûrs… Oui oui, les mouches sont capables d’apprendre des choses ! J’ai également eu l’occasion de travailler sur des espèces différentes : la perruche ondulée, la mouette tridactyle, la grenouille agile… Et sur des sujets variés, comme la communication acoustique ou la sélection sexuelle. Je suis aussi naturaliste, j’ai fait de l’« animation nature » pour des écoles, colonies de vacances, réserves naturelles ou pour des associations naturalistes comme celle du campus d’Orsay, Clématis, dans laquelle je suis restée investie plusieurs années. Je suis allée jusqu’en Guyane pour échantillonner des libellules pour une réserve naturelle. Je suis la rédactrice et présentatrice du documentaire. Léo Sigrann et moi nous partageons la caméra, qui est un appareil photo, la réalisation et le montage.

promenade-2.jpg

Vous êtes à l’origine de cette nouvelle série documentaire « Promenades en Évolution ». Comment ce projet est-il né ?

Depuis plusieurs années, je suis assez active sur certains forums, notamment au niveau de discussions sur l’évolution – souvent avec des créationnistes. Je me suis rendue compte que les mêmes questions revenaient régulièrement, traduisant des incompréhensions basiques et récurrentes. J’ai écrit un petit texte pour reprendre ces bases sans avoir à me réexpliquer à chaque fois, histoire de permettre aux discussions d’aller plus loin, puis ce texte est devenu un petit livre en 2009, « L’évolution du vivant expliquée à ma boulangère », publié par Inlibroveritas sous licence cc-by-sa (et en lecture libre chez Inlibroveritas et Atramenta). Le projet « Promenades en Évolution » part de la même envie de partage. Je me suis dit que le changement de support pourrait peut-être toucher un public différent. Et puis j’avais envie de répondre à ce qui me semble être un manque dans le monde des documentaires. Il me semble que les documentaires francophones sur la nature que l’on voit à la télévision, s’ils sont souvent époustouflants au niveau des images, n’abordent que rarement les problématiques de fond qui me sont chères. Les questions d’évolution ne sont qu’effleurées, et souvent assez mal, ce qui peut contribuer à entretenir les clichés dans l’esprit des gens (ex: l’évolution, c’est « la survie du plus fort »). En outre, j’ai aussi l’impression que les documentaires sont plus volontiers consacrés aux milieux exotiques, aux gros animaux, qu’à la vie qui foisonne à nos portes. C’est une excellente chose de connaître la vie des lions ou des manchots, mais il ne faut pas ignorer les merveilles qui se trouvent à nos pieds, et que l’on n’a qu’à se baisser pour admirer… Quand je fais une sortie naturaliste avec des gens qui n’en ont pas l’habitude, ils sont souvent très étonnés de la multitude de choses que l’on peut observer après environ trois pas dans n’importe quel petit bois. J’avais également envie de transmettre ça dans le documentaire.

Quel est le public visé ?

Le plus large possible, surtout les gens qui n’ont pas de connaissances particulières en biologie, ceux qui utilisent les parcs, les bois et les champs pour leurs pique-niques, leurs footings, mais oublient un peu de regarder ce qui s’y passe. J’aimerais aussi que ce documentaire puisse être utilisé par les professeurs de collège ou de lycée pour illustrer leurs cours.

Vous avez publié deux livres chez Atramenta, un sous licence cc-by-sa, un autre sous cc-by-nc-sa. Pour la web-série, vous avez opté pour notre plus grand plaisir, pour la creative commons by-sa. Qu’est-ce qui a fait pencher la balance vers une licence complètement libre ?

Nous avons pensé que c’était le plus approprié pour un outil à vocation pédagogique, favoriser un partage maximal. Pour tout vous dire, le framablog n’est pas entièrement étranger à cette décision. J’ai lu l’article de Richard Stallman sur l’usage des licences cc-by-nc-sa pour les documents pédagogiques et je suis d’accord avec lui. Du coup, voilà, nous avons opté pour une cc-by-sa pour le documentaire. Autant ne pas faire les choses à moitié. En outre, l’évolution du vivant reste un sujet très mal compris de nos jours, sur lequel on dit tout et n’importe quoi. Même si ça fait plus de 200 ans que le livre fondateur de Darwin est paru, des idées fausses circulent toujours, et souvent plus efficacement que les idées justes. Il est urgent d’inverser la tendance! Je rêve d’un monde où les scénaristes de comics et de films soient suffisamment bien informés sur l’évolution pour ne pas faire saigner les oreilles ou les yeux des biologistes qui visionnent ou lisent leurs œuvres…

Est-ce que pour un sujet sensible comme la théorie de l’évolution, combattu encore actuellement par de nombreux créationnistes à travers le monde, le fait de pouvoir diffuser, distribuer librement ce documentaire a été un argument dans le choix définitif de la licence ?

Tout à fait. Le créationnisme (au sens large, du fixisme à l’intelligent design en passant par tout un tas d’idées farfelues) gagne de plus en de terrain. Pourtant, quand il est accessible à la raison et ne s’appuie pas uniquement sur une foi aveugle, il repose vraiment sur des incompréhensions basiques. Il est à la portée de tout le monde de repérer les failles dans les « raisonnements » des créationnistes, pour autant que l’on sache de manière un peu précise ce qu’avait dit Darwin déjà à son époque, et comment les études modernes l’ont confirmé. Il faut simplement prendre le temps de comprendre comment fonctionne la démarche scientifique. Mais il y a des créationnistes qui disposent de beaucoup de moyens pour diffuser leurs ouvrages (distribution gratuite de livres dans les universités, écoles etc.), quand bien même leur contenu est parfois à la biologie ce que la blague carambar est à la philosophie. Nous n’avons pas ces moyens financiers, mais nous avons un outil beaucoup plus puissant pour partager: les licences libres !

Ce documentaire est produit par le Mithril Studio. Pourquoi avoir choisi ce studio ?
Parce que c’est le studio que mon compagnon et moi-même avons monté, à la base pour réaliser nos projets. C’est un studio composé surtout d’amateurs bénévoles pour l’instant (« Promenades en évolution » est le premier projet pour lequel nous avons eu un petit financement). Nous avons peu de moyens, mais nous sommes libres de prendre les décisions que nous voulons.

Celui-ci était jusqu’ici connu pour The Fumble Zone http://fumblezone.net une web-série sur les jeux de rôle. Vous voyez un lien spécifique entre l’univers des jeux de rôle et les licences libres ?
Bien sûr ! Les jeux de rôle, sur le principe, sont des outils pour raconter des histoires à plusieurs. L’idée de partage est fondamentale. En outre, chaque meneur de jeu modifie les règles, les univers « à sa sauce », chaque groupe de joueurs invente ses histoires sur les bases de scénarios ou romans existants. Tout cela fait que les licences libres sont à mes yeux un outil idéal pour permettre à tout le monde de s’exprimer et publier ses créations. Les idées d’ouverture font petit à petit leur chemin, peut-être que les jeux sous licence libre, comme Tigres Volants vont finir par fleurir plus nombreux ?

Le studio semble utiliser le plus possible des logiciels libres. Lesquels ont été utilisés pour réaliser ce documentaire ? À quel moment de la création ont-ils servi ?
Léo et moi travaillons avec Kubuntu. Le documentaire a été monté avec Kdenlive et les petites animations réalisées avec Gimp. Le son est le seul élément qui, pour l’instant, n’a pas été traité avec des logiciels libres.

promenade-1.jpg

« Promenades en Évolution » est réalisé en association avec le Centre de Vulgarisation des Connaissances de l’université de Paris XI. Quel est le rôle du CVC ?
Le CVC a apporté son financement, ce qui nous a permis de nous consacrer pleinement à la réalisation de ce premier épisode et nous a fait profiter de sa grande expérience en matière de pédagogie. Nous sommes très reconnaissants de toute l’aide que les gens du CVC nous ont apportée, et des conseils qu’il nous ont donnés.

Sauf erreur de ma part, il s’agit du premier projet sous licence libre du CVC. Quelle a été leur réaction ? Réfractaires ou bien intéressés ?
Intéressés, car la vocation première de ce documentaire est d’être partagé.

Parlez-nous un peu de Rachel Nusbaumer qui a composé cette jolie bande-son entêtante.
Nous avons rencontré Rachel sur Internet, via le forum des vidéastes amateurs, et elle a tout de suite été d’accord pour travailler sur des projets sous licence ouverte/libre. Elle compose pour le studio depuis plusieurs années, mais nous ne nous sommes jamais rencontrés ! Rachel a commencé la musique à 4 ans, avec le solfège et la flûte à bec qui lui a fait découvrir la musique baroque, puis la musique de chambre. Elle a ensuite découvert le hautbois à 15 ans. Elle a étudié la musique au Conservatoire de Delémont (Jura Suisse) puis à Genève. En parallèle à sa formation classique, elle a commencé à composer sur ordinateur, en autodidacte, aidée par un réseau de musiciens sur Internet. Elle s’est ainsi tournée vers l’électro. Ses influences ? Aussi bien Bach ou Corelli, que Jean-Michel Jarre, ou Ennio Morricone. Elle a travaillé avec les Studios Banshee (UK) pour réaliser les musiques de leurs jeux vidéo et a également réalisé des musiques pour des clips promotionnels et des bandes-son pour des courts-métrages (Euphoria, Holiday Bloodyday…). Son site internet : http://www.rachelnusbaumer.com

Le premier épisode vient donc de paraitre le 15 août. Avez-vous déjà préparé les prochains ?
En partie. Nous avons commencé à tourner, mais nous n’avons plus de financement pour l’instant donc c’est moins évident de trouver le temps quand on est purement bénévoles. Mais les choses avancent quoi qu’il en soit. Idéalement, et même sans moyens supplémentaires, nous aimerions sortir un autre épisode avant la fin de l’année.

promenade-3.jpg

Si tout se passe comme prévu, combien d’épisodes composeront cette web-série ?
Ça n’est pas fixé. Il y a énormément de sujets à aborder ! Nous ferons ce que nous pourrons.

Si des lecteurs du blog ont envie de vous aider que peuvent-ils faire et comment ?
Partager ! Plus nous parviendrons à nous diffuser efficacement, plus il nous sera possible de récolter des financements pour tourner la suite (et bien sûr, si quelqu’un veut se débarrasser d’une caméra full HD, ou d’un objectif pour appareil photo Canon EOS…)




Le Libre (et Framasoft) à la Fête de l’Huma, entretien avec Yann Le Pollotec

Fête de l'Humanité 2014

Le Libre revient explicitement et concrètement à la Fête de l’Humanité, grâce à l’initiative de Yann Le Pollotec et toute son équipe.

En effet, cette année, un espace sera consacré « aux logiciels libres, aux hackers et aux fablabs », au sein du Village de l’économie sociale et solidaire, avec notamment la présence de l’April, FDN, La Quadrature ou encore Ubuntu. Des débats seront également proposés avec Richard Stallman le vendredi 12 septembre, Bernard Stiegler le samedi 13 et une table ronde animée par Sebastien Broca le dimanche 14. Les temps étant difficiles une campagne de financement a été lancée pour couvrir les frais occasionnés.

Framasoft en sera, en tenant un stand pendant les 3 jours et en participant à la table-ronde du dimanche avec son président Christophe Masutti.

En attendant, nous sommes allés à la rencontre de Yann Le Pollotec (informaticien, membre du conseil national et animateur de la réflexion sur la révolution numérique.au PCF), afin d’avoir de plus amples informations sur l’événement, afin aussi de savoir ce que le logiciel libre avait à dire à la gauche et réciproquement.

Yann Le Pollotec

Entretien avec Yann Le Pollotec

Entrons tout de suite dans le vif du sujet : le logiciel libre est-il de gauche ?

Les quatre libertés du logiciel libre, de par les valeurs de partage et la notion de biens communs qu’elles portent, ne peuvent que rejoindre ce pourquoi les hommes et les femmes sincèrement de gauche se battent. Je pense en particulier à la notion de « Commun » qui me semble être la seule voie d’avenir pour que la gauche sorte du mortifère dilemme entre le marché et l’État.

Certes certains libéraux et libertariens s’en réclament également, car contradictoirement, malgré sa tendance à tout vouloir privatiser, le capitalisme pour se développer a toujours eu besoin de biens communs à exploiter.

Tu fais partie de ceux qui réfléchissent à la « révolution numérique » au sein du PCF. Est-il possible de résumer les positions du parti sur le sujet et plus particulièrement sur le logiciel libre ?

Le PCF s’est battu pour le logiciel libre depuis 1994, ainsi que contre toutes les tentatives de brevets logiciels au Parlement européen.

Le texte suivant adopté lors du dernier Congrès du PCF résume notre position : « Sous la crise du capitalisme émergent déjà les prémisses d’une troisième révolution industrielle avec les logiciels libres, les machines auto-réplicatives libres, l’open source hardware, les mouvements hackers et maker. Ainsi se créent et se développent des lieux de conception et de proximité en réseau, ouverts et gratuits, où l’on partage savoir et savoir-faire, où l’on crée plutôt qu’on ne consomme, où l’on expérimente et apprend collectivement, où le producteur n’est plus dépossédé de sa création, tels les Fab Lab, qui sont les moteurs de ce mouvement. Toutes ces avancées portent en elles des possibilités de mise en commun, de partage et de coopération inédites. »

Lorsque tu communiques avec tes camarades du parti, vois-tu souvent passer des adresses en gmail et de pièces jointes en .doc ?

Oui malheureusement en cela les militants communistes ne sont pas différents de la majorité de la population.

Mais les choses progressent, ainsi au siège national du Parti, et dans la plupart des fédérations départementales, nous sommes équipés de LibreOffice, de Thunderbird, et Firefox, et nous avons notre propre nom de domaine : pcf.fr. Mais les mauvaises habitudes ont la vie dure ainsi que la peur de perdre ses sacro-saintes « macro excel ». C’est pourquoi l’espace à la Fête de l’Huma est aussi une occasion de les faire régresser par l’exemple et la pédagogie.

Nous sommes nombreux à vouloir re-décentraliser le Web plutôt que céder nos données à « GAFA » (Google, Apple, Facebook, Amazon). Le mouvement des fablabs et du DIY va-t-il re-décentraliser le capital ?

Oui parce que s’ils socialisent la conception via les échanges sur le Net et les bases de données disponibles, et ils décentralisent dans le même temps la production. Les petites unités de production que sont les fablabs, les hackerspaces et les makerspaces, impliquent une dispersion du capital qui va à l’encontre de la tendance atavique du capitalisme à le concentrer. La démocratisation et le partages des connaissances techniques et des moyens de créer et de produire dans le cadre de ces tiers lieux démentent les prédictions de Jacques Ellul sur l’équivalence entre développement des technologies et concentration du pouvoir, des ressources et du capital.

Favorable au revenu de base universel ? Et comme le souhaite Bernard Stiegler : demain, tous intermittents du spectacle ?

La révolution numérique dans le cadre économique actuel est une machine à détruire l’emploi salarié et à faire baisser les salaires. Par contre cette même révolution numérique, dans le cadre d’un autre partage des richesses et là c’est un combat politique, peut permettre, comme Marx l’appelait de ses vœux dans les Grundrissel émergence d’une humanité libérée du salariat et où « la distribution des moyens de paiement devra correspondre au volume de richesses socialement produites et non au volume du travail fourni. ».

C’est pourquoi je suis persuadé à l’instar de Bernard Stiegler que les batailles politiques pour instaurer un revenu universel et une baisse drastique du temps de travail, en lien avec la question de la propriété, seront fondamentales. Après on peut bien sûr débattre pour savoir si on résout le problème avec un « salaire socialisé » comme le propose Bernard Friot, un système de « sécurité d’emploi et de formation tout au long de la vie» comme y invite Paul Boccara, ou sous la forme de revenu universel de base conditionnel ou non.

Alors cette année, le Libre est à l’honneur et à l’affiche à la Fête de l’Huma. QQOQCCP ? (Qui ? Quoi ? Où ? Quand ? Comment ? Combien ? Et pourquoi ?)

La Fête de l’humanité des 12, 13 et 14 septembre 2014 à la Courneuve, consacrera donc un espace aux cultures et aux valeurs du logiciel libre, des hackers et du mouvement émergent des Fablab. Cet espace sera un lieu d’éducation populaire par la démonstration et la pratique (Imprimante 3d, atelier soudure, installation de distributions GNU/Linux, fabrication de Jerry..). Mais il sera aussi un endroit où on mènera le débat politique au sens noble du terme sur tous les enjeux de la révolution numérique : le big-data, la neutralité du net, la propriété intellectuelle, les tiers-lieux, l’économie du partage et de la coopération,…

April, Ars Industrialis, Creative Commons France, Emmabuntüs, Fab-Lab Cité des sciences : Carrefour numérique, Fabrique du Ponan, Fac-Lab, FDN, Open Edge, Jerry Do It Together, La Quadrature du Net, Les petits débrouillards d’IDF, Mageia, Parinux, Ubuntu et Framasoft ont accepté d’être partie prenante en tant qu’exposants et acteurs de cet espace.

Il y aura également des débats avec des personnalités comme Bernard Stiegler ou Sebastien Broca, des structures comme l’April, la Quadrature du Net ou Framasoft et… Richard Stallman himself !

Oui trois grands moments de débats structureront la vie de cet espace :

  • « le Logiciel libre: les Droits de l’Homme dans votre ordinateur » avec Richard Stallman
  • « l’économie de la contribution et la révolution numérique » avec Bernard Stiegler, Laurent Ricard et Emmanuelle Roux.
  • « Le combat pour les libertés numériques : neutralité du Net, protection des données personnelles, licences libres, droits d’auteur… » avec Sébastien Broca, l’April, la Quadrature du Net, Framasoft et Creative Commons France.

FabLab Stand Blanc-Mesnil 2013

Il existait par le passé un « Village du Logiciel Libre » sous la houlette de Jérôme Relinger. Ainsi donc le logiciel libre revient à la Fête de l’Humanité. Mais peut-être est-il plus juste de dire qu’il ne l’a jamais quitté ?

À vrai dire, c’est toujours une affaire d’hommes et de femmes, le « village du logiciel libre » avait été créé par Jérôme Relinger et Jacques Coubard. Les aléas de la vie ont fait que Jérôme a vogué vers d’autres horizons et que Jacques est malheureusement décédé.

Mais les braises couvaient sous les cendres. À la fête de l’Humanité 2013, le stand du PC -Blanc-Mesnil, sous le thème de « Hackons le capitalisme » avait accueilli en démonstration un mini fablab avec entre autres une imprimante 3D et organisé un débat sur ce thème. Par le bouche à oreille, divers acteurs du monde du logiciel libre, des fablabs et des hackerspace ont spontanément participé à l’animation de ce mini-espace drainant ainsi sur les 3 jours de la Fête plusieurs centaines de curieux comme de passionnés. Le débat a lui aussi été un succès, tant en termes de participation que de qualité des échanges

Spontanément les acteurs comme les visiteurs de ce mini-espace en sont venus à souhaiter ardemment un véritable espace lors de la Fête de l’Humanité 2014 dédié aux mouvements des logiciels libres, aux hackers et aux fablabs, et sous la responsabilité officielle de la Fête de l’Humanité. Un collectif s’est donc constitué, de manière bénévole et militante, à partir des animateurs et des visiteurs du mini fablab de 2013, pour réaliser un espace du libre, des hackers et des Fab-Lab à la Fête de l’Humanité 2014.

Nouvelle dénomination : « Espace du libre, des hackers et des fablabs ». Pourquoi un tel choix ? Y a-t-il une forte différence entre les 3 dénominations ? Illustre-t-il une évolution et la situation actuelle ?

Oui car il s’agissait à la fois de se placer dans la filiation du village précédant, de casser les lieux communs que les médias dominants donnent des hackers en les assimilant aux crackers et d’attirer l’attention sur le mouvement émergent des fablabs avec le mariage des bits et des atomes. Bien sûr aux cœurs de ces trois mots, on retrouve un socle de valeurs communes et déjà une Histoire qui elle aussi est commune.

Fête de l'Humanité 2014 - Ulule

Une campagne de financement participatif a été lancée sur Ulule pour couvrir les frais de cet espace. Pourquoi ? Que peut-on faire pour aider, participer ?

La direction de la Fête de l’Huma a donné son accord pour la création de l’Espace mais à condition qu’hormis le terrain et l’électricité cela soit à coût zéro pour elle, en raison des graves difficultés financières du journal l’Humanité. D’où la nécessité de trouver un financement participatif pour les frais de transports, de location de mobiliers et de matériels, de réalisation d’une exposition pédagogique de présentation des enjeux de la révolution numérique,…

Vous pouvez participer personnellement à ce financement sur : http://fr.ulule.com/hackers-fablab/.

Par exemple : pour 60 euros, vous avez la vignette d’entrée pour les 3 jours (et tous les spectacles), le tee-shirt officiel, votre nom sur le panneau et une initiation à l’impression 3d. Et nous vous invitions également à populariser cette campagne autour de vous, dans vos réseaux et vos cercles de connaissances. Merci.

Le crowdfunding (financement participatif) est-il soluble dans les valeurs du communisme ?

Le crowdfunding est une réponse « bottom-up » aux dysfonctionnements majeurs des banques traditionnelles et du système financier dans son ensemble. L’existence et le développement du Crowdfunding n’empêche le combat politique pour mettre les banques et la monnaie au service du financement de l’intérêt général et du bien commun.

Où en est le projet de créer un fablab original et ambitieux au Blanc-Mesnil ?

Ce projet était porté par la municipalité communiste sortante. Malheureusement en mars, elle a été battue par une liste de l’UMP. Les priorités du nouveau maire sont de mettre en place une police municipale armée et des caméras de vidéo surveillance et non de favoriser l’installation d’un fablab. Aujourd’hui avec l’association « Fablab au Blanc-Mesnil » nous sommes en train de travailler à poursuivre notre projet dans le cadre de ces nouvelles conditions y compris en l’élargissant aux communes voisines.

FabLab Stand Blanc-Mesnil 2013




Campagne Framapad Etherpad : Encore un petit effort, voire plus si affinités !

Framapad Ulule

Lancée le 11 juin dernier, notre campagne Framapad/Etherpad n’est plus très loin d’atteindre l’objectif fixé.

Nous en sommes ainsi à l’instant t à 85 % pour quelques 315 contributeurs (que l’on remercie à nouveau vivement pour leur adhésion et leur soutien au projet).

Cela a cependant tendance à ralentir ces derniers jours. Alors nous renouvelons notre appel à participation et relais de notre campagne. D’avance merci (si ça n’est déjà fait).

Comme il est dit dans la FAQ, si nous dépassons notre objectif de 10000€, nous créerons un fonds de soutien à Etherpad qui permettra de financer de futurs développements. La moitié de la somme supplémentaire reviendra à ce fonds, l’autre à Framasoft, qui rendra compte de son utilisation.

En plus du lien direct vers notre page de campagne sur Ulule, vous pouvez partager les deux vidéos suivantes :

Présentation télé de la campagne par Alexis Kauffmann (aKa) lors de l’émission 56Kast #30 de Nolife (avec Erwan Cario et Camille Gévaudan des Ecrans de Libération et Véronique Boukali de Romaine Lubrique).

Notre parodie de La Chute (oui, nous aussi) telle que promise par Luc Didry sur Twitter lorsque la jauge a atteint 50%.

Parodie Chute

Existe aussi avec des sous-titres en anglais.




Un abécédaire libre et contributif par et pour les enfants

Nous saluons aujourd’hui une initiative exemplaire qui conjugue les démarches auxquelles nous sommes attachés : un projet éducatif à destination des enfants d’écoles primaires et de leurs enseignants, qui les fait participer et aboutir à un ouvrage qui sera utile à d’autres… car placé en licence libre ! Avec Éric que nous interviewons ici, une équipe de contributeurs petits et grands convaincus que la culture libre, c’est bien d’en parler, mais c’est encore mieux de la créer et de la diffuser !

Une Interview d’Eric Querelle aka Odysseus

Bonjour, Odysseus… qui se cache derrière ce pseudo homérique ?
Je suis professeur de néerlandais dans l’enseignement secondaire belge. Je griffonne à mes heures perdues, lorsque l’occasion se présente ou lorsque j’ai une idée. Au départ ce choix de pseudo n’était pas guidé par Homère mais par le vaisseau d’Ulysse… 31 dont j’étais un grand fan. Ce qui donne une idée approximative de mon âge 😉

Il me semble que tu n’en es pas à tes débuts dans l’illustration d’ouvrages libres à destination des plus jeunes, qu’est-ce qui t’intéresse dans ce genre de réalisations ?
En effet, depuis quelque temps j’écris et illustre en amateur de petites histoires pour enfants que je propose en téléchargement. Ainsi, 4 petites histoires sont déjà disponibles : Petit Vénusien raconte l’histoire d’un extra-terrestre qui a un besoin urgent, Bonne nuit Doudou Lapin, une histoire très très courte, Ne pleure pas Monsieur le Loup qui évoque la phobie des ongles coupés et Super Héros, une histoire déclinée en deux versions qui aborde le thème du cauchemar.

Pour le reste, je dessine au gré de mes envies et de mes idées ou propose d’autres bidules comme un petit jeu de dominos ou une lecture de 12 fables de La Fontaine, par exemple.

Ce goût des histoires et celui du dessin se combinent bien. La simple idée de savoir — et de voir — que ceux-ci sont utilisés, exploités de manière individuelle, en classe et sur AbulEdu est un très beau cadeau, une belle récompense.

De manière plus générale, l’école est pour moi le lieu le plus adéquat pour faire découvrir et assimiler ces notions de partage, de respect, de diffusion et de valorisation du bien commun.

Comment est né ce projet d’abécédaire ?
Ce projet est né sur Babytwit, une plateforme libre de microblogging proposée par l’association AbulEdu-fr à destination principale des écoles primaires. Jonathan Tessé mainteneur de la plateforme et animateur Tice dans la région dijonnaise a lancé l’idée et un groupe de personnes ultra-motivées s’est rapidement formé pour la concrétiser. Quatre mois après, nous y voilà ! 🙂

Lien direct en cliquant sur l’image de couverture – PDF 14,1 Mo

couverture abécédaire libre

Ce sont les enfants de diverses écoles qui t’ont envoyé des phrases cocasses pour chacune des lettres. Ça t’a compliqué la tâche ?
Oui, six groupes-classes ont participé à ce projet et leur implication a été maximale. L’idée que je me faisais au départ était celle d’un travail tranquille et je m’attendais à des phrases simples du genre « L’éléphant est près de l’étang ». C’était sans compter l’imagination débordante des enfants coachés par des professeurs gonflés à bloc qui ont pris un plaisir malin à me pousser dans mes derniers retranchements :

En faisant du xylophone, Baba Yaga et son yorkshire dévorent un yaourt au Xérès accompagné d’yeux de yéti et d’ailes de xylocope.

Un plaisir vite partagé et chaque nouvelle phrase était une vraie belle surprise !

E comme Elephant

J’ai eu également l’immense plaisir de rencontrer une classe (celle de Bordeaux). Ça a vraiment été un moment très intense : j’étais venu avec mes dessins déjà réalisés, beaucoup de questions ont été posées par les enfants (qui m’appelaient Odysseus car ils ne savaient rien d’autre que mon pseudo), des remarques adorables… et puis planait aussi ce sentiment inexplicable de rencontrer en chair et en os des personnes que l’on « connaît » uniquement virtuellement.

Concrètement, les 6 classes participantes se sont partagées les lettres de l’alphabet. Lorsque leurs phrases étaient prêtes, elles me les transmettaient via le groupe dédié #abécédaire. Les phrases étaient commentées. Il m’est très souvent arrivé de devoir faire des recherches (pour des mots comme : xylocope, Baba Yaga, urubu…). Je leur montrais le dessin ou un extrait de celui ci pour maintenir un certain suspense. J’avais des retours satisfaits ou quelquefois des remarques du genre « son nez est trop gros » ou « le bouc est trop petit », « son nez n’est pas assez crochu » ou encore « ta hyène on dirait un ours » :-D.

Bref un véritable suivi de la part des enfants. Dans toutes les classes, un travail de fond pédagogique a été réalisé quant au contenu (la recherche lexicale), la forme (ne pas dépasser 140 caractères)… et le fonctionnement du microblogging, ses codes. Cela a largement dépassé le simple cadre de l’alphabet.

La licence « art libre », c’est important pour toi ? Est-ce que ça signifie que toutes les écoles primaires peuvent se servir librement de cet abécédaire ?
Oui, et j’en ai pris conscience lors d’un événement précis : il y a quelques années j’ai posé sur mon blog de l’époque un dessin intitulé « Bulle spéculative » déjà sous licence Art Libre car j’avais découvert cet univers via Framasoft. J’ai reçu un mail d’un certain Antoine Moreau qui était à la recherche d’une bulle pour son texte de Paule et Paul qu’il publiait dans un petit livret sur l’Art. C’était la première fois qu’on me demandait l’autorisation d’utiliser un dessin. Quelques semaines plus tard, j’ai reçu dans ma boîte aux lettres ledit livret avec une partie de mon dessin (rien que la bulle). Je découvrais et vivais ce fameux : « Copyleft: cette œuvre est libre, vous pouvez la copier, la diffuser et la modifier selon les termes de la Licence Art Libre  ».

Aussi, je suppose (et espère) que quelqu’un qui copie, diffuse, modifie, utilise mes dessins l’apprécie et je considère donc cela comme une reconnaissance.

L’abécédaire est sous Licence ArtLibre 1,3 (LAL 1,3) Avec la Licence Art Libre, l’autorisation est donnée de copier, de diffuser et de transformer librement les œuvres dans le respect des droits de l’auteur. Loin d’ignorer ces droits, la Licence Art Libre les reconnaît et les protège.

Elle en reformule l’exercice en permettant à tout un chacun de faire un usage créatif des productions de l’esprit quels que soient leur genre et leur forme d’expression. Si, en règle générale, l’application du droit d’auteur conduit à restreindre l’accès aux œuvres de l’esprit, la Licence Art Libre, au contraire, le favorise.

L’intention est d’autoriser l’utilisation des ressources d’une œuvre ; créer de nouvelles conditions de création pour amplifier les possibilités de création. La Licence Art Libre permet d’avoir jouissance des œuvres tout en reconnaissant les droits et les responsabilités de chacun. La licence complète est à lire ici.

Cela signifie donc effectivement que les écoles primaires et toute personne intéressée par cet abécédaire peuvent le télécharger et l’imprimer librement. Je mets également toutes les sources à disposition (images brutes, .png, .svg, le document .odt et le .pdf) pour permettre à qui le souhaite de « jouer » avec les dessins, personnaliser l’abécédaire en supprimant les phrases pour une activité de classe par exemple ou en colorisant les images.

Une version en couleurs est prévue ?
Oui, au départ, nous étions partis pour une version colorisée. Mais impossible à réaliser en quatre mois de temps. Tenant absolument à donner aux enfants un résultat concret de leur travail avant la fin de l’année scolaire, nous avons laissé la colorisation de côté pour nous concentrer sur un produit fini en noir et blanc.

Dans l’idée de garder l’idée de travail collectif, j’ai donc lancé un appel à l’aide à la colorisation et quelques personnes se sont vaillamment lancées dans l’aventure. Cela avance bien, très bien même. Mais comme plus on est de fous plus on rit, cet appel reste tout à fait d’actualité.

Déjà un autre livre pour enfants en projet ?
J’ai quelques idées mais j’ai souvent besoin d’un certain temps pour les laisser percoler. Mais il m’arrive aussi d’avoir l’idée qui tombe de je-ne-sais-où.

Alors, un livre en projet, pour le moment non. Mais qui sait ? Peut-être demain…

Au fait, si des gens (une école, des particuliers…) veulent te remercier par un don financier ?
C’est une option que je n’envisageais pas car je ne propose évidemment pas mes histoires dans ce but et puis cela me rendait plutôt mal à l’aise.

Cependant, pour le faire moi-même aussi quelquefois pour d’autres projets, je peux comprendre que l’on souhaite ou préfère soutenir un projet financièrement . Alors si les gens tiennent vraiment à me remercier, me soutenir pour mes histoires de cette manière pourquoi pas ?

Merci Éric, et à bientôt !

Liens

Dans les coulisses de l’abécédaire

  • Phrases : Les phrases ont été généreusement imaginées par les élèves des classes :
    • Bibliosaigebib : Atelier informatique en bibliothèque, près de Bordeaux
    • maternelle gilly : Classe de GS de maternelle, Près de Dijon
    • les gribouilloux : Classe de MS GS de maternelle, près de Reims
    • cm1 curie : Classe de CM1, près de Bordeaux
    • brossocm : Classe de CM1 près de Nancy
    • cm1 teacher : Classe de CM1 à Pacé, près de Rennes
  • Dessins : Eric Querelle aka Odysseus
  • Polices de caractère : DejaVu Sans – Liberation Sans – Bromine Regular Font – Thickhead Regular Font



La surveillance de la NSA révélée par Snowden : un an après, on récapitule ?

Faire le point sur un an de révélations que nous devons à Snowden permet de comprendre comment nous sommes passés peut-être définitivement dans l’ère de la défiance. Quand la machine ubiquiste de surveillance de masse nous considère tous comme des suspects potentiels, nous ne pouvons faire autrement que de soupçonner à priori le plus vertueux des opérateurs téléphoniques ou des fournisseurs d’accès à l’internet d’être bon gré mal gré un complice de la NSA et de lui remettre les clés de nos vies privées, de nos engagements politiques etc. sans même parler de l’espionnage des grands de ce monde .

Cette liste tire sa force accusatrice de sa sècheresse factuelle. Chaque élément y est toutefois documenté par un lien (en anglais en général) vers un article de presse en ligne.

65 choses sur la surveillance par la NSA que nous savons maintenant mais que nous ignorions il y a un an

Article original sur le site de l’Electronic Frontier Foundation

par Nadia Kayyali et Katitza Rodriguez

Traduction Framalang : hack, Diab, teromene, r0u, Thérèsegoofy, mrtino

Voilà un an que le journal The Guardian a publié pour la première fois le Foreign Intelligence Surveillance Court order, révélé par Edward Snowden, ex-sous-traitant de la NSA. Le document démontrait que la NSA avait mené des opération de surveillance généralisée sur des millions de personnes innocentes. Depuis lors, toute une vague de révélations choquantes, de divulgations, d’aveux partiels des autorités gouvernementales, d’appels aux lois qui garantissent la liberté de l’information, et de poursuites judiciaires, a déferlé sans interruption. Pour l’anniversaire de cette première révélation, voici 65 choses sur la surveillance par la NSA que nous savons maintenant mais que nous ignorions il y a un an.

1. Nous avons vu un exemple des décisions de justice qui autorisent la NSA à récolter potentiellement tout appel téléphonique aux USA – ce qui veut dire qui vous appelez, qui vous appelle, quand, pendant combien de temps et quelquefois même où.

2. Nous avons découvert les diaporamas en Powerpoint de la NSA qui détaillent comment est menée la récolte « en amont », par la collecte d’informations captées directement dans l’infrastructure des opérateurs de télécoms.

3. La NSA a conçu une vaste « drague du Web » en s’assurant qu’elle peut intercepter non seulement les communications d’une cible lorsqu’elle fait partie d’une communication mais aussi celles qui « concernent une cible, même si la personne ciblée ne participe pas à une communication ».

4. La NSA a confirmé qu’elle recherche des données collectées selon les clauses de la section 702 des amendements à la FISA (FISA Amendments Act) pour avoir accès sans mandat aux communications des citoyens des USA, grâce à ce que le sénateur Ron Wyden a appelé « le vide juridique de la recherche via porte dérobée ».

5. Même si la NSA a déclaré de façon répétée qu’elle ne ciblait pas les citoyens des États-Unis, ses propres documents montrent que les fouilles de données menées sous l’égide de la section 702 sont conçues pour déterminer avec un degré de confiance de 51% seulement si la cible est étrangère.

6. Si la NSA n’établit pas l’origine étrangère d’une cible, elle ne va pas arrêter d’espionner cette cible pour autant. Au lieu de ça, la NSA va présumer que la cible est étrangère tant qu’elle ne peut être « identifiée positivement comme une personne des États-Unis ».

7. Un audit interne de la NSA révélé par une fuite a donné les détails de 2776 violations de règles ou de décisions judiciaires en une seule année.

8. Les hackers de la NSA ciblent les administrateurs systèmes, indépendamment du fait que ces administrateurs systèmes peuvent eux-mêmes être totalement innocents de tout acte répréhensible…

9. La NSA et la CIA ont infiltré des communautés de jeu en ligne comme World of Warcraft et Second Life pour récolter des données et mener leur surveillance.

10. Le gouvernement a détruit des preuves dans des procès pour espionnage intentés par l’EFF contre la NSA. Comble de l’ironie, le gouvernement a également prétendu que les clients de l’EFF avaient besoin de ces preuves pour établir la recevabilité de leur plainte.

11. Le directeur du renseignement national, James Clapper, a menti au Congrès lorsqu’il a été interrogé directement par le sénateur Ron Wyden pour savoir si la NSA était en train de rassembler des données de quelque nature que ce soit sur des millions d’habitants des USA.

12. Microsoft, comme d’autres sociétés, a collaboré étroitement avec le FBI afin de permettre à la NSA de « contourner le chiffrement pour avoir accès aux données des utilisateurs ».

13. Pendant la seule année 2013, le budget du renseignement était de 52,6 milliards de dollars — ce chiffre a été révélé par la fuite d’un document, et non par le gouvernement. Sur ce budget, 10,8 milliards de dollars ont été attribués à la NSA. Cela équivaut approximativement à 167 dollars par personne résidant aux Etats-Unis.

14. La Cour fédérale de la surveillance et du renseignement (Foreign Intelligence Surveillance Court) a rendu des décisions qui autorisent la NSA à partager des données brutes — non expurgées des informations permettant d’identifier les personnes — avec le FBI, la CIA et le Centre national de lutte antiterroriste (National Counterterrorism Center).

15. Conformément à un protocole d’accord (memorandum of understanding), la NSA partage régulièrement des données brutes avec Israël sans en expurger les informations personnelles permettant d’identifier les citoyens des USA.

16. Les divulgations de Snowden ont montré clairement que l’administration Obama avait induit la Cour suprême en erreur à propos de questions clés dans le procès intenté par l’ACLU à la NSA pour espionnage, Clapper v. Amnesty International, ce qui a conduit à un renvoi de l’affaire pour manque de preuves.

17. La NSA « a pénétré le système de communication interne d’Al Jazeera ». Les documents de la NSA font état de ce que « les cibles sélectionnés avaient un “fort potentiel en tant que sources de renseignement” ».

18. La NSA a utilisé des cookies soi-disant anonymes de Google comme balises de surveillance, aidant ainsi à pister les utilisateurs individuels.

19. La NSA « intercepte “des millions d’images par jour” – dont environ 55 000 “images de qualité suffisante pour la reconnaissance faciale” » et les traite avec de puissants logiciels de reconnaissance faciale.

20. Le programme de reconnaissance faciale de la NSA « peut maintenant comparer les photos des satellites d’espionnage avec les photos personnelles interceptées prises en extérieur, pour déterminer leur localisation ».

21. Bien que la réforme de la NSA se soit essentiellement focalisée sur la Section 215 du PATRIOT Act, et que la plupart des magistrats aient également poussé à réformer la Section 702 du FISA Amendments Act, certains des pires espionnages de la NSA ont été effectués conformément au décret 12333, que le président Obama pourrait abroger ou modifier dès aujourd’hui.

22. La NSA a collecté les informations de localisation des téléphones mobiles des citoyens des USA durant deux ans sous couvert d’un projet pilote ayant pour but de voir comment pourraient être analysées de telles informations dans ses énormes bases de données.

23. Au cours du seul mois de mars 2013, la NSA a rassemblé 97 milliards de renseignements en provenance de réseaux informatiques du monde entier, dont 3 milliards de renseignements des réseaux propres aux USA.

24. La NSA a ciblé Tor, un ensemble d’outils qui permet aux internautes de naviguer sur le net de manière anonyme.

25. Le programme MUSCULAR de la NSA infiltre des liens entre les data centers mondiaux des sociétés technologiques comme Google et Yahoo. De nombreuses sociétés ont répondu à MUSCULAR en chiffrant le trafic sur leur réseau interne.

27. Le programme XKEYSCORE analyse les courriers électroniques, les conversations en ligne et l’historique de navigation de millions de personnes n’importe où dans le monde.

28. À travers BULLRUN, la NSA sabote les outils de chiffrement auxquels se fient les utilisateurs ordinaires, les entreprises et les institutions financières, cibles ou non, dans un effort sans précédent visant à affaiblir la sécurité des utilisateurs d’Internet, vous y compris.

28. L’opération Dishfire a collecté 200 millions de textos par jour à travers le globe, qui peuvent être utilisés pour extraire des informations intéressantes sur vous : localisation, contacts, données de carte de crédit, appels manqués, alertes d’itinérance (qui indiquent que vous franchissez une frontière), cartes de visite électroniques, informations sur vos paiements par carte, alertes aux voyageurs, et renseignements sur vos réunions.

29. À travers l’opération CO-TRAVELER, les États-Unis collectent des informations de localisation provenant de relais de téléphonie mobile GSM, d’émetteurs Wi-Fi et de concentrateurs GPS, qui sont ensuite analysées en fonction du temps pour déterminer entre autres avec qui une cible voyage.

30. Un mémo de 2004 intitulé DEA – The “Other” Warfighter (DEA – « l’autre » combattant) montre que la NSA et la DEA « profitent d’échanges réciproques d’information ».

31. Quand la DEA agit sur les renseignements que sa division « Opérations spéciales » reçoit de la NSA, ils cachent la source de l’information à travers une « construction parallèle », une mascarade recréant une enquête imaginaire destinée à cacher la source de l’indice, non seulement au défenseur, mais à la Cour. Il s’agit de faire en sorte qu’aucun tribunal ne rende de décision sur la légalité ou la finalité de l’usage qui sont faits des données de la NSA dans les enquêtes ordinaires.

32. Le produit de la surveillance de la NSA finit régulièrement entre les mains de l’IRS (NdT : le fisc des États-Unis). Tout comme la DEA, l’IRS utilise la « construction parallèle » pour dissimuler l’origine de l’indice.

33. Même le Conseil de surveillance de la vie privée et des libertés civiles (Privacy and Civil Liberties Oversight Board), dont les membres sont triés sur le volet par le président des États-Unis, a recommandé que le gouvernement fasse cesser la collecte massive des enregistrements téléphoniques autorisée par la section 215 [NdT : du PATRIOT Act], cette collecte étant inefficace, illégale, et probablement anticonstitutionnelle.

34. La NSA a des projets pour infecter potentiellement des millions d’ordinateurs en y implantant des malwares dans le cadre du programme Tailored Access Operations (opérations d’accès personnalisé).

35. La NSA a eu un contrat secret de 10 millions de dollars avec la société de sécurité RSA pour créer une « porte dérobée » dans ses produits de chiffrement, largement utilisés par les entreprises.

36. « Dans le cadre d’une proposition visant à salir la réputation de ceux dont l’agence pense que les discours incendiaires radicalisent les autres », la NSA a surveillé leurs accès aux contenus pornographiques et rassemblé d’autres informations d’ordre explicitement sexuel.

37. La NSA et ses partenaires exploitent les applications mobiles, comme le jeu populaire Angry Birds, pour accéder à des informations privées sur les utilisateurs comme la localisation, l’adresse personnelle, le genre, et plus encore.

38. Le Washington Post a révélé que la NSA récolte « des centaines de millions de carnets d’adresses provenant de comptes personnels de courriel ou de messagerie instantanée du monde entier, dont beaucoup sont des citoyens des USA ».

Beaucoup de révélations de Snowden ont concerné les activités de la NSA à l’étranger, ainsi que les activités de certains des plus proches alliés de la NSA, comme son homologue britannique le GCHQ. Certaines de ces activités ont été des entreprises coopératives. En particulier, les « Cinq Yeux » – les États-Unis, la Nouvelle Zélande, l’Australie, le Royaume-Uni et le Canada – se communiquent mutuellement les données concernant leurs citoyens, constituant ainsi des failles susceptibles de saper la législation nationale.

39. La NSA a versé à son homologue britannique, le GCHQ, 155 millions de dollars ces trois dernières années « pour sécuriser l’accès aux programmes de collecte du renseignement britannique et les influencer ».

40. The Guardian a rapporté ceci : « Sur une période de six mois en 2008, [le GCHQ] a collecté les l’images de webcam – y compris une quantité importante de communications explicitement sexuelles – de plus d’1,8 millions de comptes utilisateurs Yahoo à l’échelle mondiale. »

41. Le GCHQ a utilisé des logiciels malveillants pour compromettre des réseaux appartenant à l’entreprise belge de télécommunications Belgacom.

42. Les principales entreprises de télécommunications, y compris BT, Vodafone, et Verizon business ont fourni au GCHQ un accès illimité à leurs câbles de fibre optique.

43. Le GCHQ a utilisé des attaques DDoS et autres méthodes pour interrompre les communications des Anonymous et de LulzSec, y compris les communications de personnes qui n’étaient accusées d’aucun délit.

44. La station Bude du GCHQ a surveillé des dirigeants de l’Union européenne, de l’Allemagne et d’Israël. Elle a également ciblé des organisations non gouvernementales comme Médecins du monde.

45. Partenaires de la NSA aux antipodes, les services de l’Australian Signals Directorate, ont été impliqués dans des violations de communications entre avocat et client couvertes par le secret professionnel, remettant en question un principe fondamental de notre système de justice pénal commun.

46. Les agents du renseignement australien ont espionné les téléphones mobiles du cabinet ministériel indonésien et du président Susilo Bambang.

47. En 2008, l’Australie a offert de partager les données brutes concernant ses citoyens avec ses partenaires du renseignement.

48. Le CSEC a aidé la NSA à espionner les dirigeants politiques durant le sommet du G20 au Canada.

49. Le CSEC et le CSIS ont été récemment réprimandés par le juge d’une cour fédérale pour l’avoir induit en erreur dans une demande de réquisition faite il y a 5 ans, à propos de l’utilisation des ressources des Cinq Yeux pour pister les Canadiens à l’étranger.

Ironie du sort, certaines opérations de la NSA ont ciblé des pays qui avaient collaboré directement avec l’agence en d’autres circonstances. Et certaines semblaient simplement non indispensables et disproportionnées.

50. Les documents de la NSA montrent que tous les gouvernements ne sont pas transparents sur leur propre niveau de coopération avec la NSA. Comme le rapporte The Intercept : « Peu de dirigeants élus ont connaissance de cet espionnage, voire aucun ».

51. La NSA intercepte, enregistre et archive chaque communication de téléphone mobile des Bahamas.

52. La NSA a surveillé les communications téléphoniques d’au moins 35 chefs d’États.

53. La NSA a espionné des diplomates français à Washington et aux Nations Unies.

54. La NSA a piraté les réseaux de l’entreprise chinoise Huawei et volé les sources de son code.

55. La NSA a posé des mouchards dans les ambassades de l’Union européenne à New York et à Washington. Elle a copié des disques durs dans les bureaux de l’UE à New York, et a mis sur écoute le réseau informatique interne des ambassades de Washington.

56. La NSA a collecté les métadonnées de plus de 45 millions d’appels téléphoniques italiens sur une période de 30 jours. Elle a également entretenu des stations de surveillance à Rome et à Milan.

57. La NSA a stocké les données d’approximativement 500  millions de connexions des systèmes de communication allemands chaque mois.

58. La NSA a collecté les données de plus de 60 millions d’appels téléphoniques espagnols sur une période de 30 jours, fin 2012 et début 2013, et a espionné des membres du gouvernement espagnol.

59. La NSA a collecté les données de plus de 70 millions d’appels téléphoniques français sur une période de 30 jours, fin 2012 et début 2013.

60. The Hindu, sur la base de documents de la NSA, a rapporté que « Sur une liste exhaustive des pays espionnés par les programmes de la NSA, l’Inde est en cinquième place. »

61. La NSA a pénétré le compte officiel de courriel de l’ancien président mexicain Felipe Calderon.

62. D’après The Guardian : « La NSA a, pendant des années, systématiquement écouté le réseau des télécommunications brésiliennes et et a intercepté, collecté et stocké sans discrimination les courriels et enregistrements téléphoniques de millions de Brésiliens ».

63. La NSA a surveillé les courriels, les appels téléphoniques et les textos de la présidente brésilienne Dilma Rousseff et de ses plus proches collaborateurs.

64. Les agences du renseignement allemand ont coopéré avec la NSA et ont implémenté le programme de la NSA XKeyscore, tandis que la NSA était en train d’espionner les dirigeants allemands.

65. Le quotidien norvégien Dagbladet a rapporté que la NSA a acquis des données sur 33 millions d’appels de téléphones mobiles norvégiens sur une période de 30 jours.

Il ne fait aucun doute que les relations internationales qu’Obama s’était engagé à restaurer, de même que la confiance du peuple des États-Unis dans le respect de sa vie privée et de ses droits constitutionnels, ont été sapées par la surveillance tous azimuts de la NSA. Mais un an après, le gouvernement des USA aussi bien que les gouvernements d’autres pays n’ont pas pris les mesures nécessaires pour faire en sorte que cette surveillance cesse. C’est pourquoi chacun doit se mobiliser – contactez votre député, rejoignez Reset the Net, et apprenez comment la loi internationale s’applique à la surveillance états-unienne aujourd’hui.

Toutes les images sous licence CC BY 2.0, par EFF, JeepersMedia et Richard Loyal French,




Intervention d’Alexis Kauffmann (Framasoft) au TEDx de Genève

Le 7 avril dernier, je participais au TEDX de Genève qui avait pour (fort joli) thème « Freedom (@ digital age) ».

Mon intervention s’intitulait « La route est longue mais la voie est libre » et, comme le veut le format TED, il s’agissait d’évoquer un parcours, une expérience, une vision inspirante, en s’exprimant à la première personne (l’exercice n’est pas évident et j’avais un sacré trac !).

Étaient entre autres également invités, Richard Stallman (dont on attend la vidéo, format TED oblige avec des slides pour la première fois de sa vie en conférence, cf un échantillon probant ci-dessous) et Tristan Nitot. J’ai par exemple particulièrement apprécié le passage de Gwenn Seemel au sujet de l’imitation dans le processus créatif (que les tenants d’un copyright dur devraient méditer).

J’en profite pour remercier Théo Bondolfi et toute son équipe pour la chaleur de l’accueil et la parfaite organisation.

Stallman - Slide - TEDxGeneva




Les universitaires ont intérêt à contribuer à Wikipédia — qui a intérêt à ce qu’ils contribuent…


présenté par Christophe Masutti

Le moins que l’on puisse dire, lorsqu’on fréquente les milieux universitaires, c’est que les enseignants-chercheurs partagent des avis très différents à propos de l’encyclopédie en ligne libre Wikipédia. Pour certains, c’est un non-sujet puisqu’il s’agit seulement de permettre à n’importe qui d’écrire n’importe quoi. Pour d’autres, il faut savoir y contribuer parfois pour corriger des erreurs, parfois parce qu’il est aussi du devoir du chercheur que de partager ses connaissances, et pour d’autres encore la pertinence de Wikipédia ne saurait être valide à cause de l’anonymat des contributeurs et de l’absence d’un comité éditorial dans les règles de l’art des revues universitaires classiques.

Une quatrième catégorie, en revanche, prend du recul par rapport aux régimes de publication académiques et considère que ce n’est pas parce que les règles de publications sont universitaires qu’elles doivent être universelles. Ceux-là proposent de contribuer activement à Wikipédia mais en tâchant d’opérer la distinction entre les objectifs et les normes de Wikipédia et les attentes habituelles des publications académiques.

L’American Historical Association est l’une des plus anciennes sociétés savantes aux États-Unis. L’une de ses publications mensuelles, Perspectives on History, a 50 ans d’existence et reste l’une des revues historiques les plus lues au niveau mondial. Stephen W. Campbell, un jeune chercheur, vient d’y publier un article-témoignage dont nous vous proposons ci-dessous une traduction. Il y synthétise rapidement l’attitude classique des historiens vis-à-vis de Wikipédia et propose justement de prendre un peu de recul par rapport aux questions épistémologiques de la neutralité et de l’objectivité.

Certains arguments sont bien entendus discutables, mais le plus important est que, en publiant ce témoignage dans une telle revue, on assiste certainement à une déclaration d’intérêt. Cela montre aussi que l’attitude des chercheurs par rapport à Wikipédia n’est pas un phénomène générationnel. William Cronon, le président de l’AHA en 2012, y est cité comme ayant encouragé la participation à Wikipédia.

La question est plutôt à entrevoir du point de vue de la participation active et volontaire : il y a une vie au-delà du régime de l’évaluation permanente et épuisante des instances de “valorisation” de la recherche académique…


Améliorer Wikipédia : Notes d’un sceptique éclairé

Source : Stephen W. Campbell, Improving Wikipedia: Notes from an Informed Skeptic, dans la revue : Perspectives on History, American Historical Association, mai 2014

Traduction Framalang : hack, r0u, KoS, Amargein, Gilles, Asta, Fchaix, goofy

En tant qu’historien américain qui étudie l’économie politique de la période d’avant la guerre de Sécession, j’ai toujours été fasciné par le mouvement de panique de 1837 – un cataclysme financier qui mérite son nom de « première grande dépression américaine », suivant l’expression employée dans un livre récent. Pendant les congés d’hiver 2012-1013, j’ai cherché « Crise de 1837 » sur Wikipédia et n’ai trouvé qu’une entrée assez décousue qui ne pointait que sur bien peu de sources secondaires. C’était fâcheux, c’est le moins qu’on puisse dire. Les rédacteurs de Wikipédia avaient marqué l’article comme partial ou incomplet et demandaient à un « spécialiste » de l’histoire des États-Unis de l’améliorer.

J’ai pris la décision d’améliorer l’entrée, et dans ce processus j’ai découvert des détails importants concernant les règles de Neutralité du point de vue de Wikipédia, les sous-cultures idéologiquement chargées qui, souvent, altèrent et falsifient ces entrées et une explication probable de mon aptitude à réhabiliter l’entrée avec succès. Depuis deux ans et jusque très récemment, j’ai été un critique véhément à l’encontre de Wikipédia, étant frustré par de trop nombreuses réponses dérivées de Wikipédia aux examens. Mais comme je vais le montrer plus loin, je suis devenu plus optimiste concernant la mission de Wikipédia et je crois qu’elle incarne de nombreuses valeurs auxquelles sont très attachés les universitaires.

Parmi ces derniers on trouve un large éventail d’opinions sur l’utilité de Wikipédia. L’ancien président de l’AHA William Cronon ne voyait que des avantages au fait d’encourager les historiens à contribuer davantage à Wikipédia, tandis que Timothy Messer-Kruse émet un jugement sévère en soulignant les écueils d’un site web qui ne fait pas la différence entre les opinions d’un expert et celles d’un profane, et dont la politique de vérification exclut les contenus seulement fondés sur des sources primaires inaccessibles – ce qui fait de lui un critique virulent de Wikipédia(1). Ma position se situe quelque part entre les deux.

En examinant de plus près cet article sur la Crise de 1837, j’ai remarqué que pratiquement tous les auteurs cités dans les références étaient des libertariens radicaux. La seule « référence externe » était un article écrit de façon informelle, aux sources sélectives, écrit par un obscur historien ne citant pas ses références, et rendu publique lors d’une conférence au Ludwig Von Mises Institute (LVMI), un think-tank d’Alabama qui n’est rattaché à aucune université ni soumis à un système de révision par des pairs.

Tenant son nom de l’économiste autrichien Ludwig Von Mises (1881-1973), l’organisation sponsorise des chercheurs prônant le « laissez-faire » économique et les théories du cycle économique de Friedrich Hayek. Certains LVMIstes (« membres » du LVMI) ont réduit à néant Abraham Lincoln, promu l’étalon-or, et donné une vision romantique du Vieux Sud en omettant l’esclavage. Le groupe rejette catégoriquement, d’après son site web, toute forme de régulation par l’État comme dangereuse pour « la science de la liberté ». Cela semble simpliste. La plupart des historiens reconnaissent que le terme « liberté » a plusieurs significations. L’accès à une assurance-maladie, la protection de l’environnement, ou celle des droits civiques, relèvent de la « liberté », mais nécessitent l’intervention de l’État

J’ai passé plusieurs jours de mes congés d’hiver à ajouter du contenu et des références sur le site, et les éditeurs de Wikipédia, vraisemblablement après avoir approuvé mes modifications, ont supprimé la mention qui fait référence à des informations partiales et incomplètes. Quant à savoir pourquoi cette expérience a été un succès, la réponse pourrait se trouver dans la politique de Wikipédia sur la neutralité de point de vue : les contributeurs doivent s’efforcer de « ne pas donner une fausse impression de parité, ni ne donner trop de poids à un point de vue particulier »(2). Tout économiste chevronné qu’ait été Hayek, l’interprétation de Von Mises était encore en minorité.

La façon dont j’ai édité pourrait expliquer pourquoi je ne me suis pas retrouvé dans une guerre d’édition chronophage. J’ai plus que doublé le nombre de références monographiques et d’articles de journaux révisés par des pairs tout en supprimant très peu du texte préexistant même si je le jugeais suspect. J’ai plutôt restructuré la prose pour la rendre plus lisible. Cette formule ne fonctionne peut être pas toujours, mais les historiens devraient essayer d’écrire autant que possible d’une manière descriptive sur Wikipédia et non de façon analytique, bien que cela puisse être contre-intuitif par rapport à notre formation et que la frontière entre description et analyse soit incertaine.

Les détracteurs de Wikipédia ont beaucoup d’objections valides. Il n’y a pas de rédacteur en chef ayant le dernier mot sur le contenu. La sagesse collective peut renforcer certains préjugés innés ou se révéler erronée au cours du temps. C’est le problème que Messer-Kruse a judicieusement mis en exergue dans ses recherches approfondies sur l’attentat de Haymarket Square – même lorsqu’un contributeur-expert, comme Messer-Kruse, élabore un argumentaire basé sur de solides preuves, les éditeurs bénévoles de Wikipédia peuvent tergiverser ou amoindrir le nouveau point de vue « minoritaire ». Enfin, il existe une possibilité pour que l’existence même de Wikipédia dévalue l’art et le travail d’enseigner et publier. Il y a quelques années, j’ai rédigé un article pour un projet d’encyclopédie sur l’esclavage américain d’un éditeur de référence bien connu. L’éditeur m’informa, après que j’eus fini mon article, que le projet serait interrompu pour une durée indéterminée, en partie en raison de la concurrence avec Wikipédia.

Il n’y a peut-être aucun sujet qui mène autant à la controverse que la pierre fondatrice de Wikipédia sur la neutralité. Les détracteurs se demandent si cet objectif peut être atteint ou même s’il est désirable(3). En décrivant ses règles qui mettent l’accent sur le double verrou de la « vérifiabilité » et du refus des « travaux inédits », Wikipédia indique qu’il vise à décrire les débats, mais pas à s’y engager. C’est cela qui fait hésiter les historiens. À partir du moment où nous sélectionnons un sujet de recherche et que nous collationnons des faits dans un ordre particulier, nous nous engageons involontairement dans un débat. Ajoutons à cela que les faits ne sont jamais vraiment neutres puisque ils sont toujours compris à l’intérieur d’un contexte idéologique plus vaste(4).

De plus, le plus surprenant parmi les règles de Wikipédia est la façon dont le site gère les approches complexes de ces nombreux problèmes philosophiques. Les contributeurs de Wikipédia insistent sur le fait que la neutralité n’est pas la même chose que l’objectivité. Le site évite de traiter les peudo-sciences, les fausses équivalences et soutient les principes de la revue par les pairs. Pour valider des arguments contradictoires, il donne la primauté à l’argument dans les publications érudites, et non à la validation par le grand public. Le règlement de Wikipédia reconnaît même que l’on ne peut pas considérer le principe de neutralité au sens le plus strict car les tentatives d’élimination de toute partialité peuvent se faire au détriment de la signification(5). Ce sont toutes ces normes que les universitaires devraient applaudir. Les rédacteurs de Wikipédia ont sans doute répondu aux critiques de Messer-Kruse, et bien qu’il n’incorporera jamais correctement des informations trop innovantes et récentes uniquement connues dans les milieux scientifiques, la beauté du site est qu’il contient les outils de ses propres améliorations.

Ayant conscience que certains de ces problèmes ne trouveront jamais vraiment de solution, j’en appelle aux historiens pour qu’ils consacrent quelques heures de leur précieux temps libre à l’amélioration de Wikipédia ; à titre d’encouragement, je demande aux administrateurs d’intégrer les contributions à Wikipédia dans leurs exigences de publication concernant l’attribution de poste de professeurs. Les docteurs récemment diplômés font face actuellement à une terrible crise de l’emploi et l’objectif tant convoité d’obtenir un poste de professeur à temps plein s’avère de plus en plus difficile à atteindre. Les contributions à Wikipédia pourraient être un bon moyen de valoriser leur CV en prévision d’un prochain entretien d’embauche. Les détails pour y parvenir restent probablement à régler.

Photo par mikedesign, licence CC BY-2.0 

Peut-être des historiens pourraient-ils s’identifier publiquement sur Wikipédia, sauvegarder leurs contributions, et être crédités si Wikipédia conserve leurs corrections. Publier ouvertement peut réduire le risque de troll, l’anonymat protégeant souvent les internautes des répercussions de commentaires indésirables. Les articles Wikipédia doivent venir en complément, et non en substitution, des articles traditionnels (dans des revues) et monographies, et les comités de validation devraient prendre en compte un certain quota d’articles en ligne par rapport aux articles traditionnels – peut-être quatre ou cinq entrées validées dans Wikipédia pour chaque article dans un journal traditionnel spécialisé.

Une des critiques récurrentes à l’égard des monographies est qu’elles conviennent seulement à un public spécialisé et limité, et finissent par s’empoussiérer sur des étagères de bibliothèques endormies. Peut-être que Wikipédia est le lieu idéal pour diffuser nos propres recherches et expertises à destination d’un public plus vaste, ce qui, théoriquement, permettrait d’améliorer la conception de l’histoire qu’a le public et la façon dont on en parle. Nombreux sont les représentants des sciences dures qui ont déjà pris en compte la publication électronique et comme d’autres l’ont souligné, nous risquons d’être marginalisés comme discipline si nous ne nous joignons pas à ce mouvement(6).

Au moment où j’écris ceci, environ un tiers du texte et la moitié des citations de l’article sur la crise de 1837 sont de ma main. J’ai dû mettre de côté ce précieux projet parce que le nouveau semestre venait de commencer, ce qui est bien regrettable parce que la page pouvait encore être améliorée, du moins ai-je procuré les lignes directrices aux autres spécialistes. Le site compte cinquante-huit « abonnés à cette page » et la section « Historique » affiche un grand nombre de suppressions qui ont été réintroduites – ce qui est peut-être l’indice de l’incorrigible obstination des partisans de Wikipédia. Les étudiants, les passionnés d’économie politique et le grand public disposeront toutefois de meilleures informations historiques, du moins je l’espère, à mesure que Wikipédia s’améliorera de façon continue.

Stephen W. Campbell est maître de conférence au Pasadena City College. Sa thèse de doctorat, terminée en 2013 à l’Université de Santa Barbara, analyse l’interaction entre les journaux, les institutions financières et le renforcement de l’État avant la guerre de Sécession.

Notes (Les ouvrages référencés en liens sont en anglais)

1.  William Cronon, « Scholarly Authority in a Wikified World », Perspectives on History, février 2012, http://www. historians.org/perspectives/issues/2012/1202/Scholarly-Authority-in-a-Wikified-World.cfm (consulté le 23 avril 2013). « The Professor Versus Wikipedia », On The Media, 9 mars 2012, http://www.onthemedia.org/story/191440-professor-versus-wikipedia/transcript/ (consulté le 27 février 2014).

2. Wikipédia : Neutralité du point de vue, http://en.wikipedia. org/wiki/Wikipedia:Neutral_point_of_view (consulté le 26 décembre 2013).

3. Jeremy Brown et Benedicte Melanie Olsen, « Using Wikipedia in the Undergraduate Classroom to Learn How to Write about Recent History », Perspectives on History, 50, Avril 2012 (consulté le 23 avril 2013).

4. Martha Nichols et Lorraine Berry, « What Should We Do About Wikipedia ? », Talking on Writing, 20 mai 2013, http://talkingwriting.com/what-should-we-do-about-wikipedia (consulté le 27 décembre 2013).

5. Wikipédia : Neutralité du point de vue.

6. Lori Byrd Phillips et Dominic McDevitt-Parks, « Historians in Wikipedia : Building an Open, Collaborative History », Perspectives on History, décembre 2012, http://www.historians.org/perspectives/issues/2012/1212/Historians-in-Wikipedia. cfm (consulté le 26 avril 2013).

* Ce travail est sous licence Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International.