Nouveau Framabook : Libres Conseils – Lancement le 25 novembre chez Mozilla

Ce beau projet est né voilà presque un an. La caractéristique principale de sa conception c’est le travail collaboratif, depuis sa composition par 42 auteurs jusqu’à son édition en Framabook en passant par les presque 100 traducteurs bénévoles qui ont contribué à la version française.

Ce livre apporte 42 réponses à la question : « Qu’auriez-vous aimé savoir quand vous avez commencé à contribuer ? » — à contribuer au Libre ou à l’open source, bien entendu.

Vous trouverez sur la page Framabook de Libres conseils le rappel détaillé de ce que furent les mois d’activité autour de ce projet : les rendez-vous rituels du jeudi soir ouvert à tous, la publication en feuilleton sur le blog, les relectures sur le booktype puis sur les versions en PDF, la confection de l’epub…

Mais aujourd’hui l’heure est au lancement et voici une invitation pour les plus rapides

Framasoft vous invite à fêter la sortie d’un nouveau Framabook !

Libres conseils, le livre maintenant

Lundi 25 novembre 2013 de 19 h à 21 h chez Mozilla Paris (merci Tristan Nitot)

16 bis, Boulevard Montmartre dans le 9e – Station de métro : Grands Boulevards

Venez découvrir ce livre sous licence libre (CC BY-SA 3.0) autour d’un verre dans les locaux de Mozilla, avec l’équipe du projet, en présence de Tristan (Mozilla) qui a signé la préface. Vous aurez la possibilité de contribuer à votre tour à cet ouvrage en écrivant votre témoignage sur le Libre !

Inscrivez-vous librement pour recevoir votre invitation en cliquant sur ce lien.

L’ouvrage collectif Libres conseils est disponible ici pour 16 euros, mais vous pouvez télécharger gratuitement une version électronique. Vous serez sollicité pour un don (facultatif), Ce qui vous rappelle que nous venons de lancer notre campagne de soutien !

À bientôt !




The Open Access Button : cartographions les entraves au Libre Accès

Il est souvent question de libre accès sur le Framablog. Par exemple avec ce manifeste du regretté Aaron Swartz ou cette limpide explication vidéo de Jean-Claude Guédon.

Avec Internet et la numérisation, il est désormais possible de consulter l’ensemble des ressources scientifiques et académiques. En théorie oui mais il peut en aller tout autrement dans la pratique, ce qui n’est pas sans poser de nombreux problèmes. Deux étudiants proposent ici de signaler tout péage rencontré pour accéder à ces ressources et de le mentionner sur un site commun.

On notera au passage que c’est OpenStreetMap qui fournit la carte.

Open Access Button

Des étudiants lancent le « Bouton » pour mettre en lumière l’accès refusé aux articles scientifiques

Students Launch “Button” to Put Denied Access to Research on the Map

18 novembre 2013 – Open Acess Button
(Traduction : Penguin, Gilles, r0u, sinma, Paul)


Traquer et cartographier l’impact des péages, un clic à la fois.


Aujourd’hui, lors d’un congrès international d’étudiants défendant un accès plus important aux publications universitaires, deux étudiants anglais de premier cycle ont annoncé le lancement fortement attendu du bouton Open Access (NdT : Accès libre), un outil adossé au navigateur qui permet de cartographier l’épidémie de refus d’accès aux articles de la recherche universitaire et qui aide les utilisateurs à trouver les recherches dont ils ont besoin.


Les étudiants David Carroll et Joseph McArthur ont créé le bouton Open Access en réaction au sentiment de frustration que leur causait l’impossibilité d’accéder aux travaux de la recherche universitaire.


« J’ai réalisé qu’il y avait un problème à force de continuellement me heurter à des obstacles pour accéder à des articles pertinents pour mes recherches », explique Carroll, étudiant en médecine à l’université Queen’s de Belfast. « Mon université peut s’offrir un abonnement à de nombreuses publications et, pourtant, je ne peux pas accéder à tout ce dont j’ai besoin. Cela m’a amené à me demander combien d’autres que moi rencontraient le même problème et comment cela affectait les gens partout dans le monde ».


Chaque jour, des personnes essaient d’accéder à des articles de la recherche universitaire – des médecins cherchant de nouveaux traitements, des scientifiques travaillant à la mise au point de nouvelles technologies, des étudiants essayant de parfaire leur formation. Or au lieu d’avoir immédiatement accès aux informations essentielles qu’ils cherchent, ces personnes se retrouvent trop souvent confrontées à un système de péage qui subordonne leur accès à l’information leur demandant un paiement en échange de l’accès, parfois jusqu’à 40$ par article. Ces péages existent parce qu’une grande partie des ressources académiques est publiée dans des journaux onéreux, basés sur des abonnements dont les augmentations de prix ont largement dépassé l’inflation depuis plusieurs décennies.


« Vu la capacité actuelle de partager la connaissance sur le Web, il est absurde que la majorité de la population dans le monde se voit barrer l’accès à de si nombreux travaux » indique McArthur, étudiant en pharmacologie au University College de Londres. « Jusqu’à maintenant, ce déni d’accès était invisible car chacun le vivait de son côté. Nous avons créé le bouton Open Access pour rassembler toutes ces expériences séparées et mettre en lumière l’ampleur mondiale du problème ».

Open Access Button


Le bouton Open Access est un outil adossé au navigateur qui permet aux utilisateurs de garder la trace d’un refus d’accès à une publication, puis de chercher des moyens alternatifs d’accéder à ladite publication. Chaque fois qu’un utilisateur se heurte à un péage, il clique simplement sur le bouton dans sa barre de favoris, remplit ,s’il le souhaite, une boîte de dialogue optionnelle, et son expérience vient s’ajouter à celle des autres utilisateurs sur une carte. Il reçoit ensuite un lien pour rechercher un accès libre et gratuit à l’article en utilisant par exemple des ressources comme Google Scholar. L’initiative Open Access Button espère créer une carte mondiale montrant l’impact du refus d’accès aux publications scientifiques.


Le bouton Open Access tire son nom du mouvement mondial pour le libre accès (NdT : Open Access en anglais) : la disponibilité gratuite et immédiate en ligne d’articles de recherche, accompagnés du droit intégral d’utilisation de ces articles dans l’espace numérique.


« Le mouvement pour l’Open Access est une solution puissante contre les barrières auxquelles se heurtent les chercheurs des pays en développement ou en phase de transition économique dans leurs tentatives d’accéder et de partager des recherches cruciales pour l’amélioration de la vie », déclare Iryna Kuchma, responsable du programme Open Acces à l’EIFL (Electronic Information for Libraries ou Information électronique pour bibliothèques), une organisation qui travaille avec des bibliothèques à travers le monde pour permettre l’accès des populations des pays en voie de développement ou en phase de transition économique aux informations numériques. « L’accès aux dernières publications scientifiques ne doit pas être confiné à la sphère universitaire, mais ouvert à tout personne intéressée : médecins et patients, agriculteurs* et entrepreneurs, formateurs et étudiants ».


Pour Jack Andraka, étudiant américain de 16 ans, récompensé par l’Intel Science Fair pour avoir inventé un test révolutionnaire de diagnostic du cancer du pancréas, « Le bouton Open Access aide à démocratiser la connaissance ». Andraka a raconté comment il s’était lui-même heurté aux les refus d’accès aux publications scientifiques quand il développait son test. « La connaissance ne doit pas être une marchandise. Elle doit être librement accessible pour permettre aux patients et familles d’être pleinement parties prenantes. »


David Carroll et Joseph McArthur ont annoncé le lancement du bouton Open Access aujourd’hui devant un parterre de plus de 80 personnes réunies à l’occasion de la Berlin 11 Student and Early Stage Researcher Satellite Conference, une rencontre internationale pour les étudiants intéressés par la promotion de l’Open Access. Cette rencontre précède la conférence Open Access de Berlin, une convention de leaders d’opinion à travers le monde sur la question de l’Open Access, qui a débuté mardi.

« Ne perdons jamais de vue que nous tenons trop souvent pour immuable ce qui n’est qu’un état de fait, mais les développeurs du bouton Open Access nous rappellent qu’en tant qu’individus, nous avons réellement le pouvoir de changer les choses », déclare Heither Joseph, directeur exécutif de la coalition SPARC (Scholarly Publishing and Academic Resources Coalition), un regroupement international de bibliothèques universitaires et de recherche) et leader de renommée internationale au sein du mouvement Open Access. « C’est une idée simple, mais incroyablement créative, qui devrait nous aider à montrer combien l’accès libre répond à un véritable besoin ».

Plus d’informations à propos du bouton Open Access ainsi que des instructions pour son installation sont disponibles sur le site www.OpenAccessButton.org.


Suivez la conversation sur Twitter à @OA_Button avec le hashtag #aobuttonlaunch.




Pourquoi Microsoft Word doit-il mourir ?

Cet article est le fruit d’une traduction collaborative menée via la liste linuxedu sur un framapad.

Le titre original est : « Why Microsoft Word must Die? ». Son auteur Charles Stross est un écrivain britannique de science fiction. Très connu dans le milieu de la science fiction et du fantasy, il a obtenu plusieurs prix dont le prix Hugo.

Avant de pouvoir traduire son texte, nous lui avons demandé son autorisation ainsi que la licence qu’il souhaitait poser. Le texte suivant est donc en CC-By-Nc-Sa. Un grand merci à lui pour sa réactivité et surtout cet article très intéressant.

En tant qu’enseignants, nous ne pouvons que recommander cette lecture. On entend parfois comme argument que le système éducatif doit former à Word car c’est ce qui est présent dans le monde professionnel. Ceci est une véritable insulte à nos missions. Cela signifie que la qualité de notre enseignement est pauvre au point que nos élèves soient incapables de s’adapter à divers contextes logiciels ! Notre rôle est de les former à une classe de logiciel pas à un « outil » particulier aussi bon ou aussi mauvais soit-il. Vu les programmes actuels, peu d’élèves sortent en sachant utiliser correctement un traitement de texte. Le paradigme de la machine à écrire améliorée perdure.

Microsoft Word

Pourquoi Microsoft Word doit mourir ?

Je hais Microsoft Word. Je veux la mort de Microsoft Word. Je hais Microsoft Word avec une passion ardente et enflammée. Je hais Microsoft Word à la manière dont Winston Smith haïssait Big Brother. Et, de manière alarmante, nos raisons ne sont pas si différentes…

Microsoft Word est un tyran pour l’imagination, un dictateur mesquin, sans imagination et inconséquent qui est mal adapté à une quelconque utilisation créative par un écrivain. Pire : Il est en situation de quasi-monopole, dominant l’univers des traitements de texte. Son statut quasi monopolistique envahissant a fait un lavage de cerveaux aux développeurs de logiciels, à un point tel que peu d’entre eux peuvent imaginer un traitement de texte comme autre chose qu’une pâle copie du Monstre de Redmond. Mais qu’est-ce qui ne va pas exactement ?

J’utilise des traitements de texte et des éditeurs de texte depuis environ 30 ans. Il y eut une époque, avant la domination de Microsoft Word, où plusieurs paradigmes radicalement différents pour la préparation et le formatage de texte étaient en compétition dans un marché ouvert des idées. L’une des premières combinaisons, particulièrement efficace, était l’idée d’avoir un fichier texte, contenant des commandes imbriquées ou des macros, qui pouvait être édité avec un éditeur de texte pour les programmeurs (comme ed ou teco, ou plus tard vi ou emacs) puis alimenter divers outils : vérificateurs d’orthographe, correcteurs de grammaire, et des outils de mise en page tels que scribe, troff ou latex qui produisaient une image binaire de la page pouvant être envoyée à une imprimante.

Ces outils étaient rapides, puissants, élégants et extrêmement exigeants vis-à-vis de l’utilisateur. Quand les premiers ordinateurs personnels 8 bits apparurent (pour l’essentiel, l’Apple II et l’écosystème concurrent CP/M), les programmeurs tentèrent de développer un outil hybride, appelé traitement de texte : l’édition se faisait à l’écran et masquait à l’auteur les commandes compliquées et rébarbatives destinées à l’imprimante, en les remplaçant par une mise en surbrillance et en ne les affichant que lorsque que l’auteur demandait au logiciel de « montrer le code ».

Des logiciels comme WordStar ont ouvert la voie, jusqu’à ce que WordPerfect prenne le marché au début des années 1980 en introduisant la possibilité d’éditer simultanément deux fichiers ou plus, en scindant l’affichage à l’écran.

Puis, vers la fin des années soixante-dix et le début des années quatre-vingts, des groupes de recherche au MIT (l’Institut Universitaire de Technologie du Massachusetts à Boston) et au centre de recherche de Xerox à Palo Alto en Californie ont commencé à développer des outils qui ont étoffé l’interface graphique de l’utilisateur des stations de travail comme le Xerox Star et, plus tard, l’ordinateur Lisa et Macintosh – et finalement l’imitateur nouveau venu Microsoft Windows. Une guerre éclata puis fit rage entre deux factions.

Une faction voulait prendre le modèle classique des codes imbriqués dans un ficher, et l’améliorer pour un affichage graphique : l’utilisateur sélectionnait une section de texte, le marquait « italique » ou « gras », et le traitement de texte injectait le code associé dans le fichier puis, au moment d’imprimer, modifiait le rendu graphique envoyé à l’imprimante à cette phase-là du processus.

Mais un autre groupe voulait utiliser un modèle beaucoup plus puissant : les feuilles de style hiérarchiques. Dans un système à feuilles de style, les unités de texte — mots ou paragraphes — sont étiquetées avec un nom de style regroupant un ensemble d’attributs qui sont appliqués à ce morceau de texte lors de l’impression.

Microsoft était au début des années 80 une entreprise de développement logiciel, surtout connue pour son interpréteur BASIC et le système d’exploitation MS-DOS. Steve Jobs approcha Bill Gates en 1984 pour écrire des applications pour le nouveau système Macintosh, et il accepta.

L’un de ses premiers travaux fut d’organiser le premier véritable traitement de texte WYSIWYG pour un ordinateur personnel – Microsoft Word pour Macintosh. La controverse faisait rage en interne : devait-on utiliser les codes de contrôle ou bien les feuilles de style hiérarchiques ?

Finalement, le verdict tomba : Word devrait mettre en œuvre les deux paradigmes de formatage. Bien qu’ils soient fondamentalement incompatibles et qu’on puisse tomber dans une confusion horrible en appliquant un simple formatage de caractères à un document à base de feuille de style, ou vice versa. Word souffrait en réalité d’un vice de conception, dès le début – et cela n’a fait qu’empirer depuis.

Entre la fin des années 80 et le début des années 90, Microsoft est devenu un mastodonte en situation de quasi-monopole dans le monde du logiciel. L’une de ses tactiques est devenue bien connue (et redoutée) dans l’industrie : adopter et étendre (NdT: il y a l’idée du « baiser de la mort » : étreindre pour mieux étouffer).

Confronté à un nouveau type de logiciel à succès, Microsoft rachètait l’une des entreprises à la pointe du secteur et déversait alors des moyens pour intégrer le produit à son propre écosystème Microsoft, si nécessaire en abaissant ses prix pour éjecter ses concurrents du marché. La croissance de Microsoft Word s’est faite par l’acquisition de nouveaux modules : publipostage, correcteurs orthographiques et grammaticaux, outils de chapitrage et d’index.

Toutes ces entreprises étaient des sociétés artisanales dynamiques, formant une communauté prospère d’éditeurs de produits concurrents qui tous luttaient pour produire de meilleurs logiciels qui leur permettaient de cibler leurs parts de marché. Mais Microsoft s’est infiltré dans chaque secteur et a intégré un par un les concurrents à Word, tuant de fait la concurrence et étouffant l’innovation. Microsoft a tué les outils d’index et de chapitrage sur Windows, a stoppé net le développement du correcteur grammatical, a étouffé celui des correcteurs orthographiques. Il existe un cimetière entier d’écosystèmes jadis prometteurs, et il s’appelle Microsoft Word.

Alors que le logiciel se développait, Microsoft déploya sa tactique « Adopte étend et étouffe » en vue de rendre les mises à jours incontournables, rendant ainsi les utilisateurs de Word captifs, par le biais de mutations constantes du format de fichier utilisé. Les premières versions de Word étaient interopérables avec ses rivaux comme Word Perfect, elles pouvaient importer et exporter dans les formats de fichier des autres logiciels. Mais au fur et à mesure que la domination de Word devenait établie, Microsoft a à plusieurs reprises modifié son format de fichier – avec Word 95, Word 97, en 2000, encore en 2003 et plus récemment encore.

Chaque nouvelle version de Word utilisait par défaut un nouveau format de fichier qui n’était plus reconnu par les versions précédentes. Pour échanger des documents avec quelqu’un d’autre, vous pouviez tenter d’utiliser le format RTF — mais la plupart des utilisateurs professionnels occasionnels ne prenaient pas la peine de regarder les différents formats du menu « Enregistrer sous… », et donc si vous deviez travailler avec d’autres, vous vous trouviez dans l’obligation de payer régulièrement la dime Microsoft même si aucune nouvelle fonctionnalité ne vous était utile.

Le format de fichier .doc a lui aussi été délibérément rendu opaque : au lieu d’un document interprétable contenant des métadonnées de formatage ou de macros, c’est en fait l’image mémoire des structures de données logicielles qu’utilise Word, avec les adresses pointant sur les sous-routines qui fournissent les données de formatage ou celles des macros. Et la « sauvegarde rapide » aggrava encore la situation en ajoutant un journal des différents changements à l’image mémoire du programme.

Pour analyser un fichier .doc vous devez virtuellement réécrire un mini Microsoft Word. Ce n’est pas un format de fichier contenant des données : c’est un cauchemar ! Au 21e siècle, ils ont essayé d’améliorer le tableau en le remplaçant par un schéma XML… mais ils n’ont réussi qu’à ajouter à la confusion en utilisant des balises XML qui se réfèrent à des points d’entrée de fonctions dans le code de Word, au lieu de décrire la structure sémantique réelle du document. Difficile d’imaginer qu’une multinationale telle que Microsoft, aussi importante et (habituellement) gérée avec compétence puisse commettre accidentellement une telle erreur…

Cette obsolescence programmée n’a pas d’importance pour la plupart des entreprises, dans lesquelles la durée moyenne de vie d’un document est inférieure à six mois. Mais d’autres domaines réclament la conservation des documents. En droit, en médecine ou encore en littérature, la durée de vie d’un fichier se compte en décennies si ce n’est en siècles. Les pratiques commerciales de Microsoft vont à l’encontre des intérêts de ces utilisateurs.

D’ailleurs Microsoft Word n’est même pas facile à utiliser. Son interface alambiquée, baroque, rend difficile ce qui est simple et quasi impossible ce qui est difficile. Ceci garantit la sécurité de l’emploi pour le gourou, mais pas la transparence pour l’utilisateur éclairé et intuitif qui souhaiterait simplement se concentrer sur son travail et pas sur l’outil avec lequel la tâche doit être accomplie. Word impose à l’auteur sa propre conception de la façon dont un document doit être structuré, une structure bien plus adaptée aux lettres commerciales et aux bilans (tâches pour lesquelles il est utilisé par la majorité de ses utilisateurs).

Ses outils de vérification et de suivi des modifications sont baroques, truffés d’erreurs et ne conviennent pas à un vrai travail collaboratif de conception d’un document ; ses possibilités de chapitrage et de notes sont piteusement primitives face aux besoins d’un écrivain ou d’un thésard. Quant aux recommandations à l’emporte-pièce de son correcteur grammatical, elles pourraient n’être qu’amusantes si les tournures commerciales qu’il impose, dignes d’un potache besogneux, n’étaient désormais si largement répandues.

Mais ce n’est pas pour cela que je veux la mort de Microsoft Office.

La raison pour laquelle je veux sa mort est que, tant que celle-ci ne sera pas arrivée, on ne pourra éviter Word. Je n’écris pas mes romans avec Microsoft Word. J’utilise toute une palette d’autres outils, depuis Scrivener (un logiciel conçu pour la structuration et l’édition de documents composites qui est à Word ce qu’un environnement de développement intégré est à un éditeur de texte rudimentaire) jusqu’à des éditeurs de texte classiques comme Vim. Mais d’une façon ou d’une autre, les principales maisons d’édition se sont laissé intimider et persuader que Word était l’incontournable clef-de-voûte des systèmes de production de documents.

Pire, cette prédominance nous rend aveugles aux possibilités d’amélioration de nos outils de création de documents. On nous a imposé presque 25 ans d’immobilisme, j’espère que nous trouverons bientôt quelque chose de mieux pour le remplacer.




Grâce à Wikileaks on a la confirmation que l’accord TPP est pire qu’ACTA

Merci à Wikileaks d’avoir révélé hier une version de travail tenue secrète de l’accord Trans-Pacific Strategic Economic Partnership, plus connu sous l’acronyme TPP.

La France ne faisant pas partie des pays directement concernés, on n’en parle pas beaucoup dans nos médias. Mais on sait depuis longtemps que ce sont les USA qui donnent le la dans tout ce qui touche au copyright international.

Plus que donner le la, ils dictent la loi. Et celle qui se prépare ici est tout simplement scélérate…

TPP

La fuite du chapitre sur la propriété intellectuelle du Partenariat Trans-Pacifique confirme que cet accord est pire qu’ACTA

TPP IP Chapter Leaked, Confirming It’s Worse Than ACTA

Glyn Moody – 13 novembre 2013 – TechDirt.com
(Traduction : Barbidule, Penguin, Genma, MFolschette, baba, mlah, aKa, Alexis Ids, Scailyna, @paul_playe, Mooshka, Omegax)

par le service du pas-étonnant-que-le-secret-soit-si-bien-gardé

Cela fait longtemps que nous attendions une fuite majeure du Partenariat Trans-Pacifique (TPP) rédigé en secret ; grâce à Wikileaks, nous en avons enfin une (voir aussi directement le pdf). Le texte est long et lourd à lire, en partie à cause de toutes les parties entre parenthèses sur les points où les négociateurs ne se sont pas encore mis d’accord. Même si le brouillon est assez récent — il est daté du 30 août 2013 — un grand nombre de ces points y restent ouverts. Heureusement, KEI a déjà rassemblé une analyse détaillée mais facilement compréhensible, que je vous encourage vivement à lire en entier. En voici un résumé :

Le document confirme les craintes sur le fait que les différentes parties sont prêtes à étendre les limites du droit de la propriété intellectuelle, et à restreindre les droits et libertés du consommateur.

En comparaison des accords multilatéraux existants, l’accord du TPP sur la propriété intellectuelle propose l’octroi de nouveaux brevets, la création d’une propriété intellectuelle sur les données, l’extension des termes de protection pour les brevets et copyrights, l’accroissement des privilèges des ayants droit, et l’augmentation des peines pour infraction à la propriété intellectuelle. Le texte du TPP réduit le champ des exceptions pour tous les types de propriété intellectuelle. Négocié dans le secret, le texte proposé est néfaste pour l’accès au savoir, néfaste pour l’accès aux soins, et profondément néfaste pour l’innovation.

Bien que de nombreux domaines soient concernés par les propositions de la copie de travail — l’accès aux soins vitaux seraient restreints, tandis que la portée des brevets serait étendue aux méthodes chirurgicales par exemple — les effets sur le copyright sont particulièrement significatifs et troublants :

Collectivement, les dispositions du droit d’auteur (dans le TPP) sont configurées de manière à étendre les termes du droit d’auteur de la convention de Berne au-delà de la vie plus 50 ans, créant de nouveaux droits exclusifs, et fournissant bon nombre de nouvelles directives spécifiques pour gérer le copyright dans l’environnement numérique.

Voici quelques-unes des extensions de durée proposées :

Concernant les durées de copyright, le TPP définit les bases comme suit. Les États-Unis, l’Australie, le Pérou, Singapour et le Chili proposent une durée de 70 ans après la mort de l’auteur pour les personnes physiques. Pour des œuvres appartenant à une entreprise, les États-Unis proposent 95 ans de droits exclusifs, alors que l’Australie, le Pérou, Singapour et le Chili proposent 70 ans. Le Mexique veut une durée de 100 ans après la mort de l’auteur pour les personnes physiques et 75 ans après la mort de l’auteur pour des œuvres appartenant à une entreprise. Pour des travaux non publiés, les États-Unis veulent une durée de 120 ans.

Un problème plus technique concerne l’utilisation du « test en trois étapes » qui agira comme une contrainte supplémentaire sur de possibles exceptions au copyright :

Dans sa forme actuelle, l’espace des exceptions tel que défini par le TPP est moins vaste et plus restrictif que celui du traité 2012 de l’OMPI à Pékin ou celui du traité 2013 de l’OMPI à Marrakech, et bien pire que l’accord ADPIC. Bien que cela implique des problèmes légaux complexes, les ramifications politiques sont simples. Les gouvernements auraient une marge de manœuvre plus restreinte pour évaluer les exceptions dans l’éducation, dans les citations, dans les affaires publiques, dans les actualités et dans les autres exceptions « spéciales » de la Convention de Berne ? Pourquoi un gouvernement voudrait-il abandonner son autorité générale pour réfléchir à l’aménagement de nouvelles exceptions, ou pour contrôler les abus des détenteurs de droits ?

Ceci est un bon exemple de comment le TPP n’essaie pas seulement de changer le copyright en faveur de ceux qui veulent l’étendre au maximum, mais essaie aussi d’instaurer un copyright qui serait facile à renforcer à l’avenir. En voici un autre, dans lequel le TPP veut empêcher le retour à un système de copyright qui nécessite une inscription — ce genre de système ayant été proposé comme un moyen de pallier aux problèmes qui surviennent à cause de la nature automatique de l’attribution du copyright :

Le TPP va au-delà de l’accord ADPIC pour ce qui est de l’interdiction de l’instauration de formalités pour le copyright. Bien que le problème des formalités puisse sembler être un problème facile à résoudre, il y a un bon nombre de flexibilités qui seront éliminées par le TPP. À l’heure actuelle, il est possible d’avoir des exigences de formalités pour des œuvres appartenant à la sphère nationale et d’imposer des formalités à de nombreux types de droits liés, incluant ceux protégés par la Convention de Rome. Ces dernières années, les créateurs et les théoriciens de la politique du copyright ont commencé à remettre en question les bénéfices de l’enregistrement des œuvres et autres formalités, en particulier à la lumière des problèmes liés aux durées de copyright étendues sur de nombreuses oeuvres orphelines.

Comme vous pouvez vous en douter, le TPP demande à ce qu’il y ait des protections solides de type DRM ; mais ici encore, il cherche à rendre les choses pires qu’elles ne le sont déjà :

La section sur le droit d’auteur inclut également un long discours sur les mesures de protection technique, et en particulier, la création d’un motif de poursuites spécifique contre le fait de casser les mesures techniques de protection. Les USA veulent que ce motif de poursuites spécifique s’étende même aux cas où le droit d’auteur n’est pas applicable, comme par exemple les œuvres du domaine public, ou bien les données qui ne sont pas protégées par le droit d’auteur.

Cela rendrait illégal le fait de contourner les DRM, même si ceux-ci sont appliqués à du contenu qui se trouve dans le domaine public — les enfermant alors une fois de plus, de façon efficace et permanente. Enfin, il est intéressant de remarquer que dans la sous-section fixant les dommages et intérêts pour violation de copyright, on peut y lire ce qui suit :

Pour déterminer le montant des dommages et intérêts en vertu du paragraphe 2, les autorités judiciaires seront habilitées à examiner, entre autres, toute mesure légitime de valeur que le détenteur du droit soumet, ce qui peut comprendre les bénéfices perdus, la valeur des biens ou des services concernés, mesurée en se basant sur le prix du marché, ou sur le prix de vente au détail suggéré.

C’est exactement la tournure qui a été utilisée pour ACTA, et qui a été retrouvée dans le récent accord de libre-échange entre l’UE et Singapour. Cela résume assez bien comment le TPP s’appuie directement sur ACTA, tandis que les autres mesures évoquées ci-dessus montrent comment il va bien au-delà et ce à plusieurs égards.

Voilà pour les mauvaises nouvelles. La bonne nouvelle, c’est que nous avons maintenant une version très récente de ce qui pourrait être la partie la plus controversée de l’accord. Dans les semaines à venir, nous sommes susceptibles de voir de nombreuses analyses détaillées exposant au grand jour le caractère ô combien pernicieux cet accord pour le public des pays participant aux négociations.

L’espoir étant qu’une fois qu’il en sera informé, il fera connaître son sentiment à ses représentants politiques comme il l’a fait avec SOPA et ACTA — et avec le même résultat final.




Quand la communauté OpenStreetMap aide à sauver des vies aux Philippines

La forte mobilisation de la communauté OpenStreetMap après le passage du terrible typhon Haiyan aux Philippines fournit une aide précieuse à la la Croix-Rouge sur le terrain.

« Quand les défenseurs des données ouvertes discutent à propos des licences de données, ils discutent rarement en termes de vie ou de mort. »

Haiyan_approaching_Philippines_2013_-_11_-_07.jpg

Comment les éditeurs de cartes en ligne aident la Croix-Rouge à sauver des vies aux Philippines

How Online Mapmakers Are Helping the Red Cross Save Lives in the Philippines

Robinson Meyer – 12 novembre 2013 – The Atlantic
(Traduction : Garburst, Penguin, Genma, goofy, MFolschette, JLoDoesIT, fcharton, bob, Lydie, Mooshka, aKa, Omegax)

Des bénévoles à travers le monde sont en train de construire une infrastructure géo-numérique pour aider l’organisation des secours aux victimes du typhon Haiyan.

Il faudra des mois avant que nous ne connaissions les réels dégâts provoqués par le terrible typhon Haiyan. Les pertes actuelles de vies humaines liées à la tempête ne sont pour l’instant qu’une estimation. Les humanitaires venant du monde entier s’envolent maintenant vers l’archipel, ou sont seulement en train d’arriver. Avec les Philippins, ils vont venir en aide aux survivants et commencer à reconstruire.

Mais ils pourront être aidés par une technologie formidable, une collaboration humanitaire mondiale et massive rendue possible par le biais d’Internet.

De quoi s’agit-il ? D’une carte détaillée des zones touchées par le typhon Haiyan, qui n’existait pas il y a trois jours lorsque le typhon a frappé.

Depuis samedi, plus de 400 contributeurs ont effectué près de 750 000 ajouts sur la carte en ligne libre des Philippines et de ses environs.

Ces contributions reflètent l’état de la carte avant le passage du typhon, mais elles aideront les sauveteurs de la Croix-Rouge et les bénévoles à prendre des décisions cruciales afin de savoir où envoyer de la nourriture, de l’eau , des équipements.

Il est très facile ici d’exagérer, mais il est très probable qu’aux Philippines à l’heure actuelle, les données et logiciels de cartographie libres — ainsi que la communauté qui les supporte — sauveront des vies.

Le Wikipédia des cartes

Les changements ont été faits dans OpenStreetMap (OSM), une sorte de Wikipédia des cartes. OSM se veut être une carte complète du monde, libre d’utilisation et modifiable par tous. Créée en 2004, la plateforme a maintenant plus d’un million d’utilisateurs.

J’ai parlé avec Dale Kunce, un ingénieur de géolocalisation senior de la Croix-Rouge américaine, sur la façon dont l’aide apportée par les volontaires créant les cartes pouvait améliorer la situation aux Philippines.

La Croix-Rouge, à l’échelle internationale, a commencé récemment à utiliser des logiciels et des données libres au sein de ses différents projets, dit-il. Les logiciels libres réduisent ou éliminent les coûts cachés, ou le montant nécessaire pour que les choses continuent de fonctionner après le départ de la Croix-Rouge. N’importe quel logiciel ou donnée issu de la Croix-Rouge est aujourd’hui sous licence libre ou Creative Commons.

Bien qu’OpenStreetMap ait déjà été utilisé dans des crises humanitaires, c’est ici la première fois où la Croix-Rouge coordonne son utilisation avec celle des volontaires.

Comment les modifications ont-elles été effectuées ?

Les quelques 400 bénévoles qui ont édité OSM ces derniers trois jours ne sont pas tous des cartographes professionnels. À l’initiative de la branche humanitaire d’OpenStreetMap sur Twitter, l’appel fut lancé pour cartographier les zones qui se sont trouvées sur le chemin de la tempête.

À quoi ressemble la cartographie ? Généralement, il s’agit de « traçage » des routes dans OSM en se basant sur des données satellitaires. L’éditeur d’OSM met les images satellite en arrière-plan — sur lesquelles les infrastructures comme les routes sont clairement visibles — et au-dessus, la représentation du monde tel qu’il est cartographié par OSM. Les bénévoles peuvent alors tracer le chemin d’une route, comme cela est montré dans cette image GIF animée, créé par MapBox, une startup originaire de Washington :

9303509136_93ca3ef923_o.gif

Les bénévoles peuvent également dessiner les immeubles dans la partie Mapbox, en utilisant le même éditeur visuel. Depuis que Haiyan a frappé, les bénévoles ont ainsi retracé quelque 30 000 bâtiments.

Les cartes, sur le terrain

Comment des données cartographiques aident-elles les personnes sur le sol des Philippines ? Tout d’abord, elles leur permettent d’imprimer sur place des cartes en utilisant les donnée d’OSM pour ensuite les redistribuer sur le terrain. La Croix-Rouge américaine a envoyé quatre responsables de haut niveau aux Philippines, et parmi eux, Helen Welch, une spécialiste de la gestion de l’information, a apporté avec elle plus de 50 cartes papier décrivant la ville de Tacloban et d’autres zones fortement touchées.

462e7fb76.png

La ligne rouge montre la trajectoire du super-typhon Haiyan et les zones colorées montrent où les volontaires ont complété OpenStreetMap ce week-end. Notez l’étendue des modifications à Tacloban, une ville de plus de 220 000 habitants et qui est la plus touchée par le phénomène climatique.

Ces cartes ont été imprimées le samedi, avant que les volontaires n’aient fait la majorité des changements dans les zones concernées sur OSM. Quand ces nouvelles données seront imprimées sur le terrain, elles incluront presque tous les tracés des bâtiments, et les secouristes auront une meilleure représentation de l’endroit où les bâtiments « fantômes » devraient se trouver. Elles seront aussi sur papier, de manière à ce que les sauveteurs puissent y écrire, y dessiner et y indiquer des lieux.

Welch a atterri il y a 12 heures, et Kunce a dit qu’on lui avait déjà envoyé trois ou quatre cartes actualisées.

5e566f188.png

Une partie de la ville de Tacloban avant puis après sa cartographie par l’équipe d’OpenStreetMap Humanitarian (HOT). Les routes, les immeubles et les plans d’eau n’existaient pas avant que les contributeurs les ajoutent (@RBanick).

La Croix-Rouge a commencé à vouloir utiliser des données géospatiales après le gigantesque tremblement de terre en Haïti en 2010. En utilisant des données satellitaires pré-existantes, les volontaires ont cartographié la quasi totalité de Port-au-Prince dans OSM, créant des données qui devinrent la colonne vertébrale pour le logiciel qui a aidé à organiser l’aide et à gérer les opérations de recherche.

Les efforts considérables des volontaires ont convaincu les dirigeants de la Croix-Rouge américaine d’augmenter les équipes travaillant sur la cartographie numérique et les systèmes d’information géographique (SIG). Depuis cette décision, ils ont constaté une augmentation énorme de la qualité et de la quantité de cartes.

Mais ce n’est pas tout ce que les cartes peuvent faire.

La National Geospatial-Intelligence Agency (NGA, agence nationale de renseignement géospatiale), gérée par le département de la Défense des États-Unis, a déjà récupéré des images satellitaires des Philippines. Cette agence a décidé où se situaient les dégâts les plus importants, et a envoyé les coordonnées de ces zones à la Croix-Rouge. Mais, ce lundi à 19 h, la Croix-Rouge n’avait toujours pas les images pour ces zones.

Le but de l’équipe géospatiale de la Croix-Rouge, déclare Kunce, était d’aider les hommes sur le terrain à « prendre des décisions basées sur des preuves, pas des intuitions ». L’équipe « leur a fourni toutes les données possibles ». Qu’est-ce que cela signifie ? Grâce aux volontaires, la Croix-Rouge sait où les routes et bâtiments devraient être. Mais jusqu’à ce qu’ils aient le second jeu de données, décrivant la zone après le typhon, ils ne savent pas où se trouvent effectivement les routes et bâtiments. Tant qu’ils n’ont pas ces nouvelles données, les volontaires ne peuvent décider, par exemple, quel itinéraire parmi trois ils peuvent utiliser pour envoyer de l’eau à un village isolé.

À l’heure actuelle, ils ne peuvent pas prendre ces décisions.

Kunce a déclaré que le Département d’État américain était en négociation avec la NGA pour que les images satellites puissent être mises à la disposition de la Croix-Rouge. Mais, pour le moment, rien n’a encore été publié.

Quand les défenseurs des données ouvertes discutent à propos des licences de données, ils discutent rarement en termes de vie ou de mort. Mais à chaque heure qui passe pendant lesquelles la Croix-Rouge ne reçoit pas d’images satellite, ce sont des décisions optimales qui ne peuvent pas être prises, pour savoir où envoyer des équipements ou encore où mener des opérations de sauvetage.

Et une fois que les images satellites seront arrivées, les bénévoles OSM à travers le monde pourront alors les comparer aux structures d’avant la tempête, marquant chacun des 30 000 bâtiments comme indemnes, endommagés ou détruits. Cette phase, qui n’a pas encore commencé, va aider les secouristes à hiérarchiser leurs efforts.

OSM n’est pas la seule organisation à solliciter l’aide de volontaires en ligne afin d’aider les Philippines : MicroMappers, dirigé par un vétéran des efforts d’OSM en Haïti, a également fait des appels à des bénévoles pour trier des tweets, et ainsi déterminer les zones où les secours étaient les plus nécessaires.

Kunce m’a dit que la plus large diffusion commerciale des cartes électroniques a contribué de manière générale à leur croissance tant en quantité qu’en qualité au travers des différentes organisations humanitaires.

« Si vous mettez une carte entre les mains des gens, ils vont vous en demander une autre », a déclaré Kunce. Espérons que le gouvernement va fournir de meilleures cartes à la Croix-Rouge — et aux secours qui sont sur le terrain — et ce aussi vite que possible.




Le Brésil ne veut plus de logiciels impossibles à auditer

Avant Snowden, nous criions dans le désert.

Il en va tout autrement aujourd’hui. Et les gouvernements réalisent soudainement le danger d’avoir choisi des logiciels propriétaires qu’on ne peut évaluer et auditer faute d’accès au code source.

Il ne va pas être facile pour Microsoft, Apple et consorts de répondre ici aux exigences de transparence des autorités brésiliennes qui se tourneront naturellement vers le logiciel libre.

En attendant le tour de la France…

Edward Snowden - Laura Poitras - CC by

Le gouvernement brésilien va interdire l’achat des logiciels qui ne permettent pas leur plein contrôle

Governo vai barrar compra de software que impeça auditoria

Natuza Nery et Julia Borba – 5 novembre 2013 – Folha de S. Paolo
(Traduction : Ulan, Pierre, JonathanMM)

A partir de l’année prochaine, le gouvernement (brésilien) n’achètera plus d’ordinateurs ou de logiciels qui ne peuvent être pleinement audités par les pouvoirs publics. La directive a été publiée le 5 novembre dernier dans le journal officiel « Diario official da Uniao ».

Ainsi, les systèmes d’exploitation comme Windows (Microsoft) et MacOS (Apple) ne seront plus utilisés si les entreprises concernées font obstacle aux enquêtes sur l’espionnage informatique.

Actuellement, à l’installation d’un logiciel (propriétaire), les utilisateurs acceptent les termes d’utilisation de l’éditeur autorisant éventuellement celui-ci à accéder à leur ordinateur.

Le gouvernement brésilien souhaite avoir le droit de surveiller qui surveille ses concitoyens, et ce dans le but de pouvoir identifier et tracer les tentatives d’espionnage.

Selon le journal « Folha de São Paulo », l’intention n’est pas de promouvoir une conversion massive des parcs informatiques, mais prévenir que les produits actuels ne sont plus conformes aux nouvelles exigences.

De cette manière, il y aura un substitution graduelle des programmes traditionnels (propriétaires) pour des logiciels libres, comme Linux, si nous ne parvenons pas à négocier avec les grandes entreprises.

L’importance accordée par le gouvernement à l’espionnage a augmenté depuis qu’ont été publiés les dénonciations sur l’accès par les services américains aux archives des autorités et entreprises brésiliennes.

Économie

Le gouvernement considère que, en plus d’augmenter la sécurité, la directive entraînera des économies. L’utilisation de logiciels libres met un terme au renouvellement obligatoire des licences de ces programmes.

Interrogé pour la rédaction de cet article, Apple n’a pas souhaité répondre à cette décision.

Microsoft a informé qu’il fournit aux gouvernements « l’accès contrôlé au code source et aux autres informations techniques pour les aider à évaluer la sécurité des produits ». La société a également déclaré qu’elle se met à disposition du gouvernement brésilien pour discuter des détails de la mesure.

Valeur incertaine

Il n’y a pas encore d’estimation de l’impact de cette décision sur les dépenses gouvernementales. Les informations plus précises sur ces coûts ne seront dévoilées qu’après l’application de la directive, quand aura lieu une enquête sur les contrats actuellement en vigueur et les dates d’expirations de ceux-ci. Comme ces licences ont été obtenues à des moments différents, il n’est pas encore possible de faire d’estimation.

Le journal précise que le gouvernement de Dilma Rousseff étudie également avec détermination une autre mesure de sécurité informatique : installer le client de messagerie libre Expresso (Serpro) comme référence sur tout ordinateur public à la place de Outlook, ce qui engendrera des économies supérieures à 60 millions de reais par an (environ 20 millions d’euros).

Crédit photo : Laura Poitras (Creative Commons By)




Oublions Powerpoint avec Reveal.js

Pour se passer de Powerpoint, il y a Impress de LibreOffice bien sûr.

Mais il existe aussi de nombreuses solutions web issues du trio gagnant : JavaScript, HTML5 et CSS3).

Nous avons choisi avec cette traduction de mettre en valeur Reveal.js, avec une méthode de geek pour assurer l’archivage et retrouver facilement les différentes versions de vos présentations.

reveal.js

Enseigner avec l’application de présentation libre Reveal.js

Teaching with open source presentation service Reveal.js

Luis Ibanez – 30 octobre 2013 – OpenSource.com
(Traduction : Penguin, Genma, audionuma, cyrille, Omegax, Garburst)

OpenSource.com a un programme pour les modérateurs de communautés, et je suis fier d’en faire partie. Nous nous sommes récemment réunis dans le centre ville de Raleigh (en Caroline du Nord). L’une de nos discussions portait sur les logiciels open source pour l’éducation, et Ruth Suehle, qui dirige l’équipe marketing de Fedora tout en conseillant et en écrivant pour Opensource.com, a attiré notre attention sur les merveilles de Reveal.js, un nouvel outil de préparation de diapositives pour les présentations.

« C’est ce que les gens cool utilisent »dit-elle. Et dieu sait qu’elle avait raison !

Un rapide détour par la page d’exemples et de présentations permet de convaincre les plus sceptiques.

Les principales caractéristiques qui sortent du lot sont :

  • Les diapositives sont créées en écrivant du simple code HTML
  • Les présentations…
    • sont des pages HTML + Javascript
    • peuvent être vues sur n’importe quel appareil : téléphones, tablettes, ordinateurs.
  • Le contenu peut être mis dans un système de contrôle de version (par exemple Git/Github).
    • Ne vous est-il jamais arrivé de regarder une présentation d’une année passée et de vous demander s’il s’agit bien de la version que vous souhaitez utiliser ? Vous êtes vous jamais demandé quelles étaient les dernières modifications ?
  • L’hébergement Git permet la collaboration de plusieurs auteurs.
    • Tout comme avec n’importe quel projet collaboratif, différents auteurs peuvent ajouter du contenu, faire des commentaires, corriger les erreurs.
    • Et en cas de désaccord, ils peuvent toujours faire une branche dérivée, un fork, de ces présentations.

Voici quelques-unes des présentations qui ont été faites lors de notre cours « Pratiques des logiciels open-source » à l’École polytechnique Rensselaer et à l’université de l’État de New-York à Albany :

Pour ceux qui ne sont pas à l’aise avec l’écriture de code HTML, il y a un éditeur interactif : Slid.es, au sein duquel vous pouvez créer vos diapositives en utilisant une interface simple. Les présentations sont également hébergées, ainsi vous n’avez pas besoin de vous préoccuper de trouver un serveur web.

Pour ceux à qui écrire du code HTML plaît, la façon la plus facile de commencer est la suivante :

  • Consultez les nombreux exemples
    • Copiez ou forkez vos (exemples) favoris
    • Modifiez et créez le votre

La façon de faire pour du long terme est la suivante :

Enfin, le partager en retour !

Vous pouvez ajouter vos présentations en guise d’exemple pour les autres, en modifiant simplement les exemples de la page de présentation.

Remarquez que l’usage de Git (ou GitHub) n’est pas une nécessité, vous pouvez profitez de la joie d’utiliser Reveal.js comme un simple framework web. C’est juste qu’ajouter les fonctionnalités de Github tel que le contrôle de version, l’hébergement, le partage, donne une nouvelle dimension à la facilité d’usage de ce merveilleux outil.

Remarquez qu’il n’est pas nécessaire d’héberger vos présentations sur un serveur web. Vous pouvez toujours faire la présentation depuis votre pc portable en indiquant à votre navigateur web où se trouvent les fichiers HTML sur votre disque dur. Ce qui peut s’avérer très pratique quand on arrive en retard en classe, ou lorsque l’on a des changements à faire en dernière minute sur la présentation (ce qui bien sûr n’arrive jamais…:)).




Quel niveau de surveillance la démocratie peut-elle endurer ? par Richard Stallman

« Le niveau de surveillance actuel dans nos sociétés est incompatible avec les droits de l’homme… »

C’est ce qu’affirme et expose Richard Stallman dans ce long article argumenté en proposant un certain nombre de mesures pour desserrer l’étau.

Sur la photo ci-dessous, on voit Stallman lors d’une conférence en Tunisie muni d’un étrange badge. Il l’a recouvert lui-même de papier aluminium pour ne pas être pisté lors de l’évènement !

Quel niveau de surveillance la démocratie peut-elle supporter ?

par Richard Stallman

URL d’origine du document (sur GNU.org)

Une première version de cet article a été publiée sur Wired en octobre 2013.
Licence : Creative Commons BY-ND 3.0 US
Traduction : aKa, zimadprof, Lamessen, Sylvain, Scailyna, Paul, Asta, Monsieur Tino, Marc, Thérèse, Amine Brikci-N, FF255, Achille, Slystone, Sky, Penguin et plusieurs anonymes
Révision : trad-gnu@april.org – Version de la traduction : 14 août 2014

Grâce aux révélations d’Edward Snowden, nous comprenons aujourd’hui que le niveau de surveillance dans nos sociétés est incompatible avec les droits de l’homme. Le harcèlement répété et les poursuites judiciaires que subissent les opposants, les sources et les journalistes (aux États-Unis et ailleurs) en sont la preuve. Nous devons réduire le niveau de surveillance, mais jusqu’où ? Où se situe exactement le seuil tolérable de surveillance que l’on doit faire en sorte de ne pas dépasser ? C’est le niveau au delà duquel la surveillance commence à interférer avec le fonctionnement de la démocratie : lorsque des lanceurs d’alerte comme Snowden sont susceptibles d’être attrapés.

Face à la culture du secret des gouvernements, nous, le peuple,1 devons compter sur les lanceurs d’alerte pour apprendre ce que l’État est en train de faire. De nos jours, cependant, la surveillance intimide les lanceurs d’alerte potentiels, et cela signifie qu’elle est trop intense. Pour retrouver notre contrôle démocratique sur l’État, nous devons réduire la surveillance jusqu’à un point où les lanceurs d’alerte se sentent en sécurité.

L’utilisation de logiciels libres, comme je la préconise depuis trente ans, est la première étape dans la prise de contrôle de nos vies numériques – qui inclut la prévention de la surveillance. Nous ne pouvons faire confiance aux logiciels non libres ; la NSA utilise et même crée des failles de sécurité dans des logiciels non libres afin d’envahir nos ordinateurs et nos routeurs. Le logiciel libre nous donne le contrôle de nos propres ordinateurs, mais cela ne protège pas notre vie privée dès l’instant où nous mettons les pieds sur Internet.

Une législation bipartisane ayant pour but de « limiter les pouvoirs de surveillance sur le territoire national » est en cours d’élaboration aux États-Unis mais elle le fait en limitant l’utilisation par le gouvernement de nos dossiers virtuels. Cela ne suffira pas à protéger les lanceurs d’alerte si « capturer le lanceur d’alerte » est un motif valable pour accéder à des données permettant de l’identifier. Nous devons aller plus loin encore.

Le niveau de surveillance à ne pas dépasser dans une démocratie

Si les lanceurs d’alerte n’osent pas révéler les crimes, délits et mensonges, nous perdons le dernier lambeau de contrôle réel qui nous reste sur nos gouvernements et institutions. C’est pourquoi une surveillance qui permet à l’État de savoir qui a parlé à un journaliste va trop loin – au delà de ce que peut supporter la démocratie.

En 2011, un représentant anonyme du gouvernement américain a fait une déclaration inquiétante à des journalistes, à savoir que les États-Unis n’assigneraient pas de reporter à comparaître parce que « nous savons avec qui vous parlez ». Parfois, pour avoir ces renseignements, ils obtiennent les relevés téléphoniques de journalistes par injonction judiciaire, mais Snowden nous a montré qu’en réalité ils adressent des injonctions en permanence à Verizon et aux autres opérateurs, pour tous les relevés téléphoniques de chaque résident.

Il est nécessaire que les activités d’opposition ou dissidentes protègent leurs secrets des États qui cherchent à leur faire des coups tordus. L’ACLU2 a démontré que le gouvernement des États-Unis infiltrait systématiquement les groupes dissidents pacifiques sous prétexte qu’il pouvait y avoir des terroristes parmi eux. La surveillance devient trop importante quand l’État peut trouver qui a parlé à une personne connue comme journaliste ou comme opposant.

L’information, une fois collectée, sera utilisée à de mauvaises fins

Quand les gens reconnaissent que la surveillance généralisée atteint un niveau trop élevé, la première réponse est de proposer d’encadrer l’accès aux données accumulées. Cela semble sage, mais cela ne va pas corriger le problème, ne serait-ce que modestement, même en supposant que le gouvernement respecte la loi (la NSA a trompé la cour fédérale de la FISA,3 et cette dernière a affirmé être incapable, dans les faits, de lui demander des comptes). Soupçonner un délit est un motif suffisant pour avoir accès aux données, donc une fois qu’un lanceur d’alerte est accusé d’« espionnage », trouver un « espion » fournira une excuse pour avoir accès à l’ensemble des informations.

Le personnel chargé de la surveillance d’État a l’habitude de détourner les données à des fins personnelles. Des agents de la NSA ont utilisé les systèmes de surveillance américains pour suivre à la trace leurs petit(e)s ami(e)s – passés, présents, ou espérés, selon une pratique nommée « LOVEINT ». La NSA affirme avoir détecté et puni cette pratique à plusieurs reprises ; nous ne savons pas combien d’autres cas n’ont pas été détectés. Mais ces événements ne devraient pas nous surprendre, parce que les policiers utilisent depuis longtemps leurs accès aux fichiers des permis de conduire pour pister des personnes séduisantes, une pratique connue sous les termes de « choper une plaque pour un rencard ».

Les données provenant de la surveillance seront toujours détournées de leur but, même si c’est interdit. Une fois que les données sont accumulées et que l’État a la possibilité d’y accéder, il peut en abuser de manière effroyable, comme le montrent des exemples pris en Europe et aux États-Unis.

La surveillance totale, plus des lois assez floues, ouvrent la porte à une campagne de pêche à grande échelle, quelle que soit la cible choisie. Pour mettre le journalisme et la démocratie en sécurité, nous devons limiter l’accumulation des données qui sont facilement accessibles à l’État.

Une protection solide de la vie privée doit être technique

L’Electronic Frontier Foundation et d’autres structures proposent un ensemble de principes juridiques destinés à prévenir les abus de la surveillance de masse. Ces principes prévoient, et c’est un point crucial, une protection juridique explicite pour les lanceurs d’alerte. Par conséquent, ils seraient adéquats pour protéger les libertés démocratiques s’ils étaient adoptés dans leur intégralité et qu’on les faisait respecter sans la moindre exception, à tout jamais.

Toutefois, ces protections juridiques sont précaires : comme nous l’ont montré les récents événements, ils peuvent être abrogés (comme dans la loi dite FISA Amendments Act), suspendus ou ignorés.

Pendant ce temps, les démagogues fourniront les excuses habituelles pour justifier une surveillance totale ; toute attaque terroriste, y compris une attaque faisant un nombre réduit de victimes, leur donnera cette opportunité.

Si la limitation de l’accès aux données est écartée, ce sera comme si elle n’avait jamais existé. Des dossiers remontant à des années seront du jour au lendemain exposés aux abus de l’État et de ses agents et, s’ils ont été rassemblés par des entreprises, seront également exposés aux magouilles privées de ces dernières. Si par contre nous arrêtions de ficher tout le monde, ces dossiers n’existeraient pas et il n’y aurait pas moyen de les analyser de manière rétroactive. Tout nouveau régime non libéral aurait à mettre en place de nouvelles méthodes de surveillance, et recueillerait des données à partir de ce moment-là seulement. Quant à suspendre cette loi ou ne pas l’appliquer momentanément, cela n’aurait presque aucun sens.

En premier lieu, ne soyez pas imprudent

Pour conserver une vie privée, il ne faut pas la jeter aux orties : le premier concerné par la protection de votre vie privée, c’est vous. Évitez de vous identifier sur les sites web, contactez-les avec Tor, et utilisez des navigateurs qui bloquent les stratagèmes dont ils se servent pour suivre les visiteurs à la trace. Utilisez GPG (le gardien de la vie privée) pour chiffrer le contenu de vos courriels. Payez en liquide.

Gardez vos données personnelles ; ne les stockez pas sur le serveur « si pratique » d’une entreprise. Il n’y a pas de risque, cependant, à confier la sauvegarde de vos données à un service commercial, pourvu qu’avant de les envoyer au serveur vous les chiffriez avec un logiciel libre sur votre propre ordinateur (y compris les noms de fichiers).

Par souci de votre vie privée, vous devez éviter les logiciels non libres car ils donnent à d’autres la maîtrise de votre informatique, et que par conséquent ils vous espionnent probablement. N’utilisez pas de service se substituant au logiciel : outre que cela donne à d’autres la maîtrise de votre informatique, cela vous oblige à fournir toutes les données pertinentes au serveur.

Protégez aussi la vie privée de vos amis et connaissances. Ne divulguez pas leurs informations personnelles, sauf la manière de les contacter, et ne donnez jamais à aucun site l’ensemble de votre répertoire téléphonique ou des adresses de courriel de vos correspondants. Ne dites rien sur vos amis à une société comme Facebook qu’ils ne souhaiteraient pas voir publier dans le journal. Mieux, n’utilisez pas du tout Facebook. Rejetez les systèmes de communication qui obligent les utilisateurs à donner leur vrai nom, même si vous êtes disposé à donner le vôtre, car cela pousserait d’autres personnes à abandonner leurs droits à une vie privée.

La protection individuelle est essentielle, mais les mesures de protection individuelle les plus rigoureuses sont encore insuffisantes pour protéger votre vie privée sur des systèmes, ou contre des systèmes, qui ne vous appartiennent pas. Lors de nos communications avec d’autres ou de nos déplacements à travers la ville, notre vie privée dépend des pratiques de la société. Nous pouvons éviter certains des systèmes qui surveillent nos communications et nos mouvements, mais pas tous. Il est évident que la meilleure solution est d’obliger ces systèmes à cesser de surveiller les gens qui sont pas légitimement suspects.

Nous devons intégrer à chaque système le respect de la vie privée

Si nous ne voulons pas d’une société de surveillance totale, nous devons envisager la surveillance comme une sorte de pollution de la société et limiter l’impact de chaque nouveau système numérique sur la surveillance, de la même manière que nous limitons l’impact des objets manufacturés sur l’environnement.

Par exemple, les compteurs électriques « intelligents » sont paramétrés pour envoyer régulièrement aux distributeurs d’énergie des données concernant la consommation de chaque client, ainsi qu’une comparaison avec la consommation de l’ensemble des usagers. Cette implémentation repose sur une surveillance généralisée mais ce n’est nullement nécessaire. Un fournisseur d’énergie pourrait aisément calculer la consommation moyenne d’un quartier résidentiel en divisant la consommation totale par le nombre d’abonnés, et l’envoyer sur les compteurs. Chaque client pourrait ainsi comparer sa consommation avec la consommation moyenne de ses voisins au cours de la période de son choix. Mêmes avantages, sans la surveillance !

Il nous faut intégrer le respect de la vie privée à tous nos systèmes numériques, dès leur conception.

Remède à la collecte de données : les garder dispersées

Pour rendre la surveillance possible sans porter atteinte à la vie privée, l’un des moyens est de conserver les données de manière dispersée et d’en rendre la consultation malaisée. Les caméras de sécurité d’antan n’étaient pas une menace pour la vie privée. Les enregistrements étaient conservés sur place, et cela pendant quelques semaines tout au plus. Leur consultation ne se faisait pas à grande échelle du fait de la difficulté d’y avoir accès. On les consultait uniquement sur les lieux où un délit avait été signalé. Il aurait été impossible de rassembler physiquement des millions de bandes par jour, puis de les visionner ou de les copier.

Aujourd’hui, les caméras de sécurité se sont transformées en caméras de surveillance ; elles sont reliées à Internet et leurs enregistrements peuvent être regroupés dans un centre de données [data center] et conservés ad vitam aeternam. C’est déjà dangereux, mais le pire est à venir. Avec les progrès de la reconnaissance faciale, le jour n’est peut-être pas loin où les journalistes « suspects » pourront être pistés sans interruption dans la rue afin de surveiller qui sont leurs interlocuteurs.

Les caméras et appareils photo connectés à Internet sont souvent eux-mêmes mal protégés, de sorte que n’importe qui pourrait regarder ce qu’ils voient par leur objectif. Pour rétablir le respect de la vie privée, nous devons interdire l’emploi d’appareils photo connectés dans les lieux ouverts au public, sauf lorsque ce sont les gens qui les transportent. Tout le monde doit avoir le droit de mettre en ligne des photos et des enregistrements vidéo une fois de temps en temps, mais on doit limiter l’accumulation systématique de ces données.

Remède à la surveillance du commerce sur Internet

La collecte de données provient essentiellement des activités numériques personnelles des gens. D’ordinaire, ces sont d’abord les entreprises qui recueillent ces données. Mais lorsqu’il est question de menaces pour la vie privée et la démocratie, que la surveillance soit exercée directement par l’État ou déléguée à une entreprise est indifférent, car les données rassemblées par les entreprises sont systématiquement mises à la disposition de l’État.

Depuis PRISM, la NSA a un accès direct aux bases de données de nombreuses grandes sociétés d’Internet. AT&T conserve tous les relevés téléphoniques depuis 1987 et les met à la disposition de la DEA sur demande, pour ses recherches. Aux États-Unis, l’État fédéral ne possède pas ces données au sens strict, mais en pratique c’est tout comme.

Mettre le journalisme et la démocratie en sécurité exige, par conséquent, une réduction de la collecte des données privées, par toute organisation quelle qu’elle soit et pas uniquement par l’État. Nous devons repenser entièrement les systèmes numériques, de telle manière qu’ils n’accumulent pas de données sur leurs utilisateurs. S’ils ont besoin de détenir des données numériques sur nos transactions, ils ne doivent être autorisés à les garder que pour une période dépassant de peu le strict minimum nécessaire au traitement de ces transactions.

Une des raisons du niveau actuel de surveillance sur Internet est que le financement des sites repose sur la publicité ciblée, par le biais du pistage des actions et des choix de l’utilisateur. C’est ainsi que d’une pratique simplement gênante, la publicité que nous pouvons apprendre à éviter, nous basculons, en connaissance de cause ou non, dans un système de surveillance qui nous fait du tort. Les achats sur Internet se doublent toujours d’un pistage des utilisateurs. Et nous savons tous que les « politiques relatives à la vie privée » sont davantage un prétexte pour violer celle-ci qu’un engagement à la respecter.

Nous pourrions remédier à ces deux problèmes en adoptant un système de paiement anonyme – anonyme pour l’émetteur du paiement, s’entend (permettre au bénéficiaire d’échapper à l’impôt n’est pas notre objectif). Bitcoin n’est pas anonyme, bien que des efforts soient faits pour développer des moyens de payer anonymement avec des bitcoins. Cependant, la technologie de la monnaie électronique remonte aux années 80 ; tout ce dont nous avons besoin, ce sont d’accords adaptés pour la marche des affaires et que l’État n’y fasse pas obstruction.

Le recueil de données personnelles par les sites comporte un autre danger, celui que des « casseurs de sécurité » s’introduisent, prennent les données et les utilisent à de mauvaises fins, y compris celles qui concernent les cartes de crédit. Un système de paiement anonyme éliminerait ce danger : une faille de sécurité du site ne peut pas vous nuire si le site ne sait rien de vous.

Remède à la surveillance des déplacements

Nous devons convertir la collecte numérique de péage en paiement anonyme (par l’utilisation de monnaie électronique, par exemple). Les système de reconnaissance de plaques minéralogiques reconnaissent toutes les plaques, et les données peuvent être gardées indéfiniment ; la loi doit exiger que seules les plaques qui sont sur une liste de véhicules recherchés par la justice soient identifiées et enregistrées. Une solution alternative moins sûre serait d’enregistrer tous les véhicules localement mais seulement pendant quelques jours, et de ne pas rendre les données disponibles sur Internet ; l’accès aux données doit être limité à la recherche d’une série de plaques minéralogiques faisant l’objet d’une décision de justice.

The U.S. “no-fly” list must be abolished because it is punishment without trial.

Il est acceptable d’établir une liste de personnes pour qui la fouille corporelle et celle des bagages seront particulièrement minutieuses, et l’on peut traiter les passagers anonymes des vols intérieurs comme s’ils étaient sur cette liste. Il est acceptable également d’interdire aux personnes n’ayant pas la citoyenneté américaine d’embarquer sur des vols à destination des États-Unis si elles n’ont pas la permission d’y rentrer. Cela devrait suffire à toutes les fins légitimes.

Beaucoup de systèmes de transport en commun utilisent un genre de carte intelligente ou de puce RFID pour les paiements. Ces systèmes amassent des données personnelles : si une seule fois vous faites l’erreur de payer autrement qu’en liquide, ils associent définitivement la carte avec votre nom. De plus, ils enregistrent tous les voyages associés avec chaque carte. L’un dans l’autre, cela équivaut à un système de surveillance à grande échelle. Il faut diminuer cette collecte de données.

Les services de navigation font de la surveillance : l’ordinateur de l’utilisateur renseigne le service cartographique sur la localisation de l’utilisateur et l’endroit où il veut aller ; ensuite le serveur détermine l’itinéraire et le renvoie à l’ordinateur, qui l’affiche. Il est probable qu’actuellement le serveur enregistre les données de localisation puisque rien n’est prévu pour l’en empêcher. Cette surveillance n’est pas nécessaire en soi, et une refonte complète du système pourrait l’éviter : des logiciels libres installés côté utilisateur pourraient télécharger les données cartographiques des régions concernées (si elles ne l’ont pas déjà été), calculer l’itinéraire et l’afficher, sans jamais dire à qui que ce soit l’endroit où l’utilisateur veut aller.

Les systèmes de location de vélos et autres peuvent être conçus pour que l’identité du client ne soit connue que de la station de location. Au moment de la location, celle-ci informera toutes les stations du réseau qu’un vélo donné est « sorti » ; de cette façon, quand l’utilisateur le rendra, généralement à une station différente, cette station-là saura où et quand il a été loué. Elle informera à son tour toutes les stations du fait que ce vélo a été rendu, et va calculer en même temps la facture de l’utilisateur et l’envoyer au siège social après une attente arbitraire de plusieurs minutes, en faisant un détour par plusieurs stations. Ainsi le siège social ne pourra pas savoir précisément de quelle station la facture provient. Ceci fait, la station de retour effacera toutes les données de la transaction. Si le vélo restait « sorti » trop longtemps, la station d’origine pourrait en informer le siège social et, dans ce cas, lui envoyer immédiatement l’identité du client.

Remède aux dossiers sur les communications

Les fournisseurs de services Internet et les compagnies de téléphone enregistrent une masse de données sur les contacts de leurs utilisateurs (navigation, appels téléphoniques, etc.) Dans le cas du téléphone mobile, ils enregistrent en outre la position géographique de l’utilisateur. Ces données sont conservées sur de longues périodes : plus de trente ans dans le cas d’AT&T. Bientôt, ils enregistreront même les mouvements corporels de l’utilisateur. Et il s’avère que la NSA collecte les coordonnées géographiques des téléphones mobiles, en masse.

Les communications non surveillées sont impossibles là où le système crée de tels dossiers. Leur création doit donc être illégale, ainsi que leur archivage. Il ne faut pas que les fournisseurs de services Internet et les compagnies de téléphone soient autorisés à garder cette information très longtemps, sauf décision judiciaire leur enjoignant de surveiller une personne ou un groupe en particulier.

Cette solution n’est pas entièrement satisfaisante, car cela n’empêchera pas concrètement le gouvernement de collecter toute l’information à la source – ce que fait le gouvernement américain avec certaines compagnies de téléphone, voire avec toutes. Il nous faudrait faire confiance à l’interdiction par la loi. Cependant, ce serait déjà mieux que la situation actuelle où la loi applicable (le PATRIOT Act) n’interdit pas clairement cette pratique. De plus, si un jour le gouvernement recommençait effectivement à faire cette sorte de surveillance, il n’obtiendrait pas les données sur les appels téléphoniques passés avant cette date.

Pour garder confidentielle l’identité des personnes avec qui vous échangez par courriel, une solution simple mais partielle est d’utiliser un service situé dans un pays qui ne risquera jamais de coopérer avec votre gouvernement, et qui chiffre ses communications avec les autres services de courriels. Toutefois, Ladar Levison (propriétaire du service de courriel Lavabit que la surveillance américaine a cherché à corrompre complètement) a une idée plus sophistiquée : établir un système de chiffrement par lequel votre service de courriel saurait seulement que vous avez envoyé un message à un utilisateur de mon service de courriel, et mon service de courriel saurait seulement que j’ai reçu un message d’un utilisateur de votre service de courriel, mais il serait difficile de déterminer que c’était moi le destinataire.

Mais un minimum de surveillance est nécessaire.

Pour que l’État puisse identifier les auteurs de crimes ou délits, il doit avoir la capacité d’enquêter sur un délit déterminé, commis ou en préparation, sur ordonnance du tribunal. À l’ère d’Internet, il est naturel d’étendre la possibilité d’écoute des conversations téléphoniques aux connexions Internet. On peut, certes, facilement abuser de cette possibilité pour des raisons politiques, mais elle n’en est pas moins nécessaire. Fort heureusement, elle ne permettrait pas d’identifier les lanceurs d’alerte après les faits, si (comme je le recommande) nous empêchons les systèmes numériques d’accumuler d’énormes dossiers avant les faits.

Les personnes ayant des pouvoirs particuliers accordés par l’État, comme les policiers, abandonnent leur droit à la vie privée et doivent être surveillés (en fait, les policiers américains utilisent dans leur propre jargon le terme testilying4 au lieu de perjury5 puisqu’ils le font si souvent, en particulier dans le cadre de la comparution de manifestants et de photographes). Une ville de Californie qui a imposé à la police le port permanent d’une caméra a vu l’usage de la force diminuer de près de 60 %. L’ACLU y est favorable.

Les entreprises ne sont pas des personnes et ne peuvent se prévaloir des droits de l’homme. Il est légitime d’exiger d’elles qu’elles rendent public le détail des opérations susceptibles de présenter un risque chimique, biologique, nucléaire, financier, informatique (par exemple les DRM) ou politique (par exemple le lobbyisme) pour la société, à un niveau suffisant pour assurer le bien-être public. Le danger de ces opérations (pensez à BP et à la marée noire dans le Golfe du Mexique, à la fusion du cœur des réacteurs nucléaires de Fukushima ou à la crise financière de 2008) dépasse de loin celui du terrorisme.

Cependant, le journalisme doit être protégé contre la surveillance, même s’il est réalisé dans un cadre commercial.


La technologie numérique a entraîné un accroissement énorme du niveau de surveillance de nos déplacements, de nos actions et de nos communications. Ce niveau est bien supérieur à ce que nous avons connu dans les années 90, bien supérieur à ce qu’ont connu les gens habitant derrière le rideau de fer dans les années 80, et il resterait encore bien supérieur si l’utilisation de ces masses de données par l’État était mieux encadrée par la loi.

A moins de croire que nos pays libres ont jusqu’à présent souffert d’un grave déficit de surveillance, et qu’il leur faut être sous surveillance plus que ne le furent jadis l’Union soviétique et l’Allemagne de l’Est, ils nous faut inverser cette progression. Cela requiert de mettre fin à l’accumulation en masse de données sur la population.

Notes :


Notes de traduction

  1. Allusion probable à la Constitution de 1787, symbole de la démocratie américaine, qui débute par ces mots : We, the people of the United States (Nous, le peuple des États-Unis). ?
  2. Union américaine pour les libertés civiles. ?
  3. Loi sur la surveillance du renseignement étranger ; elle a mis en place une juridiction spéciale, la FISC, chargée de juger les présumés agents de renseignement étrangers sur le sol américain. ?
  4. Testilying : contraction de testify, faire une déposition devant un tribunal, et lying, acte de mentir. ?
  5. Perjury : faux témoignage. ?