La NSA et la surveillance sur Internet pour les nuls

« Ces révélations ont changé notre Internet à jamais. La vie privée a-t-elle seulement un avenir ? »

L’excellent journal The Guardian, très actif dans l’affaire Snowden, a récemment mis en ligne une vidéo simple et percutante sur la NSA et la problématique de la surveillance en ligne.

Nous vous en proposons sa transcription traduite ainsi que le fichier .SRT de sous-titrage en français disponible ci-dessous (merci Cartido)

Une vidéo à voir et à faire voir tant elle fait peur et démontre que nous avons changé de paradigme dans une indifférence presque générale.

—> La vidéo au format webm
—> Le fichier de sous-titres

La NSA et la surveillance… rendu facilement compréhensible pour tous

URL d’origine du document

Scott Cawley, Jemima Kiss, Paul Boyd et James Ball – 26 novembre 2013 – The Guardian
(Traduction : Goofy, Mounoux, T, Paul + anonymes)

Maintenant que nous sommes presque tous en ligne, et connectés d’une façon ou d’une autre, les espions ne ciblent plus une ou deux personnes mal intentionnées. Au lieu de cela, les gouvernements du Royaume-Uni et des États-Unis pratiquent tous deux une collecte massive d’informations sur ce que nous faisons avec nos téléphones et sur Internet.

Comment font-ils ?

Deux grandes méthodes sont utilisées pour récupérer ces informations.

La première, c’est de travailler avec les entreprises qui font fonctionner les réseaux et « d’écouter » les câbles qui sont essentiels pour faire circuler toute cette information. Ils s’installent au beau milieu de l’énorme flux de données, moissonnent tout ce qui circule puis le stockent dans d’immenses bases de données.

La deuxième technique implique d’utiliser leurs relations privilégiées avec les entreprises high-tech (Google, Facebook, Microsoft…) pour s’emparer de nos informations comme les courriers électroniques en les captant directement sur les services basés aux USA.

Que font-il avec ?

Les agences d’espionnage jettent la plupart des contenus qu’ils collectent. Ils les gardent sur leur système pendant trois jours environ et rejettent tout ce qui ne provient pas d’une de leurs cibles.

Il en va autrement pour les métadonnées. Qui a envoyé un message ? pour qui ? quand ? bien d’autres détails encore. Les services secrets conservent presque toutes les métadonnées collectées pendant environ un mois au Royaume-Uni et jusqu’à un an aux États-Unis. Cela leur permet de créer les profils de millions de gens. Qui parle à qui ? qui connaît qui ? et, si nécessaire, où sont localisés les gens ?

Ces révélations soulèvent un certain nombre de questions.

Où se situe la frontière entre notre droit à la vie privée et le devoir des autorités de nous protéger ? Les gouvernements en Amérique du Nord et au Royaume-Uni prétendent que ces programmes de surveillance aident à nous prémunir du terrorisme.

Mais que se passerait-il si vous étiez injustement accusé ? Et doit-on accepter le fait que désormais Internet est un endroit bien différent de ce qu’il a été, dirigé par des entreprises et des gouvernements qui peuvent le surveiller quand et comme ils le veulent ?

Maintenant que vous savez que vous êtes surveillé, votre comportement va-t-il changer ? Comment allez-vous parler à vos amis et jusqu’à quel point allez-vous faire confiance au monde qui vous entoure ?

Ces révélations ont changé notre Internet à jamais. La vie privée a-t-elle seulement un avenir ?




The Open Access Button : cartographions les entraves au Libre Accès

Il est souvent question de libre accès sur le Framablog. Par exemple avec ce manifeste du regretté Aaron Swartz ou cette limpide explication vidéo de Jean-Claude Guédon.

Avec Internet et la numérisation, il est désormais possible de consulter l’ensemble des ressources scientifiques et académiques. En théorie oui mais il peut en aller tout autrement dans la pratique, ce qui n’est pas sans poser de nombreux problèmes. Deux étudiants proposent ici de signaler tout péage rencontré pour accéder à ces ressources et de le mentionner sur un site commun.

On notera au passage que c’est OpenStreetMap qui fournit la carte.

Open Access Button

Des étudiants lancent le « Bouton » pour mettre en lumière l’accès refusé aux articles scientifiques

Students Launch “Button” to Put Denied Access to Research on the Map

18 novembre 2013 – Open Acess Button
(Traduction : Penguin, Gilles, r0u, sinma, Paul)


Traquer et cartographier l’impact des péages, un clic à la fois.


Aujourd’hui, lors d’un congrès international d’étudiants défendant un accès plus important aux publications universitaires, deux étudiants anglais de premier cycle ont annoncé le lancement fortement attendu du bouton Open Access (NdT : Accès libre), un outil adossé au navigateur qui permet de cartographier l’épidémie de refus d’accès aux articles de la recherche universitaire et qui aide les utilisateurs à trouver les recherches dont ils ont besoin.


Les étudiants David Carroll et Joseph McArthur ont créé le bouton Open Access en réaction au sentiment de frustration que leur causait l’impossibilité d’accéder aux travaux de la recherche universitaire.


« J’ai réalisé qu’il y avait un problème à force de continuellement me heurter à des obstacles pour accéder à des articles pertinents pour mes recherches », explique Carroll, étudiant en médecine à l’université Queen’s de Belfast. « Mon université peut s’offrir un abonnement à de nombreuses publications et, pourtant, je ne peux pas accéder à tout ce dont j’ai besoin. Cela m’a amené à me demander combien d’autres que moi rencontraient le même problème et comment cela affectait les gens partout dans le monde ».


Chaque jour, des personnes essaient d’accéder à des articles de la recherche universitaire – des médecins cherchant de nouveaux traitements, des scientifiques travaillant à la mise au point de nouvelles technologies, des étudiants essayant de parfaire leur formation. Or au lieu d’avoir immédiatement accès aux informations essentielles qu’ils cherchent, ces personnes se retrouvent trop souvent confrontées à un système de péage qui subordonne leur accès à l’information leur demandant un paiement en échange de l’accès, parfois jusqu’à 40$ par article. Ces péages existent parce qu’une grande partie des ressources académiques est publiée dans des journaux onéreux, basés sur des abonnements dont les augmentations de prix ont largement dépassé l’inflation depuis plusieurs décennies.


« Vu la capacité actuelle de partager la connaissance sur le Web, il est absurde que la majorité de la population dans le monde se voit barrer l’accès à de si nombreux travaux » indique McArthur, étudiant en pharmacologie au University College de Londres. « Jusqu’à maintenant, ce déni d’accès était invisible car chacun le vivait de son côté. Nous avons créé le bouton Open Access pour rassembler toutes ces expériences séparées et mettre en lumière l’ampleur mondiale du problème ».

Open Access Button


Le bouton Open Access est un outil adossé au navigateur qui permet aux utilisateurs de garder la trace d’un refus d’accès à une publication, puis de chercher des moyens alternatifs d’accéder à ladite publication. Chaque fois qu’un utilisateur se heurte à un péage, il clique simplement sur le bouton dans sa barre de favoris, remplit ,s’il le souhaite, une boîte de dialogue optionnelle, et son expérience vient s’ajouter à celle des autres utilisateurs sur une carte. Il reçoit ensuite un lien pour rechercher un accès libre et gratuit à l’article en utilisant par exemple des ressources comme Google Scholar. L’initiative Open Access Button espère créer une carte mondiale montrant l’impact du refus d’accès aux publications scientifiques.


Le bouton Open Access tire son nom du mouvement mondial pour le libre accès (NdT : Open Access en anglais) : la disponibilité gratuite et immédiate en ligne d’articles de recherche, accompagnés du droit intégral d’utilisation de ces articles dans l’espace numérique.


« Le mouvement pour l’Open Access est une solution puissante contre les barrières auxquelles se heurtent les chercheurs des pays en développement ou en phase de transition économique dans leurs tentatives d’accéder et de partager des recherches cruciales pour l’amélioration de la vie », déclare Iryna Kuchma, responsable du programme Open Acces à l’EIFL (Electronic Information for Libraries ou Information électronique pour bibliothèques), une organisation qui travaille avec des bibliothèques à travers le monde pour permettre l’accès des populations des pays en voie de développement ou en phase de transition économique aux informations numériques. « L’accès aux dernières publications scientifiques ne doit pas être confiné à la sphère universitaire, mais ouvert à tout personne intéressée : médecins et patients, agriculteurs* et entrepreneurs, formateurs et étudiants ».


Pour Jack Andraka, étudiant américain de 16 ans, récompensé par l’Intel Science Fair pour avoir inventé un test révolutionnaire de diagnostic du cancer du pancréas, « Le bouton Open Access aide à démocratiser la connaissance ». Andraka a raconté comment il s’était lui-même heurté aux les refus d’accès aux publications scientifiques quand il développait son test. « La connaissance ne doit pas être une marchandise. Elle doit être librement accessible pour permettre aux patients et familles d’être pleinement parties prenantes. »


David Carroll et Joseph McArthur ont annoncé le lancement du bouton Open Access aujourd’hui devant un parterre de plus de 80 personnes réunies à l’occasion de la Berlin 11 Student and Early Stage Researcher Satellite Conference, une rencontre internationale pour les étudiants intéressés par la promotion de l’Open Access. Cette rencontre précède la conférence Open Access de Berlin, une convention de leaders d’opinion à travers le monde sur la question de l’Open Access, qui a débuté mardi.

« Ne perdons jamais de vue que nous tenons trop souvent pour immuable ce qui n’est qu’un état de fait, mais les développeurs du bouton Open Access nous rappellent qu’en tant qu’individus, nous avons réellement le pouvoir de changer les choses », déclare Heither Joseph, directeur exécutif de la coalition SPARC (Scholarly Publishing and Academic Resources Coalition), un regroupement international de bibliothèques universitaires et de recherche) et leader de renommée internationale au sein du mouvement Open Access. « C’est une idée simple, mais incroyablement créative, qui devrait nous aider à montrer combien l’accès libre répond à un véritable besoin ».

Plus d’informations à propos du bouton Open Access ainsi que des instructions pour son installation sont disponibles sur le site www.OpenAccessButton.org.


Suivez la conversation sur Twitter à @OA_Button avec le hashtag #aobuttonlaunch.




Pourquoi Microsoft Word doit-il mourir ?

Cet article est le fruit d’une traduction collaborative menée via la liste linuxedu sur un framapad.

Le titre original est : « Why Microsoft Word must Die? ». Son auteur Charles Stross est un écrivain britannique de science fiction. Très connu dans le milieu de la science fiction et du fantasy, il a obtenu plusieurs prix dont le prix Hugo.

Avant de pouvoir traduire son texte, nous lui avons demandé son autorisation ainsi que la licence qu’il souhaitait poser. Le texte suivant est donc en CC-By-Nc-Sa. Un grand merci à lui pour sa réactivité et surtout cet article très intéressant.

En tant qu’enseignants, nous ne pouvons que recommander cette lecture. On entend parfois comme argument que le système éducatif doit former à Word car c’est ce qui est présent dans le monde professionnel. Ceci est une véritable insulte à nos missions. Cela signifie que la qualité de notre enseignement est pauvre au point que nos élèves soient incapables de s’adapter à divers contextes logiciels ! Notre rôle est de les former à une classe de logiciel pas à un « outil » particulier aussi bon ou aussi mauvais soit-il. Vu les programmes actuels, peu d’élèves sortent en sachant utiliser correctement un traitement de texte. Le paradigme de la machine à écrire améliorée perdure.

Microsoft Word

Pourquoi Microsoft Word doit mourir ?

Je hais Microsoft Word. Je veux la mort de Microsoft Word. Je hais Microsoft Word avec une passion ardente et enflammée. Je hais Microsoft Word à la manière dont Winston Smith haïssait Big Brother. Et, de manière alarmante, nos raisons ne sont pas si différentes…

Microsoft Word est un tyran pour l’imagination, un dictateur mesquin, sans imagination et inconséquent qui est mal adapté à une quelconque utilisation créative par un écrivain. Pire : Il est en situation de quasi-monopole, dominant l’univers des traitements de texte. Son statut quasi monopolistique envahissant a fait un lavage de cerveaux aux développeurs de logiciels, à un point tel que peu d’entre eux peuvent imaginer un traitement de texte comme autre chose qu’une pâle copie du Monstre de Redmond. Mais qu’est-ce qui ne va pas exactement ?

J’utilise des traitements de texte et des éditeurs de texte depuis environ 30 ans. Il y eut une époque, avant la domination de Microsoft Word, où plusieurs paradigmes radicalement différents pour la préparation et le formatage de texte étaient en compétition dans un marché ouvert des idées. L’une des premières combinaisons, particulièrement efficace, était l’idée d’avoir un fichier texte, contenant des commandes imbriquées ou des macros, qui pouvait être édité avec un éditeur de texte pour les programmeurs (comme ed ou teco, ou plus tard vi ou emacs) puis alimenter divers outils : vérificateurs d’orthographe, correcteurs de grammaire, et des outils de mise en page tels que scribe, troff ou latex qui produisaient une image binaire de la page pouvant être envoyée à une imprimante.

Ces outils étaient rapides, puissants, élégants et extrêmement exigeants vis-à-vis de l’utilisateur. Quand les premiers ordinateurs personnels 8 bits apparurent (pour l’essentiel, l’Apple II et l’écosystème concurrent CP/M), les programmeurs tentèrent de développer un outil hybride, appelé traitement de texte : l’édition se faisait à l’écran et masquait à l’auteur les commandes compliquées et rébarbatives destinées à l’imprimante, en les remplaçant par une mise en surbrillance et en ne les affichant que lorsque que l’auteur demandait au logiciel de « montrer le code ».

Des logiciels comme WordStar ont ouvert la voie, jusqu’à ce que WordPerfect prenne le marché au début des années 1980 en introduisant la possibilité d’éditer simultanément deux fichiers ou plus, en scindant l’affichage à l’écran.

Puis, vers la fin des années soixante-dix et le début des années quatre-vingts, des groupes de recherche au MIT (l’Institut Universitaire de Technologie du Massachusetts à Boston) et au centre de recherche de Xerox à Palo Alto en Californie ont commencé à développer des outils qui ont étoffé l’interface graphique de l’utilisateur des stations de travail comme le Xerox Star et, plus tard, l’ordinateur Lisa et Macintosh – et finalement l’imitateur nouveau venu Microsoft Windows. Une guerre éclata puis fit rage entre deux factions.

Une faction voulait prendre le modèle classique des codes imbriqués dans un ficher, et l’améliorer pour un affichage graphique : l’utilisateur sélectionnait une section de texte, le marquait « italique » ou « gras », et le traitement de texte injectait le code associé dans le fichier puis, au moment d’imprimer, modifiait le rendu graphique envoyé à l’imprimante à cette phase-là du processus.

Mais un autre groupe voulait utiliser un modèle beaucoup plus puissant : les feuilles de style hiérarchiques. Dans un système à feuilles de style, les unités de texte — mots ou paragraphes — sont étiquetées avec un nom de style regroupant un ensemble d’attributs qui sont appliqués à ce morceau de texte lors de l’impression.

Microsoft était au début des années 80 une entreprise de développement logiciel, surtout connue pour son interpréteur BASIC et le système d’exploitation MS-DOS. Steve Jobs approcha Bill Gates en 1984 pour écrire des applications pour le nouveau système Macintosh, et il accepta.

L’un de ses premiers travaux fut d’organiser le premier véritable traitement de texte WYSIWYG pour un ordinateur personnel – Microsoft Word pour Macintosh. La controverse faisait rage en interne : devait-on utiliser les codes de contrôle ou bien les feuilles de style hiérarchiques ?

Finalement, le verdict tomba : Word devrait mettre en œuvre les deux paradigmes de formatage. Bien qu’ils soient fondamentalement incompatibles et qu’on puisse tomber dans une confusion horrible en appliquant un simple formatage de caractères à un document à base de feuille de style, ou vice versa. Word souffrait en réalité d’un vice de conception, dès le début – et cela n’a fait qu’empirer depuis.

Entre la fin des années 80 et le début des années 90, Microsoft est devenu un mastodonte en situation de quasi-monopole dans le monde du logiciel. L’une de ses tactiques est devenue bien connue (et redoutée) dans l’industrie : adopter et étendre (NdT: il y a l’idée du « baiser de la mort » : étreindre pour mieux étouffer).

Confronté à un nouveau type de logiciel à succès, Microsoft rachètait l’une des entreprises à la pointe du secteur et déversait alors des moyens pour intégrer le produit à son propre écosystème Microsoft, si nécessaire en abaissant ses prix pour éjecter ses concurrents du marché. La croissance de Microsoft Word s’est faite par l’acquisition de nouveaux modules : publipostage, correcteurs orthographiques et grammaticaux, outils de chapitrage et d’index.

Toutes ces entreprises étaient des sociétés artisanales dynamiques, formant une communauté prospère d’éditeurs de produits concurrents qui tous luttaient pour produire de meilleurs logiciels qui leur permettaient de cibler leurs parts de marché. Mais Microsoft s’est infiltré dans chaque secteur et a intégré un par un les concurrents à Word, tuant de fait la concurrence et étouffant l’innovation. Microsoft a tué les outils d’index et de chapitrage sur Windows, a stoppé net le développement du correcteur grammatical, a étouffé celui des correcteurs orthographiques. Il existe un cimetière entier d’écosystèmes jadis prometteurs, et il s’appelle Microsoft Word.

Alors que le logiciel se développait, Microsoft déploya sa tactique « Adopte étend et étouffe » en vue de rendre les mises à jours incontournables, rendant ainsi les utilisateurs de Word captifs, par le biais de mutations constantes du format de fichier utilisé. Les premières versions de Word étaient interopérables avec ses rivaux comme Word Perfect, elles pouvaient importer et exporter dans les formats de fichier des autres logiciels. Mais au fur et à mesure que la domination de Word devenait établie, Microsoft a à plusieurs reprises modifié son format de fichier – avec Word 95, Word 97, en 2000, encore en 2003 et plus récemment encore.

Chaque nouvelle version de Word utilisait par défaut un nouveau format de fichier qui n’était plus reconnu par les versions précédentes. Pour échanger des documents avec quelqu’un d’autre, vous pouviez tenter d’utiliser le format RTF — mais la plupart des utilisateurs professionnels occasionnels ne prenaient pas la peine de regarder les différents formats du menu « Enregistrer sous… », et donc si vous deviez travailler avec d’autres, vous vous trouviez dans l’obligation de payer régulièrement la dime Microsoft même si aucune nouvelle fonctionnalité ne vous était utile.

Le format de fichier .doc a lui aussi été délibérément rendu opaque : au lieu d’un document interprétable contenant des métadonnées de formatage ou de macros, c’est en fait l’image mémoire des structures de données logicielles qu’utilise Word, avec les adresses pointant sur les sous-routines qui fournissent les données de formatage ou celles des macros. Et la « sauvegarde rapide » aggrava encore la situation en ajoutant un journal des différents changements à l’image mémoire du programme.

Pour analyser un fichier .doc vous devez virtuellement réécrire un mini Microsoft Word. Ce n’est pas un format de fichier contenant des données : c’est un cauchemar ! Au 21e siècle, ils ont essayé d’améliorer le tableau en le remplaçant par un schéma XML… mais ils n’ont réussi qu’à ajouter à la confusion en utilisant des balises XML qui se réfèrent à des points d’entrée de fonctions dans le code de Word, au lieu de décrire la structure sémantique réelle du document. Difficile d’imaginer qu’une multinationale telle que Microsoft, aussi importante et (habituellement) gérée avec compétence puisse commettre accidentellement une telle erreur…

Cette obsolescence programmée n’a pas d’importance pour la plupart des entreprises, dans lesquelles la durée moyenne de vie d’un document est inférieure à six mois. Mais d’autres domaines réclament la conservation des documents. En droit, en médecine ou encore en littérature, la durée de vie d’un fichier se compte en décennies si ce n’est en siècles. Les pratiques commerciales de Microsoft vont à l’encontre des intérêts de ces utilisateurs.

D’ailleurs Microsoft Word n’est même pas facile à utiliser. Son interface alambiquée, baroque, rend difficile ce qui est simple et quasi impossible ce qui est difficile. Ceci garantit la sécurité de l’emploi pour le gourou, mais pas la transparence pour l’utilisateur éclairé et intuitif qui souhaiterait simplement se concentrer sur son travail et pas sur l’outil avec lequel la tâche doit être accomplie. Word impose à l’auteur sa propre conception de la façon dont un document doit être structuré, une structure bien plus adaptée aux lettres commerciales et aux bilans (tâches pour lesquelles il est utilisé par la majorité de ses utilisateurs).

Ses outils de vérification et de suivi des modifications sont baroques, truffés d’erreurs et ne conviennent pas à un vrai travail collaboratif de conception d’un document ; ses possibilités de chapitrage et de notes sont piteusement primitives face aux besoins d’un écrivain ou d’un thésard. Quant aux recommandations à l’emporte-pièce de son correcteur grammatical, elles pourraient n’être qu’amusantes si les tournures commerciales qu’il impose, dignes d’un potache besogneux, n’étaient désormais si largement répandues.

Mais ce n’est pas pour cela que je veux la mort de Microsoft Office.

La raison pour laquelle je veux sa mort est que, tant que celle-ci ne sera pas arrivée, on ne pourra éviter Word. Je n’écris pas mes romans avec Microsoft Word. J’utilise toute une palette d’autres outils, depuis Scrivener (un logiciel conçu pour la structuration et l’édition de documents composites qui est à Word ce qu’un environnement de développement intégré est à un éditeur de texte rudimentaire) jusqu’à des éditeurs de texte classiques comme Vim. Mais d’une façon ou d’une autre, les principales maisons d’édition se sont laissé intimider et persuader que Word était l’incontournable clef-de-voûte des systèmes de production de documents.

Pire, cette prédominance nous rend aveugles aux possibilités d’amélioration de nos outils de création de documents. On nous a imposé presque 25 ans d’immobilisme, j’espère que nous trouverons bientôt quelque chose de mieux pour le remplacer.




Un livre numérique avec DRM n’est pas un livre nous dit l’Assemblée

En réalité, avec Apple ou Amazon, ce ne sont pas des livres qui sont vendus, mais des licences de lecture…

« C’est inattendu et complètement fou », s’enthousiaste à juste titre le site ActuaLitté, qui poursuit : « Durant l’examen du Projet de loi de Finance 2014, le député Éric Alauzet est venu défendre l’amendement de la députée Isabelle Attard. L’idée était simple : imposer une TVA maximale pour les vendeurs comme Apple ou Amazon, qui ne proposent que des licences d’utilisation et non la vente de fichiers en propre. »

Or, contre tout attente, c’est-à-dire ici aussi bien l’avis défavorable du rapporteur que du gouvernement, l’amendement a été adopté hier à l’Assemblée !

Vous trouverez ci-dessous toute la (savoureuse) séquence en vidéo accompagnée de sa transcription[1]. Avec notamment un Noël Mamère qui conclut ainsi son propos : « C’est aussi donc un droit à l’information, un droit à la culture et un droit à la lecture qui doit être un droit inaliénable et considéré comme un bien commun. »

La TVA réduite concerne aujourd’hui les livres papiers. Si on veut qu’il en aille de même avec les livres numériques alors il faut qu’ils soient sans DRM sinon ce ne sont plus des livres. Tel est le message important qui est passé hier à l’Assemblée. Apple et Amazon en encapsulant leurs fichiers numériques et en imposant leurs périphériques ne nous vendent pas des livres mais un service à usage restreint et durée limitée dans le temps.

Merci au groupe écologiste en tout cas pour cette véritable avancée qui pourrait bien appeler d’autres conquêtes, comme en témoigne l’échange ci-dessous que nous avons eu avec Isabelle Attard sur Twitter

131114-tweet-drm-ebook-attard.png

Remarque 1 : Rien n’est joué cependant, comme nous le rappelle l’April, la loi de finances doit désormais être examinée par le Sénat puis par la navette parlementaire avant son adoption définitive.

Remarque 2 : Isabelle Attard vient également de déposer une proposition de loi visant à consacrer, élargir et garantir le domaine public (voir aussi cette vidéo qui évoque la question spécifique des musées).

—> La vidéo au format webm
—> Le fichier de sous-titres

Transcription

Mme la présidente. La parole est à M. Éric Alauzet, pour soutenir l’amendement no 22.

M. Éric Alauzet. Alors que la vente de livres sous forme dématérialisée est en pleine croissance, deux types de produits sont disponibles. En proposant des livres en système fermé, les acteurs historiques ont trouvé le moyen de verrouiller leur clientèle : en réalité, ce ne sont pas des livres qui sont vendus, mais des licences de lecture, assorties de contraintes qui n’existent pas pour le livre de papier. Ainsi, quand vous achetez un livre numérique chez Amazon ou chez Apple, vous ne pouvez le lire que sur un appareil autorisé par cette entreprise.

Parallèlement, il existe des livres numériques en système dit ouvert, soutenus par la majorité des acteurs concernés – auteurs, éditeurs, bibliothécaires, responsables politiques –, qui revendiquent un plus grand respect des droits du lecteur, notamment en essayant de promouvoir l’interopérabilité des livres au format électronique. Le statut de ces livres est très proche de celui des livres de papier : vous pouvez les lire, les prêter, même les revendre – bref, en disposer à votre guise. De ce fait, nous considérons que, contrairement aux livres en système fermé, les livres en système ouvert ont toute légitimité pour bénéficier de la même TVA que les livres de papier, et c’est ce que nous proposons par cet amendement. Pour conclure, je souligne que, sur cette question, nous sommes observés par la Commission européenne, car il ne s’agit pas vraiment d’un livre, mais d’un service.

Mme la présidente. Quel est l’avis de la commission ?

M. Christian Eckert, rapporteur général. La commission estime qu’il s’agit là d’un sujet intéressant, mais complexe. Comme vous le savez, la France se bat pour que la TVA à taux réduit puisse s’appliquer aux livres électroniques. Or, vous proposez de faire de ce principe une exception. Je comprends votre intention, mais cela risque de fragiliser la position de la France dans les négociations en cours, où nous espérons obtenir une généralisation du taux réduit de TVA à tous les livres, quel que soit leur support. Je vous invite par conséquent à retirer votre amendement, monsieur Alauzet ; à défaut, je demanderai à notre Assemblée de le repousser.

Mme la présidente. Quel est l’avis du Gouvernement ?

M. Bernard Cazeneuve, ministre délégué. Nous nous battons, au sein de l’Union européenne, pour que l’ensemble des supports de lecture bénéficie du taux réduit de TVA. C’est l’un des éléments de notre combat en faveur de l’exception culturelle, de l’accès pour tous à la culture et du livre. Comme vient de le dire M. le rapporteur général, prendre des dispositions dérogatoires ne peut que porter atteinte à la portée de notre combat, qui n’est déjà pas si facile à mener. En adoptant un tel amendement, nous risquons d’affaiblir notre position vis-à-vis de nos interlocuteurs, et de mettre en péril notre capacité à atteindre l’objectif que nous nous sommes fixé. Je vous invite donc également à retirer cet amendement, monsieur le député.

Mme la présidente. La parole est à M. Noël Mamère.

M. Marc Le Fur. Allez-vous nous parler de la Bretagne, monsieur Mamère ?

M. Noël Mamère. Nous pourrions effectivement en parler, puisque nous parlons de livres et qu’il est de très bons auteurs bretons. Malheureusement, si ces livres sont publiés sous la licence d’Apple ou d’Amazon, nous ne pourrons pas les faire lire à nos enfants. De même, sous licence fermée, nous ne pourrons prêter aux personnes de notre entourage les excellents livres de Svetlana Alexievitch, qu’il s’agisse de La Fin de l’Homme rouge ou de La Supplication, ouvrage très instructif sur les conséquences de la catastrophe de Tchernobyl.

M. le ministre nous dit, à juste titre, qu’il ne faut pas mettre en péril les négociations en cours, dans le cadre desquelles nous cherchons à nous opposer à l’accord sur le marché transatlantique qui se dessine entre l’Union européenne et les États-Unis. Nous avons, paraît-il, sauvé l’exception culturelle. Fort bien, mais si notre amendement n’était pas adopté, nous risquerions de lui porter un coup fatal en laissant libre cours à Apple et Amazon, sinon pour exercer leur dictature – le mot est un peu fort –, du moins pour mettre à bas l’exception culturelle dans le cadre du marché transatlantique.

Bref, nous devons nous protéger, au niveau français comme au niveau européen. Tel est l’objet de notre amendement, qui vise à sauver le droit à la lecture, notamment le droit à revenir sur un livre que l’on a déjà lu. Nous sommes sans doute nombreux ici à avoir apprécié des auteurs, dans les ouvrages desquels nous souhaitons à nouveau nous plonger. Or, avec le système d’Apple et d’Amazon, ce sera impossible. En même temps que le droit à la lecture, c’est donc aussi le droit à l’information et le droit à la culture que nous défendons, car il s’agit de droits inaliénables, considérés comme des biens communs.

Mme la présidente. La parole est à M. Éric Alauzet.

M. Éric Alauzet. Je n’ai pas l’expérience de M. le ministre en ce qui concerne les négociations européennes, mais je pense que le risque qu’il évoque n’existe pas. Au contraire, si risque il y a, c’est celui lié au fait de défendre le taux réduit de TVA sur ce qui est en réalité un service, et ce qui est à craindre ensuite, c’est que le livre électronique ouvert ne suive le livre électronique vendu sous système fermé. La transparence n’est pas vraiment le maître-mot en la matière, et les personnes achetant des livres électroniques vont finir par s’apercevoir, au bout de quelques semaines ou quelques mois, que le livre en leur possession ne fonctionne plus et qu’elles n’ont en réalité acquis qu’une licence, qu’elles vont devoir racheter au même distributeur ! Il y a, je le répète, un grand risque à ne pas dissocier le livre électronique vendu sous système fermé de celui vendu sous système ouvert.

Mme la présidente. Si j’ai bien compris, vous maintenez votre amendement, monsieur Alauzet ?

M. Éric Alauzet. Je le maintiens, madame la présidente.

(L’amendement no 22 est adopté.)

Notes

[1] Source de la vidéo et du texte sur le site de l’Assemblée.




Grâce à Wikileaks on a la confirmation que l’accord TPP est pire qu’ACTA

Merci à Wikileaks d’avoir révélé hier une version de travail tenue secrète de l’accord Trans-Pacific Strategic Economic Partnership, plus connu sous l’acronyme TPP.

La France ne faisant pas partie des pays directement concernés, on n’en parle pas beaucoup dans nos médias. Mais on sait depuis longtemps que ce sont les USA qui donnent le la dans tout ce qui touche au copyright international.

Plus que donner le la, ils dictent la loi. Et celle qui se prépare ici est tout simplement scélérate…

TPP

La fuite du chapitre sur la propriété intellectuelle du Partenariat Trans-Pacifique confirme que cet accord est pire qu’ACTA

TPP IP Chapter Leaked, Confirming It’s Worse Than ACTA

Glyn Moody – 13 novembre 2013 – TechDirt.com
(Traduction : Barbidule, Penguin, Genma, MFolschette, baba, mlah, aKa, Alexis Ids, Scailyna, @paul_playe, Mooshka, Omegax)

par le service du pas-étonnant-que-le-secret-soit-si-bien-gardé

Cela fait longtemps que nous attendions une fuite majeure du Partenariat Trans-Pacifique (TPP) rédigé en secret ; grâce à Wikileaks, nous en avons enfin une (voir aussi directement le pdf). Le texte est long et lourd à lire, en partie à cause de toutes les parties entre parenthèses sur les points où les négociateurs ne se sont pas encore mis d’accord. Même si le brouillon est assez récent — il est daté du 30 août 2013 — un grand nombre de ces points y restent ouverts. Heureusement, KEI a déjà rassemblé une analyse détaillée mais facilement compréhensible, que je vous encourage vivement à lire en entier. En voici un résumé :

Le document confirme les craintes sur le fait que les différentes parties sont prêtes à étendre les limites du droit de la propriété intellectuelle, et à restreindre les droits et libertés du consommateur.

En comparaison des accords multilatéraux existants, l’accord du TPP sur la propriété intellectuelle propose l’octroi de nouveaux brevets, la création d’une propriété intellectuelle sur les données, l’extension des termes de protection pour les brevets et copyrights, l’accroissement des privilèges des ayants droit, et l’augmentation des peines pour infraction à la propriété intellectuelle. Le texte du TPP réduit le champ des exceptions pour tous les types de propriété intellectuelle. Négocié dans le secret, le texte proposé est néfaste pour l’accès au savoir, néfaste pour l’accès aux soins, et profondément néfaste pour l’innovation.

Bien que de nombreux domaines soient concernés par les propositions de la copie de travail — l’accès aux soins vitaux seraient restreints, tandis que la portée des brevets serait étendue aux méthodes chirurgicales par exemple — les effets sur le copyright sont particulièrement significatifs et troublants :

Collectivement, les dispositions du droit d’auteur (dans le TPP) sont configurées de manière à étendre les termes du droit d’auteur de la convention de Berne au-delà de la vie plus 50 ans, créant de nouveaux droits exclusifs, et fournissant bon nombre de nouvelles directives spécifiques pour gérer le copyright dans l’environnement numérique.

Voici quelques-unes des extensions de durée proposées :

Concernant les durées de copyright, le TPP définit les bases comme suit. Les États-Unis, l’Australie, le Pérou, Singapour et le Chili proposent une durée de 70 ans après la mort de l’auteur pour les personnes physiques. Pour des œuvres appartenant à une entreprise, les États-Unis proposent 95 ans de droits exclusifs, alors que l’Australie, le Pérou, Singapour et le Chili proposent 70 ans. Le Mexique veut une durée de 100 ans après la mort de l’auteur pour les personnes physiques et 75 ans après la mort de l’auteur pour des œuvres appartenant à une entreprise. Pour des travaux non publiés, les États-Unis veulent une durée de 120 ans.

Un problème plus technique concerne l’utilisation du « test en trois étapes » qui agira comme une contrainte supplémentaire sur de possibles exceptions au copyright :

Dans sa forme actuelle, l’espace des exceptions tel que défini par le TPP est moins vaste et plus restrictif que celui du traité 2012 de l’OMPI à Pékin ou celui du traité 2013 de l’OMPI à Marrakech, et bien pire que l’accord ADPIC. Bien que cela implique des problèmes légaux complexes, les ramifications politiques sont simples. Les gouvernements auraient une marge de manœuvre plus restreinte pour évaluer les exceptions dans l’éducation, dans les citations, dans les affaires publiques, dans les actualités et dans les autres exceptions « spéciales » de la Convention de Berne ? Pourquoi un gouvernement voudrait-il abandonner son autorité générale pour réfléchir à l’aménagement de nouvelles exceptions, ou pour contrôler les abus des détenteurs de droits ?

Ceci est un bon exemple de comment le TPP n’essaie pas seulement de changer le copyright en faveur de ceux qui veulent l’étendre au maximum, mais essaie aussi d’instaurer un copyright qui serait facile à renforcer à l’avenir. En voici un autre, dans lequel le TPP veut empêcher le retour à un système de copyright qui nécessite une inscription — ce genre de système ayant été proposé comme un moyen de pallier aux problèmes qui surviennent à cause de la nature automatique de l’attribution du copyright :

Le TPP va au-delà de l’accord ADPIC pour ce qui est de l’interdiction de l’instauration de formalités pour le copyright. Bien que le problème des formalités puisse sembler être un problème facile à résoudre, il y a un bon nombre de flexibilités qui seront éliminées par le TPP. À l’heure actuelle, il est possible d’avoir des exigences de formalités pour des œuvres appartenant à la sphère nationale et d’imposer des formalités à de nombreux types de droits liés, incluant ceux protégés par la Convention de Rome. Ces dernières années, les créateurs et les théoriciens de la politique du copyright ont commencé à remettre en question les bénéfices de l’enregistrement des œuvres et autres formalités, en particulier à la lumière des problèmes liés aux durées de copyright étendues sur de nombreuses oeuvres orphelines.

Comme vous pouvez vous en douter, le TPP demande à ce qu’il y ait des protections solides de type DRM ; mais ici encore, il cherche à rendre les choses pires qu’elles ne le sont déjà :

La section sur le droit d’auteur inclut également un long discours sur les mesures de protection technique, et en particulier, la création d’un motif de poursuites spécifique contre le fait de casser les mesures techniques de protection. Les USA veulent que ce motif de poursuites spécifique s’étende même aux cas où le droit d’auteur n’est pas applicable, comme par exemple les œuvres du domaine public, ou bien les données qui ne sont pas protégées par le droit d’auteur.

Cela rendrait illégal le fait de contourner les DRM, même si ceux-ci sont appliqués à du contenu qui se trouve dans le domaine public — les enfermant alors une fois de plus, de façon efficace et permanente. Enfin, il est intéressant de remarquer que dans la sous-section fixant les dommages et intérêts pour violation de copyright, on peut y lire ce qui suit :

Pour déterminer le montant des dommages et intérêts en vertu du paragraphe 2, les autorités judiciaires seront habilitées à examiner, entre autres, toute mesure légitime de valeur que le détenteur du droit soumet, ce qui peut comprendre les bénéfices perdus, la valeur des biens ou des services concernés, mesurée en se basant sur le prix du marché, ou sur le prix de vente au détail suggéré.

C’est exactement la tournure qui a été utilisée pour ACTA, et qui a été retrouvée dans le récent accord de libre-échange entre l’UE et Singapour. Cela résume assez bien comment le TPP s’appuie directement sur ACTA, tandis que les autres mesures évoquées ci-dessus montrent comment il va bien au-delà et ce à plusieurs égards.

Voilà pour les mauvaises nouvelles. La bonne nouvelle, c’est que nous avons maintenant une version très récente de ce qui pourrait être la partie la plus controversée de l’accord. Dans les semaines à venir, nous sommes susceptibles de voir de nombreuses analyses détaillées exposant au grand jour le caractère ô combien pernicieux cet accord pour le public des pays participant aux négociations.

L’espoir étant qu’une fois qu’il en sera informé, il fera connaître son sentiment à ses représentants politiques comme il l’a fait avec SOPA et ACTA — et avec le même résultat final.




Le Brésil ne veut plus de logiciels impossibles à auditer

Avant Snowden, nous criions dans le désert.

Il en va tout autrement aujourd’hui. Et les gouvernements réalisent soudainement le danger d’avoir choisi des logiciels propriétaires qu’on ne peut évaluer et auditer faute d’accès au code source.

Il ne va pas être facile pour Microsoft, Apple et consorts de répondre ici aux exigences de transparence des autorités brésiliennes qui se tourneront naturellement vers le logiciel libre.

En attendant le tour de la France…

Edward Snowden - Laura Poitras - CC by

Le gouvernement brésilien va interdire l’achat des logiciels qui ne permettent pas leur plein contrôle

Governo vai barrar compra de software que impeça auditoria

Natuza Nery et Julia Borba – 5 novembre 2013 – Folha de S. Paolo
(Traduction : Ulan, Pierre, JonathanMM)

A partir de l’année prochaine, le gouvernement (brésilien) n’achètera plus d’ordinateurs ou de logiciels qui ne peuvent être pleinement audités par les pouvoirs publics. La directive a été publiée le 5 novembre dernier dans le journal officiel « Diario official da Uniao ».

Ainsi, les systèmes d’exploitation comme Windows (Microsoft) et MacOS (Apple) ne seront plus utilisés si les entreprises concernées font obstacle aux enquêtes sur l’espionnage informatique.

Actuellement, à l’installation d’un logiciel (propriétaire), les utilisateurs acceptent les termes d’utilisation de l’éditeur autorisant éventuellement celui-ci à accéder à leur ordinateur.

Le gouvernement brésilien souhaite avoir le droit de surveiller qui surveille ses concitoyens, et ce dans le but de pouvoir identifier et tracer les tentatives d’espionnage.

Selon le journal « Folha de São Paulo », l’intention n’est pas de promouvoir une conversion massive des parcs informatiques, mais prévenir que les produits actuels ne sont plus conformes aux nouvelles exigences.

De cette manière, il y aura un substitution graduelle des programmes traditionnels (propriétaires) pour des logiciels libres, comme Linux, si nous ne parvenons pas à négocier avec les grandes entreprises.

L’importance accordée par le gouvernement à l’espionnage a augmenté depuis qu’ont été publiés les dénonciations sur l’accès par les services américains aux archives des autorités et entreprises brésiliennes.

Économie

Le gouvernement considère que, en plus d’augmenter la sécurité, la directive entraînera des économies. L’utilisation de logiciels libres met un terme au renouvellement obligatoire des licences de ces programmes.

Interrogé pour la rédaction de cet article, Apple n’a pas souhaité répondre à cette décision.

Microsoft a informé qu’il fournit aux gouvernements « l’accès contrôlé au code source et aux autres informations techniques pour les aider à évaluer la sécurité des produits ». La société a également déclaré qu’elle se met à disposition du gouvernement brésilien pour discuter des détails de la mesure.

Valeur incertaine

Il n’y a pas encore d’estimation de l’impact de cette décision sur les dépenses gouvernementales. Les informations plus précises sur ces coûts ne seront dévoilées qu’après l’application de la directive, quand aura lieu une enquête sur les contrats actuellement en vigueur et les dates d’expirations de ceux-ci. Comme ces licences ont été obtenues à des moments différents, il n’est pas encore possible de faire d’estimation.

Le journal précise que le gouvernement de Dilma Rousseff étudie également avec détermination une autre mesure de sécurité informatique : installer le client de messagerie libre Expresso (Serpro) comme référence sur tout ordinateur public à la place de Outlook, ce qui engendrera des économies supérieures à 60 millions de reais par an (environ 20 millions d’euros).

Crédit photo : Laura Poitras (Creative Commons By)




Google Maps change de version ? Passons à OpenStreetMap !

Les nombreux services de Google sont généralement gratuits mais ils sont aussi propriétaires.

Ainsi les utilisateurs de Gmail s’en sont rendu compte dernièrement : Google modifie quand bon lui semble son interface et ses fonctionnalités. Et nous sommes mis devant le fait accompli de changements qui vont bien plus dans le sens d’une intégration toujours plus poussée avec les autres services Google (Google+ notamment) que d’un réel souci du confort des utilisateurs.

C’est également ce qui est en train de se produire actuellement avec Google Maps qui change d’interface et donc de version de son API, signifiant par là-même que tous ceux qui avaient développé des applications spécifiques avec la version précédente de l’API devront tout recoder avec la nouvelle version.

Une bonne occasion de migrer vers la carte libre OpenStreetMap[1] à l’aide du site Switch2OSM[2].

Google Maps v2

Faut-il mettre à jour la version 2 de l’API de Google ? Libérez-vous plutôt et passez à OpenStreetMap.

Upgrading from Google v2 API? Free yourself and upgrade to OpenStreetMap

5 novembre 2013 – OpenStreetMap Blog
(Traduction : goofy, lyn, GregR, Britz, Sphinx + anonymes)

Avez-vous reçu un courrier électronique comme celui-là (cf image ci-dessus) ?

Nous ne pouvons vous garantir que vous pourrez disposer de vos cartes. Nous vous recommandons vivement de migrer vers la version 3 de Google Maps avant le 19 novembre.

Oui, Google Maps a décidé de fermer sa vieille API JavaScript de Maps (v2). Ils vous conseillent de passer beaucoup de temps à ré-écrire votre code pour passer à la nouvelle API v3.

Mais pourquoi ne pas utiliser ce temps pour passer à un meilleur service ?

OpenStreetMap (OSM) est une carte créée par des experts, à savoir les habitants mêmes du territoire qu’ils cartographient. On y trouve les sentiers pédestres et les pistes cyclables, les canaux, les espaces verts et les espaces publics, de même que toutes les routes et les chemins de fer. Elle est continuellement mise à jour : pas besoin d’attendre le prochain passage de la voiture Google. Pas étonnant que Foursquare, Github et Mapquest aient déjà opté pour OSM.

Passer de Google Maps à OpenStreetMap est plus facile que vous ne le pensez. Si vous vous êtes déjà confronté à l’ancienne API de Google Map, vous allez trouver en notre équivalent, Leaflet, une bouffée d’air frais. Son interface douce et agréable vous permettra de mettre mieux en valeur l’apparence de votre site, et l’application mobile est aussi fluide que l’application native.

Si vous souhaitez aller plus loin, OpenStreetMap vous permet de créer une belle carte, personnelle, à partir de nos données. Vous n’êtes pas limité au seul style Google, que tout le monde utilise. Puisque les sources sont libres et ouvertes, vous n’avez pas à payer quoi que ce soit pour accéder à des services « premium ».

Comment franchir le pas ? Le site switch2osm.org, géré par la communauté OpenStreetMap, fournit des conseils pour passer à OpenStreetMap. Les sections « The Basics » (NdT : Premiers pas) et « Using Tiles » (Utiliser des tuiles) vous permettront de transformer votre code JavaScript pour qu’il fonctionne avec OSM. Ce site est également utile pour trouver toutes les informations nécessaires à la création de cartes personnalisées.

Au bout du compte, OpenStreetMap est beaucoup plus qu’une solution alternative à l’API Google Maps. Nous offrons quelque chose de différent : un accès libre et ouvert aux données cartographiques brutes. Cela permet aux développeurs de débrider leur créativité et d’innover un maximum, en allant beaucoup plus loin qu’une simple intégration d’une carte dans un site web. Cerise sur le gâteau : plus on utilise OSM sur des sites web, plus les cartes seront vues des utilisateurs et plus les contributeurs à ce travail de cartographie collaborative seront nombreux ; au final, la carte, créée par la communauté, devient de plus en plus précise.

Utiliser OpenStreetMap, c’est défendre et promouvoir ce projet et ainsi nous aider dans notre mission bénévole : créer la carte du monde la plus ouverte et la plus riche qui soit.

switch2osm.org

Notes

[1] Pour rappel notre article Framablog : Avez-vous le réflexe OpenStreetMap ? et notre tag dédié.

[2] Nous envisageons de traduire ce site en français.




Quel niveau de surveillance la démocratie peut-elle endurer ? par Richard Stallman

« Le niveau de surveillance actuel dans nos sociétés est incompatible avec les droits de l’homme… »

C’est ce qu’affirme et expose Richard Stallman dans ce long article argumenté en proposant un certain nombre de mesures pour desserrer l’étau.

Sur la photo ci-dessous, on voit Stallman lors d’une conférence en Tunisie muni d’un étrange badge. Il l’a recouvert lui-même de papier aluminium pour ne pas être pisté lors de l’évènement !

Quel niveau de surveillance la démocratie peut-elle supporter ?

par Richard Stallman

URL d’origine du document (sur GNU.org)

Une première version de cet article a été publiée sur Wired en octobre 2013.
Licence : Creative Commons BY-ND 3.0 US
Traduction : aKa, zimadprof, Lamessen, Sylvain, Scailyna, Paul, Asta, Monsieur Tino, Marc, Thérèse, Amine Brikci-N, FF255, Achille, Slystone, Sky, Penguin et plusieurs anonymes
Révision : trad-gnu@april.org – Version de la traduction : 14 août 2014

Grâce aux révélations d’Edward Snowden, nous comprenons aujourd’hui que le niveau de surveillance dans nos sociétés est incompatible avec les droits de l’homme. Le harcèlement répété et les poursuites judiciaires que subissent les opposants, les sources et les journalistes (aux États-Unis et ailleurs) en sont la preuve. Nous devons réduire le niveau de surveillance, mais jusqu’où ? Où se situe exactement le seuil tolérable de surveillance que l’on doit faire en sorte de ne pas dépasser ? C’est le niveau au delà duquel la surveillance commence à interférer avec le fonctionnement de la démocratie : lorsque des lanceurs d’alerte comme Snowden sont susceptibles d’être attrapés.

Face à la culture du secret des gouvernements, nous, le peuple,1 devons compter sur les lanceurs d’alerte pour apprendre ce que l’État est en train de faire. De nos jours, cependant, la surveillance intimide les lanceurs d’alerte potentiels, et cela signifie qu’elle est trop intense. Pour retrouver notre contrôle démocratique sur l’État, nous devons réduire la surveillance jusqu’à un point où les lanceurs d’alerte se sentent en sécurité.

L’utilisation de logiciels libres, comme je la préconise depuis trente ans, est la première étape dans la prise de contrôle de nos vies numériques – qui inclut la prévention de la surveillance. Nous ne pouvons faire confiance aux logiciels non libres ; la NSA utilise et même crée des failles de sécurité dans des logiciels non libres afin d’envahir nos ordinateurs et nos routeurs. Le logiciel libre nous donne le contrôle de nos propres ordinateurs, mais cela ne protège pas notre vie privée dès l’instant où nous mettons les pieds sur Internet.

Une législation bipartisane ayant pour but de « limiter les pouvoirs de surveillance sur le territoire national » est en cours d’élaboration aux États-Unis mais elle le fait en limitant l’utilisation par le gouvernement de nos dossiers virtuels. Cela ne suffira pas à protéger les lanceurs d’alerte si « capturer le lanceur d’alerte » est un motif valable pour accéder à des données permettant de l’identifier. Nous devons aller plus loin encore.

Le niveau de surveillance à ne pas dépasser dans une démocratie

Si les lanceurs d’alerte n’osent pas révéler les crimes, délits et mensonges, nous perdons le dernier lambeau de contrôle réel qui nous reste sur nos gouvernements et institutions. C’est pourquoi une surveillance qui permet à l’État de savoir qui a parlé à un journaliste va trop loin – au delà de ce que peut supporter la démocratie.

En 2011, un représentant anonyme du gouvernement américain a fait une déclaration inquiétante à des journalistes, à savoir que les États-Unis n’assigneraient pas de reporter à comparaître parce que « nous savons avec qui vous parlez ». Parfois, pour avoir ces renseignements, ils obtiennent les relevés téléphoniques de journalistes par injonction judiciaire, mais Snowden nous a montré qu’en réalité ils adressent des injonctions en permanence à Verizon et aux autres opérateurs, pour tous les relevés téléphoniques de chaque résident.

Il est nécessaire que les activités d’opposition ou dissidentes protègent leurs secrets des États qui cherchent à leur faire des coups tordus. L’ACLU2 a démontré que le gouvernement des États-Unis infiltrait systématiquement les groupes dissidents pacifiques sous prétexte qu’il pouvait y avoir des terroristes parmi eux. La surveillance devient trop importante quand l’État peut trouver qui a parlé à une personne connue comme journaliste ou comme opposant.

L’information, une fois collectée, sera utilisée à de mauvaises fins

Quand les gens reconnaissent que la surveillance généralisée atteint un niveau trop élevé, la première réponse est de proposer d’encadrer l’accès aux données accumulées. Cela semble sage, mais cela ne va pas corriger le problème, ne serait-ce que modestement, même en supposant que le gouvernement respecte la loi (la NSA a trompé la cour fédérale de la FISA,3 et cette dernière a affirmé être incapable, dans les faits, de lui demander des comptes). Soupçonner un délit est un motif suffisant pour avoir accès aux données, donc une fois qu’un lanceur d’alerte est accusé d’« espionnage », trouver un « espion » fournira une excuse pour avoir accès à l’ensemble des informations.

Le personnel chargé de la surveillance d’État a l’habitude de détourner les données à des fins personnelles. Des agents de la NSA ont utilisé les systèmes de surveillance américains pour suivre à la trace leurs petit(e)s ami(e)s – passés, présents, ou espérés, selon une pratique nommée « LOVEINT ». La NSA affirme avoir détecté et puni cette pratique à plusieurs reprises ; nous ne savons pas combien d’autres cas n’ont pas été détectés. Mais ces événements ne devraient pas nous surprendre, parce que les policiers utilisent depuis longtemps leurs accès aux fichiers des permis de conduire pour pister des personnes séduisantes, une pratique connue sous les termes de « choper une plaque pour un rencard ».

Les données provenant de la surveillance seront toujours détournées de leur but, même si c’est interdit. Une fois que les données sont accumulées et que l’État a la possibilité d’y accéder, il peut en abuser de manière effroyable, comme le montrent des exemples pris en Europe et aux États-Unis.

La surveillance totale, plus des lois assez floues, ouvrent la porte à une campagne de pêche à grande échelle, quelle que soit la cible choisie. Pour mettre le journalisme et la démocratie en sécurité, nous devons limiter l’accumulation des données qui sont facilement accessibles à l’État.

Une protection solide de la vie privée doit être technique

L’Electronic Frontier Foundation et d’autres structures proposent un ensemble de principes juridiques destinés à prévenir les abus de la surveillance de masse. Ces principes prévoient, et c’est un point crucial, une protection juridique explicite pour les lanceurs d’alerte. Par conséquent, ils seraient adéquats pour protéger les libertés démocratiques s’ils étaient adoptés dans leur intégralité et qu’on les faisait respecter sans la moindre exception, à tout jamais.

Toutefois, ces protections juridiques sont précaires : comme nous l’ont montré les récents événements, ils peuvent être abrogés (comme dans la loi dite FISA Amendments Act), suspendus ou ignorés.

Pendant ce temps, les démagogues fourniront les excuses habituelles pour justifier une surveillance totale ; toute attaque terroriste, y compris une attaque faisant un nombre réduit de victimes, leur donnera cette opportunité.

Si la limitation de l’accès aux données est écartée, ce sera comme si elle n’avait jamais existé. Des dossiers remontant à des années seront du jour au lendemain exposés aux abus de l’État et de ses agents et, s’ils ont été rassemblés par des entreprises, seront également exposés aux magouilles privées de ces dernières. Si par contre nous arrêtions de ficher tout le monde, ces dossiers n’existeraient pas et il n’y aurait pas moyen de les analyser de manière rétroactive. Tout nouveau régime non libéral aurait à mettre en place de nouvelles méthodes de surveillance, et recueillerait des données à partir de ce moment-là seulement. Quant à suspendre cette loi ou ne pas l’appliquer momentanément, cela n’aurait presque aucun sens.

En premier lieu, ne soyez pas imprudent

Pour conserver une vie privée, il ne faut pas la jeter aux orties : le premier concerné par la protection de votre vie privée, c’est vous. Évitez de vous identifier sur les sites web, contactez-les avec Tor, et utilisez des navigateurs qui bloquent les stratagèmes dont ils se servent pour suivre les visiteurs à la trace. Utilisez GPG (le gardien de la vie privée) pour chiffrer le contenu de vos courriels. Payez en liquide.

Gardez vos données personnelles ; ne les stockez pas sur le serveur « si pratique » d’une entreprise. Il n’y a pas de risque, cependant, à confier la sauvegarde de vos données à un service commercial, pourvu qu’avant de les envoyer au serveur vous les chiffriez avec un logiciel libre sur votre propre ordinateur (y compris les noms de fichiers).

Par souci de votre vie privée, vous devez éviter les logiciels non libres car ils donnent à d’autres la maîtrise de votre informatique, et que par conséquent ils vous espionnent probablement. N’utilisez pas de service se substituant au logiciel : outre que cela donne à d’autres la maîtrise de votre informatique, cela vous oblige à fournir toutes les données pertinentes au serveur.

Protégez aussi la vie privée de vos amis et connaissances. Ne divulguez pas leurs informations personnelles, sauf la manière de les contacter, et ne donnez jamais à aucun site l’ensemble de votre répertoire téléphonique ou des adresses de courriel de vos correspondants. Ne dites rien sur vos amis à une société comme Facebook qu’ils ne souhaiteraient pas voir publier dans le journal. Mieux, n’utilisez pas du tout Facebook. Rejetez les systèmes de communication qui obligent les utilisateurs à donner leur vrai nom, même si vous êtes disposé à donner le vôtre, car cela pousserait d’autres personnes à abandonner leurs droits à une vie privée.

La protection individuelle est essentielle, mais les mesures de protection individuelle les plus rigoureuses sont encore insuffisantes pour protéger votre vie privée sur des systèmes, ou contre des systèmes, qui ne vous appartiennent pas. Lors de nos communications avec d’autres ou de nos déplacements à travers la ville, notre vie privée dépend des pratiques de la société. Nous pouvons éviter certains des systèmes qui surveillent nos communications et nos mouvements, mais pas tous. Il est évident que la meilleure solution est d’obliger ces systèmes à cesser de surveiller les gens qui sont pas légitimement suspects.

Nous devons intégrer à chaque système le respect de la vie privée

Si nous ne voulons pas d’une société de surveillance totale, nous devons envisager la surveillance comme une sorte de pollution de la société et limiter l’impact de chaque nouveau système numérique sur la surveillance, de la même manière que nous limitons l’impact des objets manufacturés sur l’environnement.

Par exemple, les compteurs électriques « intelligents » sont paramétrés pour envoyer régulièrement aux distributeurs d’énergie des données concernant la consommation de chaque client, ainsi qu’une comparaison avec la consommation de l’ensemble des usagers. Cette implémentation repose sur une surveillance généralisée mais ce n’est nullement nécessaire. Un fournisseur d’énergie pourrait aisément calculer la consommation moyenne d’un quartier résidentiel en divisant la consommation totale par le nombre d’abonnés, et l’envoyer sur les compteurs. Chaque client pourrait ainsi comparer sa consommation avec la consommation moyenne de ses voisins au cours de la période de son choix. Mêmes avantages, sans la surveillance !

Il nous faut intégrer le respect de la vie privée à tous nos systèmes numériques, dès leur conception.

Remède à la collecte de données : les garder dispersées

Pour rendre la surveillance possible sans porter atteinte à la vie privée, l’un des moyens est de conserver les données de manière dispersée et d’en rendre la consultation malaisée. Les caméras de sécurité d’antan n’étaient pas une menace pour la vie privée. Les enregistrements étaient conservés sur place, et cela pendant quelques semaines tout au plus. Leur consultation ne se faisait pas à grande échelle du fait de la difficulté d’y avoir accès. On les consultait uniquement sur les lieux où un délit avait été signalé. Il aurait été impossible de rassembler physiquement des millions de bandes par jour, puis de les visionner ou de les copier.

Aujourd’hui, les caméras de sécurité se sont transformées en caméras de surveillance ; elles sont reliées à Internet et leurs enregistrements peuvent être regroupés dans un centre de données [data center] et conservés ad vitam aeternam. C’est déjà dangereux, mais le pire est à venir. Avec les progrès de la reconnaissance faciale, le jour n’est peut-être pas loin où les journalistes « suspects » pourront être pistés sans interruption dans la rue afin de surveiller qui sont leurs interlocuteurs.

Les caméras et appareils photo connectés à Internet sont souvent eux-mêmes mal protégés, de sorte que n’importe qui pourrait regarder ce qu’ils voient par leur objectif. Pour rétablir le respect de la vie privée, nous devons interdire l’emploi d’appareils photo connectés dans les lieux ouverts au public, sauf lorsque ce sont les gens qui les transportent. Tout le monde doit avoir le droit de mettre en ligne des photos et des enregistrements vidéo une fois de temps en temps, mais on doit limiter l’accumulation systématique de ces données.

Remède à la surveillance du commerce sur Internet

La collecte de données provient essentiellement des activités numériques personnelles des gens. D’ordinaire, ces sont d’abord les entreprises qui recueillent ces données. Mais lorsqu’il est question de menaces pour la vie privée et la démocratie, que la surveillance soit exercée directement par l’État ou déléguée à une entreprise est indifférent, car les données rassemblées par les entreprises sont systématiquement mises à la disposition de l’État.

Depuis PRISM, la NSA a un accès direct aux bases de données de nombreuses grandes sociétés d’Internet. AT&T conserve tous les relevés téléphoniques depuis 1987 et les met à la disposition de la DEA sur demande, pour ses recherches. Aux États-Unis, l’État fédéral ne possède pas ces données au sens strict, mais en pratique c’est tout comme.

Mettre le journalisme et la démocratie en sécurité exige, par conséquent, une réduction de la collecte des données privées, par toute organisation quelle qu’elle soit et pas uniquement par l’État. Nous devons repenser entièrement les systèmes numériques, de telle manière qu’ils n’accumulent pas de données sur leurs utilisateurs. S’ils ont besoin de détenir des données numériques sur nos transactions, ils ne doivent être autorisés à les garder que pour une période dépassant de peu le strict minimum nécessaire au traitement de ces transactions.

Une des raisons du niveau actuel de surveillance sur Internet est que le financement des sites repose sur la publicité ciblée, par le biais du pistage des actions et des choix de l’utilisateur. C’est ainsi que d’une pratique simplement gênante, la publicité que nous pouvons apprendre à éviter, nous basculons, en connaissance de cause ou non, dans un système de surveillance qui nous fait du tort. Les achats sur Internet se doublent toujours d’un pistage des utilisateurs. Et nous savons tous que les « politiques relatives à la vie privée » sont davantage un prétexte pour violer celle-ci qu’un engagement à la respecter.

Nous pourrions remédier à ces deux problèmes en adoptant un système de paiement anonyme – anonyme pour l’émetteur du paiement, s’entend (permettre au bénéficiaire d’échapper à l’impôt n’est pas notre objectif). Bitcoin n’est pas anonyme, bien que des efforts soient faits pour développer des moyens de payer anonymement avec des bitcoins. Cependant, la technologie de la monnaie électronique remonte aux années 80 ; tout ce dont nous avons besoin, ce sont d’accords adaptés pour la marche des affaires et que l’État n’y fasse pas obstruction.

Le recueil de données personnelles par les sites comporte un autre danger, celui que des « casseurs de sécurité » s’introduisent, prennent les données et les utilisent à de mauvaises fins, y compris celles qui concernent les cartes de crédit. Un système de paiement anonyme éliminerait ce danger : une faille de sécurité du site ne peut pas vous nuire si le site ne sait rien de vous.

Remède à la surveillance des déplacements

Nous devons convertir la collecte numérique de péage en paiement anonyme (par l’utilisation de monnaie électronique, par exemple). Les système de reconnaissance de plaques minéralogiques reconnaissent toutes les plaques, et les données peuvent être gardées indéfiniment ; la loi doit exiger que seules les plaques qui sont sur une liste de véhicules recherchés par la justice soient identifiées et enregistrées. Une solution alternative moins sûre serait d’enregistrer tous les véhicules localement mais seulement pendant quelques jours, et de ne pas rendre les données disponibles sur Internet ; l’accès aux données doit être limité à la recherche d’une série de plaques minéralogiques faisant l’objet d’une décision de justice.

The U.S. “no-fly” list must be abolished because it is punishment without trial.

Il est acceptable d’établir une liste de personnes pour qui la fouille corporelle et celle des bagages seront particulièrement minutieuses, et l’on peut traiter les passagers anonymes des vols intérieurs comme s’ils étaient sur cette liste. Il est acceptable également d’interdire aux personnes n’ayant pas la citoyenneté américaine d’embarquer sur des vols à destination des États-Unis si elles n’ont pas la permission d’y rentrer. Cela devrait suffire à toutes les fins légitimes.

Beaucoup de systèmes de transport en commun utilisent un genre de carte intelligente ou de puce RFID pour les paiements. Ces systèmes amassent des données personnelles : si une seule fois vous faites l’erreur de payer autrement qu’en liquide, ils associent définitivement la carte avec votre nom. De plus, ils enregistrent tous les voyages associés avec chaque carte. L’un dans l’autre, cela équivaut à un système de surveillance à grande échelle. Il faut diminuer cette collecte de données.

Les services de navigation font de la surveillance : l’ordinateur de l’utilisateur renseigne le service cartographique sur la localisation de l’utilisateur et l’endroit où il veut aller ; ensuite le serveur détermine l’itinéraire et le renvoie à l’ordinateur, qui l’affiche. Il est probable qu’actuellement le serveur enregistre les données de localisation puisque rien n’est prévu pour l’en empêcher. Cette surveillance n’est pas nécessaire en soi, et une refonte complète du système pourrait l’éviter : des logiciels libres installés côté utilisateur pourraient télécharger les données cartographiques des régions concernées (si elles ne l’ont pas déjà été), calculer l’itinéraire et l’afficher, sans jamais dire à qui que ce soit l’endroit où l’utilisateur veut aller.

Les systèmes de location de vélos et autres peuvent être conçus pour que l’identité du client ne soit connue que de la station de location. Au moment de la location, celle-ci informera toutes les stations du réseau qu’un vélo donné est « sorti » ; de cette façon, quand l’utilisateur le rendra, généralement à une station différente, cette station-là saura où et quand il a été loué. Elle informera à son tour toutes les stations du fait que ce vélo a été rendu, et va calculer en même temps la facture de l’utilisateur et l’envoyer au siège social après une attente arbitraire de plusieurs minutes, en faisant un détour par plusieurs stations. Ainsi le siège social ne pourra pas savoir précisément de quelle station la facture provient. Ceci fait, la station de retour effacera toutes les données de la transaction. Si le vélo restait « sorti » trop longtemps, la station d’origine pourrait en informer le siège social et, dans ce cas, lui envoyer immédiatement l’identité du client.

Remède aux dossiers sur les communications

Les fournisseurs de services Internet et les compagnies de téléphone enregistrent une masse de données sur les contacts de leurs utilisateurs (navigation, appels téléphoniques, etc.) Dans le cas du téléphone mobile, ils enregistrent en outre la position géographique de l’utilisateur. Ces données sont conservées sur de longues périodes : plus de trente ans dans le cas d’AT&T. Bientôt, ils enregistreront même les mouvements corporels de l’utilisateur. Et il s’avère que la NSA collecte les coordonnées géographiques des téléphones mobiles, en masse.

Les communications non surveillées sont impossibles là où le système crée de tels dossiers. Leur création doit donc être illégale, ainsi que leur archivage. Il ne faut pas que les fournisseurs de services Internet et les compagnies de téléphone soient autorisés à garder cette information très longtemps, sauf décision judiciaire leur enjoignant de surveiller une personne ou un groupe en particulier.

Cette solution n’est pas entièrement satisfaisante, car cela n’empêchera pas concrètement le gouvernement de collecter toute l’information à la source – ce que fait le gouvernement américain avec certaines compagnies de téléphone, voire avec toutes. Il nous faudrait faire confiance à l’interdiction par la loi. Cependant, ce serait déjà mieux que la situation actuelle où la loi applicable (le PATRIOT Act) n’interdit pas clairement cette pratique. De plus, si un jour le gouvernement recommençait effectivement à faire cette sorte de surveillance, il n’obtiendrait pas les données sur les appels téléphoniques passés avant cette date.

Pour garder confidentielle l’identité des personnes avec qui vous échangez par courriel, une solution simple mais partielle est d’utiliser un service situé dans un pays qui ne risquera jamais de coopérer avec votre gouvernement, et qui chiffre ses communications avec les autres services de courriels. Toutefois, Ladar Levison (propriétaire du service de courriel Lavabit que la surveillance américaine a cherché à corrompre complètement) a une idée plus sophistiquée : établir un système de chiffrement par lequel votre service de courriel saurait seulement que vous avez envoyé un message à un utilisateur de mon service de courriel, et mon service de courriel saurait seulement que j’ai reçu un message d’un utilisateur de votre service de courriel, mais il serait difficile de déterminer que c’était moi le destinataire.

Mais un minimum de surveillance est nécessaire.

Pour que l’État puisse identifier les auteurs de crimes ou délits, il doit avoir la capacité d’enquêter sur un délit déterminé, commis ou en préparation, sur ordonnance du tribunal. À l’ère d’Internet, il est naturel d’étendre la possibilité d’écoute des conversations téléphoniques aux connexions Internet. On peut, certes, facilement abuser de cette possibilité pour des raisons politiques, mais elle n’en est pas moins nécessaire. Fort heureusement, elle ne permettrait pas d’identifier les lanceurs d’alerte après les faits, si (comme je le recommande) nous empêchons les systèmes numériques d’accumuler d’énormes dossiers avant les faits.

Les personnes ayant des pouvoirs particuliers accordés par l’État, comme les policiers, abandonnent leur droit à la vie privée et doivent être surveillés (en fait, les policiers américains utilisent dans leur propre jargon le terme testilying4 au lieu de perjury5 puisqu’ils le font si souvent, en particulier dans le cadre de la comparution de manifestants et de photographes). Une ville de Californie qui a imposé à la police le port permanent d’une caméra a vu l’usage de la force diminuer de près de 60 %. L’ACLU y est favorable.

Les entreprises ne sont pas des personnes et ne peuvent se prévaloir des droits de l’homme. Il est légitime d’exiger d’elles qu’elles rendent public le détail des opérations susceptibles de présenter un risque chimique, biologique, nucléaire, financier, informatique (par exemple les DRM) ou politique (par exemple le lobbyisme) pour la société, à un niveau suffisant pour assurer le bien-être public. Le danger de ces opérations (pensez à BP et à la marée noire dans le Golfe du Mexique, à la fusion du cœur des réacteurs nucléaires de Fukushima ou à la crise financière de 2008) dépasse de loin celui du terrorisme.

Cependant, le journalisme doit être protégé contre la surveillance, même s’il est réalisé dans un cadre commercial.


La technologie numérique a entraîné un accroissement énorme du niveau de surveillance de nos déplacements, de nos actions et de nos communications. Ce niveau est bien supérieur à ce que nous avons connu dans les années 90, bien supérieur à ce qu’ont connu les gens habitant derrière le rideau de fer dans les années 80, et il resterait encore bien supérieur si l’utilisation de ces masses de données par l’État était mieux encadrée par la loi.

A moins de croire que nos pays libres ont jusqu’à présent souffert d’un grave déficit de surveillance, et qu’il leur faut être sous surveillance plus que ne le furent jadis l’Union soviétique et l’Allemagne de l’Est, ils nous faut inverser cette progression. Cela requiert de mettre fin à l’accumulation en masse de données sur la population.

Notes :


Notes de traduction

  1. Allusion probable à la Constitution de 1787, symbole de la démocratie américaine, qui débute par ces mots : We, the people of the United States (Nous, le peuple des États-Unis). ?
  2. Union américaine pour les libertés civiles. ?
  3. Loi sur la surveillance du renseignement étranger ; elle a mis en place une juridiction spéciale, la FISC, chargée de juger les présumés agents de renseignement étrangers sur le sol américain. ?
  4. Testilying : contraction de testify, faire une déposition devant un tribunal, et lying, acte de mentir. ?
  5. Perjury : faux témoignage. ?