Apollinaire, domaine public et… Romaine Lubrique !

Hier, Apollinaire est (enfin) entré dans le domaine public !

Personne, ou presque, n’était au courant. Du coup, l’article Rebonds paru dans Libération du 30 septembre, et reproduit ci-dessous, a pour ainsi dire fait l’actu en étant repris par de nombreux autres médias : Le Point, Le Nouvel Observateur, Télérama, L’Express ou encore France Inter.

Ils ont cependant des excuses car il n’était pas évident de savoir que Guillaume Apollinaire s’élèverait dans le domaine public très exactement 94 ans et 272 jours après sa mort (sic !). Et d’en profiter au passage pour s’interroger sur le pourquoi du comment d’une si longue attente.

L’article de Libération a été co-signé par Lionel Maurel (Calimaq), Véronique Boukali et moi-même.

L’occasion également de vous présenter brièvement une nouvelle initiative soutenue par Framasoft[1] : le projet « Romaine Lubrique », qui comme son nom l’indique plus ou moins, s’intéresse à la valorisation culturelle du domaine public, vaste zone à dépoussiérer où le piratage n’existe plus et devient pleinement partage.

Vous y trouverez déjà une sélection de films, de photographies et évidemment une rubrique dédiée à Apollinaire avec un ePub d‘Alcools spécialement créé pour l’événement ainsi qu’une lecture audio des… Onze mille verges ! Romaine Lubrique a également récemment participé à deux émissions radios : Apollinaire’s not dead ! de Polémix et La Voix Off et une spéciale domaine public sur Divergence FM.

Une affaire à suivre donc, et pas seulement sur Twitter 😉

Apollinaire enfin dans le domaine public - Libération

Apollinaire enfin dans le domaine public !

URL d’origine du document

De l’eau a coulé sous le pont Mirabeau depuis la disparition de Guillaume Apollinaire. Et nous aurions pu patienter quelques années supplémentaires pour fêter en 2018 le centenaire de sa mort. Mais il nous semble plus opportun de célébrer comme il se doit ce 29 septembre 2013 car cela correspond très précisément à son entrée dans le domaine public.

On parle beaucoup plus en France du droit d’auteur que du domaine public. Pourtant, l’entrée d’une œuvre dans le domaine public constitue un événement d’importance, qui ouvre de larges possibilités en termes d’appropriation et de diffusion de la culture.

Durant leur période de protection, les œuvres font en effet l’objet de droits exclusifs, appartenant aux auteurs et à leurs ayants droit. Avec l’entrée dans le domaine public, l’extinction des droits de reproduction et de représentation va permettre à tout un chacun de citer, copier, diffuser et adapter l’œuvre d’Apollinaire. Un tel accès simplifiera la vie des enseignants et des chercheurs. Ses œuvres pourront faire l’objet de nouvelles éditions et traductions. De telles productions seront facilitées et pour cause : il ne sera plus nécessaire de demander une autorisation ni de verser de droits pour les faire. L’adaptation sous toutes ses formes devient également possible, qu’il s’agisse d’interpréter musicalement ses poèmes, de mettre en scène ses pièces de théâtre ou de réaliser des films à partir de ses contes et romans. Au-delà, les écrits d’Apollinaire pourront être librement diffusés sur Internet et c’est tout le champ de la créativité numérique qui s’ouvre pour son œuvre.

Contrairement à des idées reçues, l’arrivée dans le domaine public est souvent l’occasion de redécouvrir des œuvres et de leur donner une nouvelle vie. On ne « tombe » pas dans le domaine public, on y entre… voire on s’y élève. Nul doute que le passage dans le domaine public assurera à l’œuvre vaste et composite d’Apollinaire un nouveau rayonnement.

« Zone », « La Chanson du mal-aimé », « Le Pont Mirabeau » , les Poèmes à Lou, quelques uns de ses Calligrammes… Voilà à peu près ce que nos souvenirs d’adolescence nous ont laissé d’Apollinaire. Des formes nouvelles, un rythme si particulier, des images à la fois simples et saisissantes… Ce qui a fait de cet auteur le « poète de la modernité ». À partir de lundi, il sera plus aisé d’explorer l’étendue de son œuvre mais aussi de découvrir derrière l’Apollinaire des manuels scolaires une personnalité fascinante et polymorphe.

Certes, Apollinaire est bien sûr un poète, mais, on le sait moins, c’est aussi un journaliste chroniqueur, un critique d’art qui se rend aux expositions de ses contemporains, et même un scénariste de cinéma (La Bréhatine). Certes, Apollinaire a écrit une pièce d’avant-garde annonçant et baptisant le Surréalisme (Les Mamelles de Tirésias), mais il est aussi l’auteur de petits vaudevilles (À la cloche de bois). Certes, Apollinaire fut un amoureux transi réinventant le lyrisme poétique, mais c’était aussi un infatigable promeneur, observateur amusé se passionnant pour tout ce qui s’offrait à ses yeux gourmands (Le Flâneur des deux rives). C’était même l’auteur de plusieurs romans érotiques pleins de fantaisie et de drôlerie (on pourra relire, entre autres, le début réjouissant des Onze mille verges).

Mais pourquoi aura-t-il fallu attendre si longtemps ici ? Le cas Guillaume Apollinaire montre bien la situation complexe de la législation en la matière.

Aujourd’hui en France un auteur passe dans le domaine public le 1er janvier suivant les 70 ans de sa mort. Il n’en a pas toujours été ainsi, sans remonter au début du XIXe siècle avec son droit d’auteur réduit à 14 ans après la publication d’une œuvre, la période précédente était plus raisonnablement fixée à 50 ans post mortem (comme rien n’est simple le Canada en est resté lui à 50 ans, ce qui explique qu’on trouve déjà par exemple sur des sites québécois des œuvres d’Apollinaire que ne peuvent être légalement téléchargés depuis la France). En 2006, allongement de la peine donc, une directive européenne a fait passer la durée de protection de 50 à 70 ans… Mais ce n’est pas fini : il peut en outre y avoir des exceptions. On accorde ainsi un bonus à vos ayants droits si la période d’exploitation des œuvres traversent l’une ou les deux guerres mondiales (comme rien n’est simple cette prorogation repose sur l’ancienne durée légale de 50 ans) et si vous êtes « mort pour la France ».

Apollinaire fut blessé au front en 1916 par un éclat d’obus à la tempe alors qu’il était en train de lire dans sa tranchée. Il succomba deux ans plus tard de la terrible grippe de 1918. Jugeant que sa blessure l’avait affaibli, on reconnut cependant le sacrifice fait à la Nation. Résumons donc : né d’une mère polonaise et d’un père italien, Apollinaire est mort pour la France d’une grippe espagnole !

Et l’on obtient ainsi la longue somme suivante : 50 ans (durée classique) + 30 ans (mort pour la France) + 6 ans et 152 jours (1ère Guerre mondiale) + 8 ans et 120 jours (2nde Guerre mondiale). Soit un total de 94 ans et 272 jours qui s’en vont pour qu’enfin sonne l’heure de ce dimanche 29 septembre 2013. Ouf, il était temps…

L’œuvre du grand poète est désormais déposée dans le bien commun de notre patrimoine culturel : profitons-en pour la découvrir, la redécouvrir, la partager et s’en inspirer, comme le fait le site RomaineLubrique.org, et comme le feront bien d’autres à sa suite. Mais une question reste posée : celle de l’équilibre bien fragile entre le droit des auteurs (et de leurs héritiers) et ceux d’un public qui, à l’ère d’Internet, souhaite légitimement accéder plus facilement et rapidement à leurs œuvres.

Un domaine public plus vivant pour nos morts ? Le rapport Lescure, remis au ministère de la Culture en mai dernier, recommande de consacrer davantage la notion de domaine public et de favoriser son application. Fier d’avoir été in extremis naturalisé français, Apollinaire afficherait certainement la même volonté, et avec lui tous nos anciens, connus ou moins connus, qui attendent leur renaissance numérique.

Véronique Boukali, professeur de lettres modernes et co-fondatrice de RomaineLubrique.org
Alexis Kauffmann, professeur de mathématiques et fondateur de Framasoft.org
Lionel Maurel, auteur du blog S.I.Lex, co-fondateur du collectif SavoirsCom1 et membre de la Quadrature du Net

Notes

[1] Parmi les autres projets soutenus par Framasoft, il y a Veni Vidi Libri et le Geektionnerd.




Le chiffrement, maintenant (2)

Voici la deuxième partie du guide sur le chiffrement que nous vous avons présenté la semaine dernière.

Ces derniers jours, les révélations distillées par Snowden n’ont fait que confirmer l’ampleur considérable des transgressions commises par la NSA : le protocole https est compromis, et même un certain type de chiffrement a été « cassé » depuis 2010…

Il est donc d’autant plus justifié de rechercher les moyens de se protéger de ces intrusions de la surveillance généralisée dans nos données personnelles. À titre d’introduction à notre chapitre de la semaine, j’ai traduit rapidement 5 conseils donnés ce vendredi par Bruce Schneier, spécialiste de la sécurité informatique, dans un article du Guardian. Il reconnaît cependant que suivre ces conseils n’est pas à la portée de l’usager moyen d’Internet…

1) Cachez-vous dans le réseau. Mettez en œuvre des services cachés. Utilisez Tor pour vous rendre anonyme. Oui, la NSA cible les utilisateurs de Tor, mais c’est un gros boulot pour eux. Moins vous êtes en évidence, plus vous êtes en sécurité.

2) Chiffrez vos communications. Utilisez TLS. Utilisez IPsec. Là encore, même s’il est vrai que la NSA cible les connexions chiffrées – et il peut y avoir des exploits explicites contre ces protocoles – vous êtes beaucoup mieux protégés que si vous communiquez en clair.

3) Considérez que bien que votre ordinateur puisse être compromis, cela demandera à la NSA beaucoup de travail et de prendre des risques – il ne le sera donc probablement pas. Si vous avez quelque chose de vraiment important entre les mains, utilisez un « angle mort ». Depuis que j’ai commencé à travailler avec les documents Snowden, j’ai acheté un nouvel ordinateur qui n’a jamais été connecté à l’internet. Si je veux transférer un fichier, je le chiffre sur l’ordinateur sécurisé (hors-connexion) et le transfère à mon ordinateur connecté à Internet, en utilisant une clé USB. Pour déchiffrer quelque chose, j’utilise le processus inverse. Cela pourrait ne pas être à toute épreuve, mais c’est déjà très bien.

4) Méfiez-vous des logiciels de chiffrement commerciaux, en particulier venant de grandes entreprises. Mon hypothèse est que la plupart des produits de chiffrement de grandes sociétés nord-américaines ont des portes dérobées utiles à la NSA, et de nombreuses entreprises étrangères en installent sans doute autant. On peut raisonnablement supposer que leurs logiciels ont également ce genre de portes dérobées. Les logiciels dont le code source est fermé sont plus faciles à pénétrer par la NSA que les logiciels open source. Les systèmes qui reposent sur une clé « secrète » principale sont vulnérables à la NSA, soit par des moyens juridiques soit de façon plus clandestine.

5) Efforcez-vous d’utiliser un chiffrement du domaine public qui devra être compatible avec d’autres implémentations. Par exemple, il est plus difficile pour la NSA de pénétrer les TLS que BitLocker, parce que les TLS de n’importe quel fournisseur doivent être compatibles avec les TLS de tout autre fournisseur, alors que BitLocker ne doit être compatible qu’avec lui-même, donnant à la NSA beaucoup plus de liberté pour le modifier à son gré. Et comme BitLocker est propriétaire, il est beaucoup moins probable que ces changements seront découverts. Préférez le chiffrement symétrique au chiffrement à clé publique. Préférez les systèmes basés sur un logarithme discret aux systèmes conventionnels à courbe elliptique ; ces derniers ont des constantes que la NSA influence quand elle le peut.

Type de menace

D’après Encryption Works

(contributeurs : audionuma, goofy, lamessen, Calou, Achille Talon)

La NSA est un puissant adversaire. Si vous êtes sa cible directe, il vous faudra beaucoup d’efforts pour communiquer en toute confidentialité, et même si ce n’est pas le cas, des milliards d’innocents internautes se retrouvent dans les filets de la NSA.

Bien que les outils et conseils présentés dans ce document soient destinés à protéger votre vie privée des méthodes de collecte de la NSA, ces mêmes conseils peuvent être utilisés pour améliorer la sécurité de votre ordinateur contre n’importe quel adversaire. Il est important de garder à l’esprit que d’autres gouvernements, notamment la Chine et la Russie, dépensent d’énormes sommes pour leurs équipements de surveillance et sont réputés pour cibler spécifiquement les journalistes et leurs sources. Aux États-Unis, une mauvaise sécurité informatique peut coûter leur liberté aux lanceurs d’alerte, mais dans d’autres pays c’est leur vie même que risquent à la fois les journalistes et leurs sources. Un exemple récent en Syrie a montré à quel point une mauvaise sécurité informatique peut avoir des conséquences tragiques.

Mais la modification de certaines pratiques de base peut vous garantir une bonne vie privée, même si cela ne vous protège pas d’attaques ciblées par des gouvernements. Ce document passe en revue quelques méthodes qui peuvent vous servir dans les deux cas.

Systèmes de crypto

Nous avons découvert quelque chose. Notre seul espoir contre la domination totale. Un espoir que nous pourrions utiliser pour résister, avec courage, discernement et solidarité. Une étrange propriété de l’univers physique dans lequel nous vivons.

L’univers croit au chiffrement.

Il est plus facile de chiffrer l’information que de la déchiffrer.

— Julian Assange, in Menace sur nos libertés : comment Internet nous espionne, comment résister

Le chiffrement est le processus qui consiste à prendre un message textuel et une clé générée au hasard, puis à faire des opérations mathématiques avec ces deux objets jusqu’à ce qu’il ne reste plus qu’une version brouillée du message sous forme de texte chiffré. Déchiffrer consiste à prendre le texte chiffré et sa clé et à faire des opérations mathématiques jusqu’à ce que le texte initial soit rétabli. Ce domaine s’appelle la cryptographie, ou crypto en abrégé. Un algorithme de chiffrement, les opérations mathématiques à réaliser et la façon de les faire, est un ensemble appelé « code de chiffrement ».

Pour chiffrer quelque chose vous avez besoin de la bonne clé, et vous en avez aussi besoin pour la déchiffrer. Si le logiciel de chiffrement est implémenté correctement, si l’algorithme est bon et si les clés sont sécurisées, la puissance de tous les ordinateurs de la Terre ne suffirait pas à casser ce chiffrement.

Nous développons des systèmes de cryptographie qui relèvent de problèmes mathématiques que nous imaginons difficiles, comme la difficulté à factoriser de grands nombres. À moins que des avancées mathématiques puissent rendre ces problèmes moins complexes, et que la NSA les garde cachées du reste du monde, casser la crypto qui dépend d’eux au niveau de la sécurité est impossible.

La conception des systèmes de chiffrement devrait être complètement publique. Le seul moyen de s’assurer que le code de chiffrement ne contient pas lui-même de failles est de publier son fonctionnement, pour avoir de nombreux yeux qui le scrutent en détail et de laisser les  experts des véritables attaques à travers le monde trouver les bogues. Les mécanismes internes de la plupart des cryptos que nous utilisons quotidiennement, comme le HTTPS, cette technologie qui permet de taper son code de carte bancaire et les mots de passe sur des formulaires de sites internet en toute sécurité, sont totalement publics. Un attaquant qui connaît parfaitement chaque petit détail du fonctionnement du système de chiffrement ne réussira pas à le casser sans en avoir la clé. En revanche, on ne peut pas avoir confiance dans la sécurité d’une cryptographie propriétaire et dans son code sous-jacent.

Voici une question importante à se poser lors de l’évaluation de la sécurité d’un service ou d’une application qui utilise la crypto : est-il possible pour le service lui-même de contourner le chiffrement ? Si c’est le cas, ne faites pas confiance à la sécurité du service. Beaucoup de services comme Skype et Hushmail promettent un chiffrement « de bout en bout », mais dans la majorité des cas cela signifie aussi que les services eux-même ont les clés pour déchiffrer le produit. Le véritable chiffrement « de bout en bout » signifie que le fournisseur de service ne peut pas lui-même regarder vos communications, même s’il voulait le faire.

Un aspect important du chiffrement est qu’il permet bien plus que la protection de la confidentialité des communications. Il peut être utilisé pour « signer électroniquement » les messages d’une manière qui permette de prouver que l’auteur du message est bien celui qu’il prétend être. Il peut également être utilisé pour utiliser des monnaies numériques comme Bitcoin, et il peut être utilisé pour produire des réseaux qui permettent l’anonymat comme Tor.

Le chiffrement peut aussi servir à empêcher les gens d’installer des applications pour iPhone qui ne proviennent pas de l’App Store, à les empêcher d’enregistrer des films directement à partir de Netflix ou encore les empêcher d’installer Linux sur une tablette fonctionnant sous Windows 8. Il peut aussi empêcher des attaques de type « homme du milieu » (NdT : attaque consistant à intercepter les communications entre deux terminaux sans que ces derniers se doutent que la sécurité est compromise) d’ajouter des malwares pour compromettre les mises à jour légitimes de logiciels.

En bref, le chiffrement englobe de nombreux usages. Mais ici nous nous contenterons de regarder comment nous pouvons l’utiliser pour communiquer de façon sécurisée et privée.

(à suivre…)

Copyright: Encryption Works: How to Protect Your Privacy in the Age of NSA Surveillance est publié sous licence Creative Commons Attribution 3.0 Unported License.




Concurrence déloyale des logiciels libres en Europe ? La réponse de la FSFE

Le groupe de pression « FairSearch » (Microsoft, Nokia, Oracle…) prétend que Android fausse la concurrence parce qu’il est libre et gratuit et vient s’en plaindre à la Commission Européenne.

Traduite par nos soins, une réponse de la Free Software Foundation Europe s’imposait.

Laihiu - CC by

Les objections de la FSFE aux prétendues pratiques de « prix prédatoires » des logiciels libres

FSFE objects to claims of ‘predatory pricing’ in Free Software

(Traduction : Asta, GregR, Kiwileaks, KoS, Rinzin, Scailyna, Slystone, Tentate, aKa, audionuma, hugo, lamessen, lu, madalton + anonymes)

À :
Commission Européenne
DG Concurrence
B-1049 Bruxelles
Belgique

Juillet 2013

Selon des informations publiées dans un media spécialisé en ligne, la coalition dénommée « FairSearch » (composée de Microsoft, Nokia, Oracle et un certain nombre de fournisseurs de services en ligne) prétend dans sa dernière demande à la Commission Européenne que la distribution gratuite d’Android, un système d’exploitation libre[1] pour mobiles développé par Google, constitue une pratique de prix prédatoires. Suggérer que la distribution gratuite de logiciels libres pénalise la concurrence est d’une part faux en soi, et constitue d’autre part un danger pour la concurrence et l’innovation.

Nous exhortons la Commission à examiner les faits comme il se doit avant d’admettre les allégations de FairSearch comme établies. Nous vous écrivons aujourd’hui afin d’expliquer comment la distribution de logiciels libres, qu’elle soit gratuite ou contre rémunération, promeut la concurrence plutôt que de la mettre à mal.

La Free Software Foundation Europe (FSFE) est une organisation associative indépendante et à but non lucratif qui se consacre à la promotion du logiciel libre. La FSFE défend l’idée que les libertés d’utiliser, de partager et d’améliorer les logiciels sont essentielles pour assurer une participation de tous à l’ère informatique. Nous travaillons en faveur d’une compréhension et d’un soutien global vis-à-vis du logiciel libre en politique, en droit et dans la société en général. Nous promouvons également le développement des technologies, telles que le système d’exploitation GNU/Linux, qui assurent ces libertés à tous les participants de la société numérique. Pour atteindre ces buts, nous avons une longue histoire d’implication active dans les processus de concurrence qui affectent le logiciel libre.

Le logiciel libre est une question de liberté, pas de prix.

Le terme « libre » dans logiciel libre évoque la notion de liberté, et non celle de prix (NdT la fameuse ambiguité sur le mot anglais free). Plus précisément, le logiciel libre offre aux utilisateurs les libertés suivantes :

  • exécuter le programme, sans limitation ;
  • étudier le code source du programme et comprendre comment il fonctionne ;
  • partager le programme avec d’autres, que cela soit gratuitement ou moyennant finance ;
  • améliorer le programme et distribuer ses améliorations.

Prises ensemble, ces quatre libertés font du modèle du logiciel libre une force puissante et disruptive pour la concurrence. Le logiciel libre a contribué de façon considérable à la rupture d’anciens monopoles construits par les fabricants de logiciels propriétaires tels que Microsoft.

Dans de nombreux domaines, les logiciels libres sont depuis longtemps les applications majeures, ou les alternatives concurrentes les plus puissantes. Cela inclut les serveurs web[2], la navigation web (Firefox), les suites bureautiques (LibreOffice, OpenOffice), et les systèmes d’exploitation de serveurs. 93% des 500 supercalculateurs mondiaux sont basés sur des systèmes d’exploitation libres.

Le logiciel libre est la norme pour les fabricants de périphériques embarqués, comme les télévisions « intelligentes », les routeurs DSL, et les ordinateurs de bord des voitures, pour ne citer qu’eux. De nos jours, des entreprises leaders du web, comme Facebook, Amazon et Google, s’appuient fortement sur le logiciel libre pour construire leurs offres. Le logiciel libre fait aussi fonctionner pléthore de startups et de concurrents avec des architectures et des services qui constituent des alternatives aux prestataires établis.

La tendance dans le mobile et ailleurs est irrémédiablement aux logiciels libres

Selon les sources accessibles au public, le fond de la revendication de FairSearch est qu’en « distribuant Android gratuitement », Google empêche les systèmes d’exploitation concurrents d’obtenir un retour sur investissement dans leur concurrence de « la plate-forme mobile dominante de Google ».

La FSFE s’oppose fermement à cette qualification : le logiciel libre est un moyen très efficace de produire et distribuer du logiciel. La vente de licences n’est que l’un des nombreux moyens de monétiser le logiciel.

Android est une plateforme logicielle construite autour du noyau Linux et de Java, par le fork Dalvik, ce qui est possible parce que Java et le noyau sont disponibles sous licence libre. N’importe qui peut prendre Android et le transformer en quelque chose de meilleur et de plus libre, avec ou sans liens avec Google, et ce aussi longtemps que le code source sera disponible, comme il l’est actuellement. Replicant et CyanogenMod sont simplement deux exemples notables, tous deux installés sur des millions de terminaux. L’adoption d’Android par Facebook pour ses propres besoins montre à quel point la plateforme est véritablement ouverte, au point qu’un concurrent peut proposer une interface graphique (GUI) alternative qui est essentiellement destinée aux services d’un concurrent.

En ce qui concerne Java, la Commission a déjà constaté la forte valeur d’une plateforme non fragmentée et reconnaît qu’il existe de fortes motivations à la prévention de sa fragmentation[3]. À tout le moins, Android a attiré les critiques du fait que ses conditions de licence et d’ouverture favorisent la fragmentation, contre ses propres intérêts. La fragmentation est une menace liée à la liberté de « forker ». Dans un contexte propriétaire, le contrôle étroit sur le droit d’auteur, les marques et les brevets empêche facilement la fragmentation. À l’inverse, dans un environnement libre, la fragmentation est évitée par le consensus, le l’autorité fondée sur le mérite, et parfois par l’utilisation de marques (Red Hat, Mozilla). Linux, le noyau commun aux systèmes d’exploitation Android et GNU/Linux a échappé jusqu’à présent à la fragmentation non pas parce qu’elle est impossible ou interdite ? elle ne l’est certainement pas ?, mais parce qu’elle ne rimerait à rien. Au sein d’une plateforme, assurer la plus large compatibilité et un haut degré de standardisation est une préoccupation constante de tout projet, et constitue d’une part une incitation forte pour éviter les abus de la communauté, et d’autre part une pression constante sur le ou les chefs de file du projet pour qu’ils avancent par consensus[4].

Afin de bien illustrer la façon dont le logiciel libre favorise la concurrence, nous faisons remarquer que tous les ajouts récents à la liste des systèmes d’exploitation mobiles sont largement du logiciel libre. Bien que les appareils Android représentent actuellement aux alentours de 70% des ventes de téléphones portables et tablettes, plusieurs autres systèmes d’exploitation mobiles libres basés sur le noyau Linux émergent pour entrer en concurrence avec Android. Les exemples incluent Firefox OS (soutenu par la fondation Mozilla), Jolla (issu des cendres de Maemo, un projet de la société Nokia interrompu suite à l’alignement stratégique de celle-ci sur Microsoft), Tizen (soutenu par Samsung, Intel et plusieurs opérateurs téléphoniques tels que Vodafone et NTT Docomo), et UbuntuMobile (soutenu par Canonical).

La distribution libre du code n’a rien a voir avec les prix prédatoires

Dans sa demande, la coalition FairSearch affirme que la disponibilité gratuite d’Android rend difficile ou impossible la concurrence sur le marché des systèmes d’exploitation mobiles.

Cependant, la vente de licences n’a jamais été une stratégie importante dans le marché du mobile. À la base, le constructeur de Blackberry, RIM, vendait des appareils et des logiciels et services pour les serveurs dans le secteur des entreprises. Apple a financé son iOS propriétaire grâce à ses services et composants vendu à la fois par Apple et par des entreprises tierces réduisant considérablement les revenus générés par le magasin en ligne iTunes. Nokia a essayé de maintenir deux systèmes d’exploitations différents, tous deux finalement libres (Symbian et Maemo, ensuite renommé en Meego, et maintenant forké par Jolla et son SailFish). Seul Microsoft a réussi à garder une position de vendeur de logiciel indépendant, arguant de l’avantage tiré de l’intégration avec ses services réseaux.

Il semblerait donc que le seul motif envisageable à la plainte de la coalition FairSearch soit que l’existence d’un certain nombre de systèmes d’exploitations mobiles libres, dont Android, rende la tache plus difficile à Microsoft pour reproduire son modèle économique dans le marché mobile. En soi, la demande de FairSearch à la commission revient à favoriser un modèle économique plutôt qu’un autre. C’est exactement à l’opposé de ce qu’une autorité de concurrence devrait appliquer pour maintenir un marché concurrentiel.

La FSFE a toujours clairement affirmé qu’une licence propriétaire est un système de production de logiciel obsolète et inefficace. De notre point de vu, Google n’a ni l’intention ni les moyens de monopoliser le marché du système d’exploitation mobile, tout simplement parce qu’il n’y a pas de marché des licences de systèmes d’exploitations propriétaires.

La pratique de prix prédatoires alléguée par FairSearch est clairement inadaptée à la réalité d’un marché où il n’y a pas de prix, et d’un produit qui, étant un logiciel libre, peut être littéralement pris par n’importe qui et « forké », ce qui est une pratique que la Commission avait déjà abordée précédemment. Il n’y a pas de distribution « à perte » pour le logiciel libre, parce que le prix des copies sur le marché du système d’exploitation mobile dans ces circonstances est précisément de zéro.

Les logiciels sont faciles à copier pour un coût quasi-nul. En termes économiques, cela signifie qu’il n’y a par définition pas de rareté dans les logiciels. Une telle rareté ne peut être introduite qu’artificiellement, l’utilisation d’une licence propriétaire étant le moyen le plus courant.

Au contraire, le logiciel libre crée un bien commun, auquel chacun peut participer, mais que personne ne peut monopoliser. Les logiciels libres créent ainsi de la richesse et augmentent les possibilités de croissance pour nombre de compagnies et de modèles économiques. Par exemple, Red Hat est une entreprise dont le chiffre d’affaire annuel atteint les 1.3 milliards de dollars, uniquement par la fourniture de services autour d’une distribution GNU/Linux. Android a sans nul doute créé un avantage compétitif pour Google ; mais, contrairement à Microsoft, Google ne se focalise pas sur les logiciels et la monopolisation de plateforme, mais sur les services, proposés sur n’importe quelle plateforme utilisée par le consommateur. Au contraire, des analystes estiment que Microsoft gagne plus d’argent grâce à Android qu’il n’en gagne à partir de Windows pour les appareils mobiles. Après l’engagement d’une politique de licence d’exploitation de ses brevets agressive à l’égard des fabricants d’appareils Android.

L’avantage compétitif de Google est essentiellement éphémère : la seule voie pour rester devant la concurrence dans les logiciels libres est de concevoir de meilleurs produits ou services et de gagner la confiance des utilisateurs. Le coût à l’entrée dans cette environnement concurrentiel est extrêmement bas. En effet, cette plateforme accepte des marchés d’applications alternatifs. Les différentes fondations du logiciel libre font campagne pour « libérer les Android » (Free Your Android) et sollicite l’adoption d’un marché d’application alternatif appelé F-Droid où sont uniquement proposés des logiciels libres.

Conclusion

Dans cette demande, la coalition FairSearch semble supposer que les régulateurs européens n’ont pas pris conscience des évolutions du marché du logiciel au cours de cette dernière décennie. Au lieu de mettre en évidence une menace réelle à la concurrence dans le marché du mobile, la demande de FairSearch donne l’impression que Microsoft (une entreprise condamnée pour son comportement anti-concurrentiel dans des procès de premier plan sur trois continents) essaye de revenir en arrière. L’entreprise est en fait en train de soutenir que la Commission devrait protéger son modèle économique dépassé dans le marché du mobile par un innovateur plus efficace. Nous nous permettons, avec votre respect, de ne pas être de cet avis.

La qualité d’Android comme ressource commune le rend très précieux pour les fabricants, précisément parce que Google ne peut le contrôler qu’à travers son impulsion, pas à travers une main de fer et un enfermement propriétaire, comme c’est le cas avec les alternatives propriétaires. Ce fait même devrait être considéré comme une grande incitation à la concurrence.

Nous recommandons à la Commission européenne d’écarter ce recours sans même ouvrir formellement de procédure. Éventuellement, si une déclaration de communication des griefs devait être notifiée, elle devrait éviter toute référence à la licence du logiciel libre comme source d’entrave à la concurrence. En effet, la qualité de logiciel libre d’Android devrait être considérée comme un outil puissant pour réduire les freins à une concurrence libre et améliorée.

À la FSFE, nous continuerons à travailler avec la Commission européenne pour promouvoir le logiciel libre comme un moyen de créer et maintenir la concurrence sur les marchés. Nous nous tenons prêts à assister la Commission dans toutes les affaires qui se rapportent au logiciel libre.

Bien à vous,

Karsten Gerloff, Président
Carlo Piana, Conseil général
Free Software Foundation Europe

Crédit photo : Laihiu (Creative Commons By)

Notes

[1] Souvent mentionné sous le nom « open source ». « Logiciel libre » est le nom original et plus précis qui reflète tous les aspects de ce phénomène.

[2] Au mois de Juin 2013, pas moins de 68% des sites internet actifs tournent grâce aux logiciels libres Apache et Nginx.

[3] Decision in Case No COMP/M.5529 – ORACLE/ SUN MICROSYSTEMS, paragraph 935.

[4] Decision in Case No COMP/M.5529 – ORACLE/ SUN MICROSYSTEMS, paragraph 655.




La musique peut-elle être libre ?

Michael Tiemann est vice-président de Red Hat mais il est aussi impliqué dans un ambitieux projet autour de la musique, The Miraverse qui propose notamment un studio d’enregistrement (fonctionnant, en toute logique, à l’aide de logiciels libres).

Il nous livre ici le fruit de ses réflexion en s’appuyant sur des citations de Glenn Gould et un projet dont nous vous reparlerons à la rentrée car Framasoft en sera le partenaire francophone : The Open Goldberg Variations.

La première édition du projet avait donné lieu à l’enregistrement directement dans le domaine public des Variations Goldberg de Bach. Il s’agira cette fois-ci d’enregistrer ensemble Le Clavier bien tempéré.

MusicRoom1b.jpg

La musique peut-elle être open source ?

Can there be open source music?

Michael Tiemann – 20 août 2013 – OpenSource.com
(Traduction : goofy, Sky, sinma, Asta, audionuma)

De l’eau a coulé sous les ponts depuis que les logiciels « open source » ont été baptisés ainsi en 1998. Le livre La cathédrale et le bazar a contribué à expliquer ce nouveau paradigme de la création des logiciels, et, avec le temps, les conséquences importantes et crédibles que Raymond avait prévues dans son essai s’avèrent aujourd’hui évidentes. Et il est possible qu’en raison de l’impressionnante liste des succès de la communauté du logiciel open source, ceux qui travaillent en dehors du domaine du développement de logiciels commencent à se demander : est-ce que de nouveaux paradigmes fondés sur les principes de l‘open source pourraient bouleverser aussi notre secteur ?

Nous avons vu cela arriver dans le monde du contenu créatif avec les Creative Commons. Larry Lessig, suivant une lecture simple de la constitution des États-Unis d’Amérique et s’appuyant sur beaucoup des intuitions publiées des années auparavant par Lewis Hyde dans le livre The Gift (NdT Le cadeau), a réalisé que bien qu’il n’y ait rien de mal en soi à commercialiser du contenu, il y avait quelque chose de terriblement mal à traiter les ressources culturelles comme privées, comme des propriétés aliénables à jamais. Lessig croyait, et je l’approuve, qu’il y a un bénéfice à donner au public des droits sur les contenus qui définissent leur culture, tout comme l‘open source donne à d’autres développeurs — et même aux utilisateurs — des droits sur les logiciels qu’ils possèdent. Regardez comment le public a utilisé ce droit pour créer Wikipédia, une collection phénoménale de l’un de nos artéfacts culturels qui ont le plus de valeur : la connaissance humaine.

Mais des limites à la portée de Wikipédia et ce qui est possible d’y être référencé sont apparues, notamment parce que beaucoup de créations culturelles qui auraient pu être des biens communs sont au contraire captives de copyrights pour une durée presque perpétuelle. La musique est une pierre angulaire de la culture, dans la mesure où les nations, les peuples, les époques, les mouvements politiques, idéologiques et culturels y font tous référence pour se définir, tout comme les individus se définissent eux-mêmes selon leurs gouts musicaux. Compte tenu de l’importance de la musique pour définir notre identité culturelle, dans quelle mesure devrions-nous en avoir la maîtrise, en particulier pour tout ce qui est censé relever du domaine public ?

Glenn Gould apporte une réponse étonnante à cette question dans deux essais écrits en 1966. Même si vous n’êtes pas un grand connaisseur de musique classique, vous avez sûrement déjà entendu les Variations Goldberg de JS Bach. Et dans ce cas, vous pouvez probablement remercier Glenn Gould car à l’âge de 22 ans, il a commencé sa carrière en signant un contrat et en six jours il a enregistré : Bach: The Goldberg Variations, en dépit du refus d’au moins un directeur de label. À l’époque, l’œuvre était considérée comme ésotérique et trop éloignée du répertoire pianistique habituel. Gould n’a pas cédé, et comme le mentionne Wikipédia : « Sa renommée internationale débute lors de son célèbre enregistrement des Variations Goldberg de juin 1955 dans les studios CBS de New York. Cette interprétation d’une vélocité et d’une clarté de voix hors du commun, et hors des modes de l’époque, contribuera notablement à son succès. ». Sans compter que dès lors les Variations Goldberg sont devenues un classique du piano.

Lorsque Gould a décidé en 1964 qu’il ne se produirait jamais plus en public pour se consacrer aux enregistrements en studio, le monde de la musique en a été très perturbé, parce que les concerts étaient considérés comme le summum de la culture musicale et les enregistrements comme une culture de seconde zone. Gould a répondu avec moults arguments à ces critiques sans chercher à en débattre mais en changeant le paradigme.

Ce qui n’a fait qu’irriter davantage les tenants de la musique institutionnelle. Voici l’essentiel du changement de paradigme tel que l’explique Gould dans The participant Listener :

Au centre du débat sur les technologies, il existe donc un nouveau type de public — un public qui participe davantage à l’expérience musicale. L’apparition de ce phénomène au milieu du vingtième siècle est le plus grand succès de l’industrie du disque. Car l’auditeur n’est plus seulement en position d’analyser passivement, c’est un partenaire dont les goûts, les préférences et les tendances modifient encore maintenant de façon latérale les expériences musicales qui retiennent son attention. C’est lui dont l’art de la musique à venir attend une participation bien plus grande encore.

Bien sûr, il représente également une menace, il peut vouloir s’arroger un pouvoir, c’est un invité indésirable au festin artistique, quelqu’un dont la présence met en péril la hiérarchie de l’institution musicale. Ce public participatif pourrait émerger, libéré de cette posture servile à laquelle on le soumet lors des concerts, pour, du jour au lendemain, s’emparer des capacités décisionnelles qui étaient jusqu’ici l’apanage des spécialistes ?

Il y aurait beaucoup à tirer des deux paragraphes ci-dessus, mais essayons un peu : considérez ce qui précède comme une allégorie dans le domaine musical du transfert de paradigme proposé par le logiciel open source. Cela semble difficile à imaginer aujourd’hui, mais quand j’ai proposé l’idée de lancer une entreprise qui fournirait un service de support commercial aux logiciels libres, une des objections majeures a été : « qu’il soit libre ou non, les utilisateurs ne veulent pas du code source. Ils ne veulent pas y toucher. Ils veulent payer pour la meilleure solution, un point c’est tout. ». Dans la logique de production du logiciel propriétaire, il était impossible d’envisager un seul instant que la meilleure solution pouvait fort bien inclure l’utilisateur devenu un contributeur du développement. Impossible alors de tolérer l’idée que des utilisateurs puissent assumer des capacités de décision qui étaient jusqu’alors le privilège de spécialistes. mais Cygnus Solutions a démontré que l’industrie du logiciel à venir attendait vraiment que les utilisateurs participent pleinement. Et il en va de même pour la création musicale, ce que Gould avait visiblement anticipé :

Le mot-clé ici est « public ». Ces expériences où l’auditeur rencontre de la musique transmise électroniquement ne font pas partie du domaine public. Un axiome bien utile, qui peut être appliqué à toute expérience dans laquelle la transmission électronique intervient, peut être exprimé à travers ce paradoxe : la possibilité d’avoir en théorie un public en nombre jamais atteint jusqu’à présent conduit à un nombre sans limites d’écoutes privées. En raison des circonstances que ce paradoxe suscite, l’auditeur est capable d’exprimer ses préférences et, grâce aux modifications par des moyens électroniques avec lesquels il ajoute son expérience, il peut imposer sa personnalité sur une œuvre. Ce faisant, il la transforme, de même que la relation qu’il entretient avec elle. Il fait d’une œuvre d’art un élément de son environnement sonore personnel.

Gould touche un point philosophique fondamental, qu’il est facile de mal interpréter en raison de la terminologie qu’il emploie. Il ne prétend pas que la transmission électronique aléatoire entraîne automatiquement que le contenu originel soit considéré comme un bien commun appartenant à tout le monde. Il dit plutôt que lorsque un signal électronique devient une expérience humaine, celle-ci n’est pas générique mais unique pour chaque individu. Et que l’avenir de l’art de la musique dépend de la façon dont on respectera le caractère individuel de cette expérience, au lieu de contraindre la transmission artistique à l’uniformité (à titre de note latérale, regardez un peu à quelles contorsions juridiques se livre l’industrie musicale actuelle pour prétendre que les téléchargements de fichiers numériques ne sont pas des « achats », par conséquents soumis aux règles de la vente, mais plutôt des « transactions », c’est-à-dire ne conférant aucun autre droit que celui d’être des récepteurs passifs, n’autorisant aucune autre posture que soumise).

Gould a écrit cela 20 ans avant que Lewis Hyde ne publie The Gift et 20 ans avant que Stallman n’écrive le Manifeste GNU. 30 ans avant que Lawrence Lessig n’écrive Code and other laws of Cyberspace et 30 ans avant que Eric Raymond n’écrive La cathédrale et le bazar. 40 ans avant que je ne commence à imaginer comment The Miraverse pourrait faire coïncider les idées des Creative Commons et de l’open source pour créer un futur nouveau et viable pour la musique. Mais maintenant, l’idée la plus audacieuse qu’il ait proposée (dans The Prospects of Recording) peut se réaliser :

Il serait relativement simple, par exemple, de fournir à l’auditeur la possibilité d’éditer les enregistrements à son gré. Bien entendu, un pas décisif dans cette direction pourrait bien résulter de ce processus par lequel il est désormais possible de dissocier la vitesse du tempo et en faisant ainsi (quoique avec une certaine détérioration de la qualité du son comme inconvénient) découper divers segments d’interprétations d’une même œuvre réalisée par différents artistes et enregistrées à différents tempos. Ce processus pourrait, en théorie, être appliqué sans restriction à la reconstruction d’un concert. Rien n’empêche en fait un connaisseur spécialisé de devenir son propre éditeur de bande sonore et, avec ces dispositifs, de mettre en œuvre son interprétation de prédilection pour créer son concert idéal personnel (…)

Il est vrai qu’à l’époque de Gould la technologie n’était pas disponible pour offrir au public de telles interactions : de son temps l’enregistrement multi-piste était incroyablement coûteux et disponible seulement dans quelques studios d’enregistrement commerciaux qui en avaient l’exclusivité. Mais aujourd’hui, les choses sont différentes, au moins sur le plan technologique. Ardour est une excellente station de travail audionumérique libre qui permet à n’importe quel ordinateur portable de devenir un puissant éditeur audio multipiste et un dispositif d’enregistrement. Et c’est ce que veulent les auditeurs participatifs. Mais les outils logiciels les plus puissants dans le monde ne peuvent pas créer un concert enthousiasmant à partir de rien, il doit y avoir un artiste qui est prêt à créer la trame sonore qui peut ensuite être mélangée et remixée selon les goûts de chacun. Et bien sûr, il doit y avoir un cadre de droits commerciaux qui ne mette pas toute l’entreprise par terre. C’est ce qui rend le projet Open Goldberg Variations si intéressant : il est la réponse au défi que Gould lançait il y a plus de 40 ans. C’est la prochaine étape de l’évolution de l’héritage musical qui va de JS Bach à nos jours en passant par Gould. Il invite chaque auditeur à devenir un participant à l’avenir de l’art de la musique.

Variations en open source majeure

Kimiko Ishizaka est l’artiste qui a franchi le pas de façon courageuse en tant que pianiste de concert pour transmettre une ressource culturelle en libérant à la fois le code source de l’œuvre de Bach (transcription professionnelle des partitions avec le logiciels libre MuseScore) et les données du concert lui-même (sous la forme d’un enregistrement audio) pour donner au public des expériences sans précédent à la fois de plaisir musical et du sentiment de liberté qui vient d’une action authentique. C’est-à-dire : l’action à créer ; l’action de manipuler à son gré ; l’action d’augmenter les biens communs en partageant ce dont on est passionné.

Revenons donc à la question initiale : la musique peut-elle être open source ? Ou plutôt, que peut-il advenir de la musique open source ? Les rencontres OHM 2013 viennent de conclure une semaine de « Observer, Modifier, Créer ». Un hacker qui s’y trouvait nous a proposé ses réflexions :

Un morceau de musique peut être considéré comme libre s’il y a un enregistrement de bonne qualité disponible sous une licence permissive (équivalent d’un binaire précompilé dans une distribution), et une partition de également bonne qualité, contenant toutes les instructions et les commentaires du compositeur original, disponible dans un format éditable et réutilisable, accompagné elle aussi d’une licence libre. Pensez-y comme si c’était le code source d’un logiciel que vous pourriez utiliser, compiler, interpréter, modifier, copier etc.

Le premier projet important destiné à mettre les œuvres de Jean-Sébastien Bach en open source a été Open Goldberg Variations (« Bach to the future ») avec l’aide du financement participatif. Vous pouvez télécharger les enregistrements audio sans perte de qualité réalisés par Kimiko Ishizaka, et la partition aux formats MuseScore ou XML, tout cela étant dans le domaine public.

C’est un très bon début. Ce qui en ferait un encore meilleur début serait que ça soit une communauté active qui l’accomplisse. Une communauté de personnes de divers horizons qui jouent chacun des rôles importants, qui travaillent ensemble pour créer ce que personne ne peut faire seul. Et un excellent environnement qui permette de publier sur une base fiable des œuvres commercialement rentables et approuvées par la critique.

Un tel environnement est The Miraverse, qui constitue l’essence de l’expérience des studios de Manifold Recording. D’un côté de la vitre de la cabine de mixage se trouve le studio (photo d’ouverture du billet ci-dessus), et de l’autre côté une console analogique API Vision qui peut enregistrer jusqu’à 64 pistes avec Ardour (ci-dessous).

CR_Ardour2.jpg

Ces environnements sont complétés par un troisième, le « Studio Annex », qui met à disposition une console Harrison Trion (qui tourne sous Linux) et permet de produire divers formats de son multicanal, avec jusqu’à 96 canaux audio à 96 kHz.

ACR-SideVideo.jpg

Dans ces studios, de la musique open source peut être enregistrée, auditionnée, et mixée avec le meilleur équipement audio, le meilleur environnement acoustique, et des logiciels open source. L’auditeur participant peut faire l’expérience d’un enregistrement (processus stupéfiant en lui-même) et des choix créatifs qui sont possibles une fois que le processus de mixage commence.

Souhaitez-vous devenir un auditeur participatif ? Kimiko Ishizaka s’apprête à faire une tournée en Europe et en Amérique du nord en prévision de son enregistrement du « Clavier bien tempéré ». Le premier concert aura lieu au festival Beethoven de Bonn en Allemagne le 24 septembre ; puis Mme Ishizaka se produira à Prague (25 et 26 septembre), Munich (30 septembre), Vienne, Hambourg, puis Bonn etc. (calendrier complet à lire au bas de la page http://opensource.com/life/13/8/open-music-open-goldberg).

Comme n’importe quel autre projet open source, votre intérêt et votre participation peuvent en faire non seulement un succès, mais un exemple pour l’industrie. C’est notre but. En participant à une de ces représentations, en participant à la campagne KickStarter Twelve Tones of Bach (ce qui est une façon d’acheter des tickets pour ces représentations), en participant à la tournée (le 3 novembre), vous pouvez pleinement profiter de votre propre expérience de la musique et des perspectives de l’enregistrement, tout en aidant le projet et ses acteurs à atteindre des objectifs plus ambitieux. Nous espérons vous voir cet automne… et encore souvent à l’avenir !




Saviez-vous que Mozilla est en train de détourner l’Internet ? par Glyn Moody

« Les cons ça ose tout, c’est même à ça qu’on les reconnaît » disaient nos tontons.

Je ne connaissais pas l’Interactive Advertising Bureau, organisation regroupant des acteurs de la publicité sur Internet, mais ce qui est sûr c’est qu’elle ne gagne rien à se ridiculiser en attaquant ainsi Mozilla (qui nous protège justement de la prolifération actuelle des cookies intrusifs).

Qu’en pensent Google, Microsoft, Orange, TF1, etc., tous membres de la branche française de l’Interactive Advertising Bureau ?

Commentaire : L’image ci-dessous est extraite de l’article de l’Interactive Advertising Bureau qui a fait bondir Glyn Moody. Ce serait donc Mozilla qui enferme ses utilisateurs, vraiment trop forts nos publicitaires !

Interactive Advertising Bureau vs Mozilla

Saviez-vous que Mozilla est en train de détourner l’Internet ?

Did You Know that Mozilla is Hijacking the Internet?

Glyn Moody – 12 août 2013 – ComputerWorld (Open Entreprise)
(Traduction Framalang : ane o’nyme, Sky, LordPhoenix, bruno, Cryptie, anneau2fer, simplementNat, Zii, greygjhart + anonymes)

Il y a quelques semaines j’ai relaté l’attaque à peine croyable de la branche européenne du « Interactive Advertising Bureau (IAB) » envers Mozilla au motif que cette dernière aurait « renoncé à ses valeurs » car elle persisterait à défendre les droits des utilisateurs à contrôler comment les cookies sont utilisés sur leur système.

Vu l’avalanche de moqueries venues de toutes part que cette énorme idiotie tactique a provoquée, on pouvait s’attendre à ce que des conseillers plus sages l’emportent et à ce que l’IAB se replie dans un petit coin tranquille, dans l’espoir que les gens arrêtent de se moquer et oublient simplement et complètement ce déplorable incident.

Mais non. au lieu de cela, l’IAB revient à la charge avec une nouvelle attaque sous la forme d’une pleine page achetée dans le magazine Advertising Age, encore plus énorme, plus forte et plus dingue (aussi disponible en ligne pour votre plus grand plaisir).

Sous le sobre titre : « Empêchez Mozilla de détourner l’internet », on peut lire :

De nos jours, il est facile de trouver le contenu qui vous intéresse sur Internet. Cela est dû au fait que les publicitaires peuvent adapter les annonces aux intérêts précis des utilisateurs grâce à l’usage responsable et transparent de cookies.

Je dois dire que je suis vraiment reconnaissant envers l’IAB de m’avoir ouvert les yeux en mettant ceci à jour parce que jusqu’à ce que je lise ce paragraphe, je nageais dans l’ignorance la plus totale et croyais naïvement que c’était les moteurs de recherches que j’utilisais, d’abord Lycos, puis Altavista, suivi de Google et désormais Startpage, qui me permettaient de trouver les choses qui m’intéressaient. Mais je réalise maintenant mon erreur : j’apprends qu’en fait c’est grâce à tous ces petits cookies si bien disséminés à mon insu dans mon système que j’ai trouvé tout ces trucs. Qui l’eût cru ?

Ces mêmes personnes de l’IAB qui ont eu l’obligeance de mentionner cela ont aussi de mauvaises nouvelles pour moi :

Mais Mozilla veux éliminer ces mêmes cookies qui permettent aux publicitaires de toucher le public, avec la bonne publicité, au bon moment.

Méchant Mozilla. Oh, mais attendez, en fait ce n’est pas ce que Mozilla fait. Il veut au contraire juste contrôler le flot de cookies qui proviennent de sites que vous n’avez pas visités et qui sont envoyés sur votre système, aussi appelés les cookies tiers. Voici une bonne explication de ce qui se passe ici :

Tous les acteurs tiers sont en marge de la transaction et peuvent ajouter de la valeur mais leur but premier diffère du bien ou du service recherché. Ces tierces parties sont plutôt comme le type qui fait le tour du parking avec ses prospectus pendant que vous faites vos courses et met des bons de réduction sur le pare-brise de tout le monde (Oh ! Jamais en panne, 169€ par mois ?). Il ne remplit pas les rayons, ni n’emballe vos courses, mais il fait quand même partie (indirectement ou marginalement) de l’opération « aller faire ses courses ».

Il ne s’agit donc pas d’une volonté de Mozilla d’éliminer les cookies en général mais simplement de donner à l’utilisateur le pouvoir de contrôler ces publicités ennuyeuses glissées sous vos essuie-glaces numériques quand vous visitez un supermarché virtuel.

Mais revenons à la fine analyse de l’IAB :

Mozilla prétend que c’est dans l’intérêt de la vie privée. En vérité nous pensons qu’il s’agit d’aider certains modèles d’affaire à prendre un avantage sur le marché et à réduire la concurrence.

Heu, parlons-nous du même Mozilla ? Vous savez le projet open source qui a certainement fait plus pour défendre les utilisateurs et le Web ouvert que personne ? Ce projet-là ? Car j’ai bien peur d’avoir du mal à imaginer ces codeurs altruistes « aider certains modèles d’affaire à prendre un avantage sur le marché et à réduire la concurrence ».

Je veux dire, Firefox a justement été spécifiquement créé pour accroître la concurrence ; le credo de Mozilla est que chacun devrait être libre d’utiliser le Web comme il l’entend, ce qui inclut toutes sortes de modèles économiques. Penser sérieusement que donner aux utilisateurs le contrôle de leur navigateur Firefox n’est pas défendre la vie privée mais une sorte complot maléfique destiné à miner l’ensemble de l’écosystème est, pour le formuler simplement, totalement cinglé. Peut être l’IAB vit-il dans univers parallèle ?

Les consommateurs ont déjà le contrôle sur les publicités ciblées qu’ils reçoivent via le programme d’auto-régulation de la Digital Advertising Alliance.

Pas de doute, l’IAB vit bien dans un univers parallèle, un univers dans lequel les gens ont réellement rencontré ce programme d’autorégulation de la Digital Advertising Alliance. Parce que je peux honnêtement dire qu’en 20 ans de promenades sur le Web, et bien trop d’heures passées en ligne chaque jour (comme mes abonnés sur Twitter, identi.ca et G+ le savent trop bien), je ne suis jamais tombé sur ce légendaire programme d’autorégulation de la Digital Advertising Alliance, et je sais encore moins comment l’utiliser pour contrôler les publicités que je reçois. Et je me retrouve, dans ce lamentable état d’ignorance, qui suggère plutôt que peu d’autres personnes utilisant l’Internet sont tombés sur le programme d’autorégulation de la Digital Advertising Alliance ou l’ont utilisé (est-ce qu’un lecteur ici est déjà tombé dessus, je me le demande).

En fait, je pense que l’IAB a commis ici un autre faux pas. En mentionnant le programme d’autorégulation de la Digital Advertising Alliance comme une « solution » existante qui rend caduques les projets de Mozilla pour maîtriser les cookies tiers, un programme qui, autant que je puisse en juger, est utilisé par très peu de gens, l’IAB a ainsi mis en évidence le fait qu’il n’y a pas vraiment d’alternative viable à Mozilla.

Je dois également souligner le fait que l’image (voir plus haut) utilisée dans l’article en question, un ordinateur portable enchainé, relève au mieux de l’ignorance, au pire constitue une insulte pour les centaines de milliers de personnes qui ont contribué au projet Mozilla au cours de ces 15 dernières années. Mozilla s’est voué à libérer le Web et ses utilisateurs d’un monopole qui menaçait de le détruire : il est difficile de penser à une image moins appropriée !

Et si l’IAB se préoccupe vraiment de qui peut faire pression sur nos ordinateurs et nous ôter notre liberté avec des centaines de fichiers minuscules qui nous épient où que l’on aille sur Internet, et s’inquiète de qui est vraiment en train de prendre en otage les incroyables ressources du Net, que Mozilla a beaucoup contribué à développer, il ferait bien de se regarder dans une glace…




Eben Moglen : l’innovation sous l’austérité

Voici une traduction d’une conférence qu’Eben Moglen a donnée il y a déjà un an à Washington en 2012, mais ses propos demeurent d’une actualité brûlante aujourd’hui. J’avais déjà traduit une de ses interventions ici. Peu de personnes parlent aussi bien que lui pour expliquer le lien entre le logiciel libre et nos libertés personnelles. Cette fois il revient nous parler non seulement de libertés, mais aussi d’économie, ce qui ne manquera pas d’intéresser tout homme politique (ou personne qui s’y intéresse). L’intégralité de cette vidéo est disponible sur la plateforme Amara qui m’a permis de la sous-titrer en français. Si des bonnes volontés ont envie de faire une relecture et d’achever la session de questions/réponses, elles sont plus que bienvenues. Bonne lecture !

Sylvain

L’innovation sous l’austérité

(…) Je vais parler principalement d’un sujet qui est presque aussi geek que les choses dont on parle tous tout le temps, c’est-à-dire de politique économique. Je vais essayer d’en parler d’une manière moins ennuyeuse que d’habitude, mais vous me pardonnerez j’en suis sûr de commencer assez loin d’OpenSSL, nous nous en rapprocherons au fur et à mesure plus tard.

Les économies développées dans le monde, commencent toutes à connaître maintenant un état de crise fondamentalement identique. Elles sont obligées d’imposer l’austérité car les niveaux d’endettement privé ont cassé les rouages de l’économie, et la volonté des détenteurs de capitaux de prendre des gros risques avec l’argent d’autres personnes a fini par donner des résultats désastreux au cours de cette dernière décennie. Et donc l’austérité est une position inévitable et dommageable sur le plan politique pour tous les gouvernements du monde développé, et certains de ces gouvernements sont entrés dans un processus auto-destructeur, dans lequel le besoin d’imposer l’austérité et de réduire les subventions publiques et les mesures sociales pour les jeunes stoppe la croissance économique, ce qui empêche l’austérité de produire ses résultats désirables. Au lieu de supprimer de mauvaises dettes et de reprendre la croissance, nous sommes les spectateurs d’un théâtre où la troisième économie du monde, l’Union européenne, se trouve proche de voir un effondrement de sa monnaie et une génération perdue, ce qui aurait des conséquences néfastes sur toute l’économie mondiale.

Pour les décideurs politiques, je vois que peu d’entre eux sont là aujourd’hui, ils ont bien sûr mieux à faire que de nous écouter, pour les politiciens en d’autres mots, il s’agit de faire face maintenant à un problème insurmontable : comment a-t-on de l’innovation et de la croissance sous l’austérité ?

Ils ne connaissent pas la réponse à cette question, et cela devient si urgent que cela commence à miner leur contrôle politique. Des partis marginaux dans plusieurs sociétés très développées et très avancées commencent à attirer de nombreux suffrages, et à menacer la stabilité même de la capacité des décideurs économiques à résoudre (ou essayer de résoudre) le problème de l’innovation sous l’austérité.

Ce n’est une bonne nouvelle pour personne. Ce n’est bon pour personne. Nous n’avons pas d’occasion de nous réjouir de ce résultat, qui est largement le résultat de l’incompétence de ces personnes qui disent mériter tout cet argent parce qu’elles sont si intelligentes, c’est en partie la conséquence d’une lâcheté des politiciens qui leur ont laissé trop d’espace. Ce n’est pas que nous soyons ravis de voir cela arriver, mais il y a un bon côté. Peu de personnes dans le monde savent comment avoir de l’innovation sous l’austérité. Nous en faisons partie.

Nous avons produit de l’innovation sous l’austérité pendant cette dernière génération, et non seulement nous avons fait des innovations plutôt bonnes, nous avons fait des innovations dont toutes les autres personnes riches se sont attribuées le crédit. La majeure partie de la croissance qui s’est produite pendant cette période folle et mouvementée où ils ont pris de l’argent d’autres personnes et sont allés faire des paris avec, c’est de l’innovation que nous avons produite pour eux. Donc maintenant, en dépit des circonstances désastreuses que l’on peut nous aussi regretter, car le chômage est celui de mes étudiants qui obtiennent leur diplôme, de vos enfants, et de tous ces autres jeunes dont la vie sera abîmée pour de vrai par la mauvaise situation économique actuelle. Les gens qui commencent leur carrière maintenant souffriront de baisses de salaire pendant leur vie. Leurs enfants auront un moins bon départ dans la vie en raison de ce qui arrive maintenant, on ne peut pas s’en réjouir.

Mais nous avons une occasion politique très réelle, car nous avons la réponse à la question la plus importante qui fait maintenant courir tous les décideurs politiques dans le monde. Cela veut dire que nous avons quelque chose de très important à dire, et je suis venu ici ce matin principalement pour commencer la discussion sur la manière dont on devrait précisément le formuler.

Et je veux présenter une première ébauche fonctionnelle de notre argumentaire, je dis « notre » car je regarde autour de moi et je vous vois ici ce matin. Notre argumentaire sur ce que l’on doit faire avec le bazar dans lequel se trouve le monde. L’innovation sous l’austérité n’arrive pas en collectant beaucoup d’argent pour payer des intermédiaires de l’innovation. Un des aspects les plus importants de la politique économique du XXIe siècle, c’est le processus que l’on appelle la désintermédiation, quand on jargonne, elle est impitoyable, constante, et sans répit. La télévision est en train de disparaître. Je n’ai pas besoin de vous le dire, vous le savez déjà. Personne n’essaiera plus jamais de créer une encyclopédie commerciale. Les machines pourries d’Amazon, qui vous permettent de lire des livres sauf si je décide de vous les reprendre, transforment l’édition en éliminant le pouvoir de sélection des éditeurs, tout comme M. Jobs a presque détruit la totalité de l’industrie musicale sous le prétexte de la sauver. Une tâche que son fantôme est déjà en train de faire pour les éditeurs de magazines comme vous pouvez le voir.

Le Web lui-même est le résultat d’une innovation sans intermédiaires.

La désintermédiation, le mouvement d’émancipation qui nous vient du cœur même du Net, est un fait crucial sur la politique économique du 21e siècle. Elle démontre son existence tout le temps. Quelqu’un va gagner un prix Nobel en économie pour décrire en termes formels la nature de la désintermédiation. Les intermédiaires qui ont fait de bonnes affaires pendant les dix dernières années sont confinés à deux ensembles?: les assureurs pour la santé aux États-Unis, en raison d’une pathologie politique, et la finance.

Les assureurs de santé aux États-Unis sont peut-être capables de capitaliser sur une pathologie politique continuelle pour rester des intermédiaires chers et peu sûrs pour un peu plus de temps. Mais la finance s’est fait dessus dans sa propre niche, et se dégonfle maintenant, et va continuer ainsi pour quelques temps. En conséquence, comme les décideurs politiques l’observent à travers le système économique, la réalité que la désintermédiation s’établit et qu’on ne peut pas l’arrêter, elle devient un point de repère dans la définition de la politique industrielle nationale. Donc nous devons affirmer que c’est vrai pour l’innovation aussi.

La plus grande invention technologique de la fin du Xe siècle est la chose que nous appelons la grande toile mondiale, une invention qui est âgée de moins de 8000 jours. Cette invention est déjà en train de transformer la société humaine plus rapidement qu’aucune autre chose depuis l’adoption de l’écriture. Nous en verrons davantage de preuves. La nature de ce processus, cette innovation, alimente la désintermédiation, en permettant à toutes sortes de contacts humains de se produire sans intermédiaires, sans acheteurs, vendeurs, agents, ou contrôleurs, et offre un espace dans lequel se déroule une guerre pour la puissance et le pouvoir de contrôle social, un sujet auquel je reviendrai dans quelques minutes. Pour l’instant, ce sur quoi je veux attirer l’attention, c’est le fait capital que le Web lui-même est un résultat d’une innovation sans intermédiaires.

Ce que Tim a fait le premier au CERN n’était pas le Web que l’on connaît maintenant, le Web qu’on connaît a été conçu par un très grand nombre d’invividus à travers une innovation sans intermédiaires. Je me rappelle ce que j’ai écrit sur le futur des pages personnelles en 1995, et je vois plus ou moins arriver ce que je pensais qu’il arriverait. J’avais dit alors que ces quelques pages personnelles étaient des jeunes pousses, et qu’une prairie allait apparaître, et ce fut le cas.

Les réseaux sociaux ne devraient pas exister avec une faille de l’homme du milieu incluse dès le départ.

Bien sûr, comme avec toute autre innovation, il y eut des conséquences inattendues. Le navigateur rendit le Web très facile à écrire. Bien qu’on ait construit Apache, bien qu’on ait fait des navigateurs, bien qu’on ait conçu un tas de choses par dessus Apache et les navigateurs, on n’a pas rendu le Web facile à écrire. Donc une petite frappe vêtue d’un pull à capuche a rendu le Web facile à écrire, et a créé une faille de l’homme du milieu[1] dans la civilisation humaine, (petits rires dans le public) qui déclenche maintenant toute une série de maux sociaux. Mais c’est l’innovation intermédiaire dont on devrait se soucier. On a rendu tout possible, y compris malheureusement PHP, et puis des intermédiaires de l’innovation l’ont transformé en cette horreur qu’est Facebook. Cela ne s’avérera pas être, comme on peut déjà le voir d’après les marchés de la bourse, une forme d’innovation sociale particulièrement positive. Elle va enrichir quelques personnes, le gouvernement d’Abu Dhabi, un gangster russe qui a déjà plusieurs milliards de dollars, un type qui est impatient de changer de nationalité afin de n’avoir plus à payer d’impôts pour soutenir les écoles publiques, et quelques autres reliques du bazar du XXe siècle.

Mais la réalité de l’histoire dessous tout ça, c’est que si on avait eu un peu plus d’innovation sans intermédiaires, si on avait fait en sorte qu’opérer son propre serveur web soit facile, si on avait expliqué aux gens dès le tout début à quel point les journaux des serveurs sont importants, et pourquoi vous ne devriez pas laisser d’autres personnes les garder pour vous, nous serions dans une situation très différente maintenant. Le prochain Facebook ne devrait jamais exister. C’est de l’innovation des intermédiaires qui sert les besoins des capitalistes, pas ceux des gens, ce qui ne veut pas dire que les réseaux sociaux ne devraient pas exister, ils ne devraient pas exister avec une faille de l’homme du milieu incluse dès le départ. Tout le monde dans cette pièce sait cela. La question est de savoir comment on l’apprend à tout le monde.

Mais si j’ai beaucoup de considération pour tout le monde, maintenant je veux vous parler des décideurs politiques. Comment est-ce qu’on leur explique ? Et là on commence à séparer le discours en deux parties bien distinctes. Premièrement, que sait-on de la manière d’obtenir de l’innovation sous l’austérité. Deuxièmement, qu’est-ce qui empêche les gouvernements d’être d’accord avec nous là-dessus ?

Donc permettez-moi de vous présenter ma première ébauche d’un plaidoyer pour l’innovation sous l’austérité. Il est intitulé « Nous avons fait l’informatique dans les nuages ».

Tout le monde comprend cela dans cette pièce. Le sens même de ce qui est en train d’arriver aux technologies de l’information dans le monde maintenant, est en rapport avec ce qui est arrivé à la fin du XXe siècle. Nous avons imaginé qu’on pouvait partager les systèmes d’exploitation et toute la pile logicielle par-dessus. Nous l’avons fait en utilisant la curiosité des jeunes. C’était le moteur, pas le capital-risque. Nous y avions travaillé pendant 15 ans, et notre bousin tournait déjà partout, avant que le capital-risque ou les capitaux accumulés par les géants des industries de l’informatique n’investissent. Ils sont venus vers nous pas parce que l’innovation devait se faire, mais parce que l’innovation avait déjà été créée, et qu’ils avaient besoin d’en tirer les profits. C’était un résultat extrêmement positif, je n’ai rien de mal à en dire. Mais la nature de ce résultat, l’histoire qu’on a en effet vécue et que d’autres peuvent maintenant étudier, montrera comment l’innovation sous l’austérité peut se produire. C’est très bien de dire que c’est arrivé car on a suscité la curiosité des jeunes, c’est historiquement correct. Mais il y a d’autres choses à dire.

…donner aux jeunes la possibilité de bidouiller le monde réel

Ce que l’on a besoin d’exprimer, c’est que la curiosité des jeunes pouvait être excitée, car toutes sortes d’ordinateurs dans leur vie de tous les jours pouvaient être hackés. Et donc les jeunes pouvaient hacker ce que tout le monde utilisait. Cela a rendu l’innovation possible, où elle pouvait se produire, sans problème, tout en bas de la pyramide du système économique. Cela est en train de se passer autre part dans le monde de la manière dont c’est arrivé aux États-Unis dans les années 80. Des centaines de milliers de jeunes dans le monde qui hackent des ordinateurs portables, des serveurs, qui hackent des ordinateurs à usage général afin de pouvoir satisfaire leurs lubies, des lubies techniques, sociales, pour une carrière, ou juste pour s’amuser. « Je veux faire ceci, cela serait cool ». C’est la source primaire de l’innovation qui a poussé toute le développement de la grande croissance économique dans le monde ces dix dernières années. Toutes la croissance, des milliers de milliards de transactions avec le commerce électronique. Ceux d’entre vous qui sont assez vieux pour se rappeler s’être battus bec et ongle pour un système de chiffrement public, se rappelleront l’intensité de leur combat quand la politique du gouvernement états-unien était d’empêcher l’apparition dans le monde d’un marché d’une valeur de 3800 milliards de dollars de transactions de commerce électronique.

Nous étions (soi-disant) des partisans du terrorisme nucléaire et de la pédophilie au début des années 1990, et tout l’argent qu’ils ont gagné dans les campagnes de don, avec les profits d’intérêts privés, et tout le reste, c’est grâce à la mondialisation du commerce que nous l’avons rendu possible, avec la technologie pour laquelle ils voulaient envoyer nos clients en prison. Cela montre clairement à la prochaine génération de décideurs politiques, je pense, à quel point leur adhésion à des idées reçues est susceptible de contribuer au processus auto-destructeur dans lequel ils redoutent maintenant d’être entraînés. Et cela devait nous encourager à souligner encore que la meilleure façon pour qu’une innovation arrive, c’est de donner aux jeunes l’opportunité de la créer, avec des moyens qui leur permettent de créer une infrastructure avec laquelle ils pourront bidouiller le monde réel, et de partager les résultats.

Quand Richard Stallman a rédigé l’appel pour une encyclopédie universelle, lui et Jimmy Wales et moi-même étions bien plus jeunes alors, c’était considéré comme une idée fantaisiste. Cela a maintenant transformé la vie de toute personne qui sait lire dans le monde. Et cela va continuer ainsi.

Le laboratoire informatique dans la poche de chaque enfant de 12 ans est en train de se fermer.

La nature de l’innovation faite par Creative Commons, par le mouvement du logiciel libre, par la culture libre, ce qui transparaît dans le Web et dans Wikipédia, dans tous les systèmes d’exploitation libre qui font maintenant tout tourner, même l’intérieur de ces choses d’Apple fermées et vampiriques que je vois tout autour de cette pièce… toute cette innovation vient de la simple action de laisser des gamins bidouiller et de leur laisser le champ libre, ce que, comme vous le savez, on essaie aussi fortement que possible d’interdire complètement. De plus en plus, tout autour du monde, le matériel informatique de la vie de tous les jours pour des individus est fait de telle façon qu’on ne peut pas le hacker. Le laboratoire informatique dans la poche de chaque enfant de 12 ans est en train de se fermer.

Quand on est entré dans la phase 3 des négociations de la GPL3 contre l’enfermement au cours de cette dernière décennie, il y avait une certaine croyance que le but principal que M. Stallman et moi poursuivions en poussant tout le monde à ne pas verrouiller, avait quelque chose en rapport avec les films prohibés. Et on a continué à dire, « Ce n’est pas la fondation du film libre. Nous ne nous soucions pas de cela. Nous nous soucions de protéger les droits de tout le monde à hacker ce qu’ils possèdent. Et la raison pour laquelle on s’en soucie, c’est que si vous empêchez les gens de hacker ce qu’ils possèdent eux-mêmes, vous détruirez le moteur de l’innovation duquel tout le monde profite ».

C’est toujours vrai. Et c’est plus important maintenant précisément parce que très peu de personnes pensaient qu’on avait alors raison, et n’ont pas fait d’efforts elles-mêmes pour défendre ce point de vue. Et maintenant vous avez Microsoft qui dit qu’ils ne vont pas autoriser de navigateurs tiers avec des machines basées sur ARM avec Windows. Et vous avez le fantôme de M. Jobs qui essaye de trouver comment empêcher une suite libre d’exister en relation avec IOS, et vous avez un monde dans lequel le but des opérateurs réseau est de plus en plus d’attacher chaque jeune humain à un réseau propriétaire avec des terminaux verrouillés, desquels on ne peut rien apprendre, qu’on ne peut pas étudier, pas comprendre, sur lesquels pas se faire les dents, rien faire sauf envoyer des textos qui coûtent un million de fois plus qu’ils ne devraient.

Cela a une deuxième conséquence de grande importance. L’innovation sous l’austérité arrive en premier lieu car la curiosité des jeunes est suscitée par l’amélioration des situations réelles de la vie de tous les jours. La conséquence de second ordre, c’est que la population devient plus éduquée.

La désintermédiation commence à arriver dans l’éducation supérieure aux États-Unis, ce qui veut dire que cela commence à arriver dans l’éducation supérieure dans le monde entier. On a actuellement deux modèles. Coursera est essentiellement la googlisation de l’éducation supérieure, un projet dérivé de Stanford en tant qu’entreprise pour le profit, utilisant des logiciels fermés et des ressources éducatives propriétaires. MITx, qui a maintenant edX à travers la formation en partenariat avec l’université Harvard est essentiellement la réponse du monde libre, des programmes similaires et évolutifs pour l’éducation supérieure, fournis à travers du logiciel libre en utilisant des ressources éducatives. Nous avons un très gros enjeu dans le résultat de cette concurrence. Il nous importe à tous de fournir autant d’énergie que possible en soutien aux solutions qui reposent sur un programme libre que tout le monde peut modifier, utiliser, et redistribuer, et autres ressources éducatives basées sur la même politique économique.

Chaque société qui essaie en ce moment de reprendre l’innovation dans le but de redémarrer une croissance économique dans un contexte d’austérité a besoin de davantage d’éducation, qui soit disponible a un coût plus bas, et qui forme des jeunes esprits de manière plus efficace pour créer des nouvelles choses dans les entreprises. Cela ne sera pas réalisé sans précisément les formes d’apprentissage social que nous avons expérimentées. Nous avons dit depuis le début que le logiciel libre est le système éducatif technique le plus abouti au monde. Il permet à quiconque sur la planète d’accéder à ce qui se fait de mieux de ce qu’on peut faire dans l’informatique, en lisant ce qui est disponible librement, en le testant et en partageant librement les résultats. De la vraie science informatique. Des expériences, des formulations d’hypothèses, davantage d’expériences, davantage de connaissances pour l’être humain.

L’universalisation de l’accès au savoir est l’atout primordial le plus important dont nous disposions, pour augmenter l’innovation et le bien-être de l’humanité sur la terre.

Nous devions développer cela dans d’autres domaines de la culture, et de grands héros comme Jimmy Wales et Larry Lessig ont posé les bases de l’infrastructure pour le faire, nous devons maintenant faire en sorte que nos gouvernements comprennent comment aller plus loin.

Le comité directeur sur les médias et la société de l’information de la commission européenne a publié un rapport il y 18 mois dans lequel ils disaient qu’ils pouvaient scanner 1/6 de tous les livres dans les bibliothèques européennes pour le coût de 100 km de route. Cela veut dire, et c’est toujours vrai, que pour le coût de 600 km de route, dans une économie qui construit des milliers de kilomètres de route chaque année, chaque livre dans toutes les bibliothèques européennes pourrait être disponible pour l’humanité toute entière, cela devrait être fait. (quelqu’un crie « Copyright ! » dans le public) Rappelez-vous que la plupart de ces livres sont dans le domaine public, avant que vous ne me criiez « copyright ». Rappelez-vous que la majorité de ce qui représente le savoir humain n’a pas été fait récemment, avant que vous ne me criiez « droit d’auteur ». On devrait entrer dans un monde où toutes les connaissances précédemment disponibles auparavant seront universellement accessibles. Sinon on freinera l’innovation qui permet la croissance. C’est un pré-requis social. Le système du droit d’auteur n’est pas immuable, il est juste commode. Nous n’avons pas à commettre de suicide culturel ou intellectuel, de manière à maintenir un système qui ne s’applique même pas à presque tout le savoir humain important dans la plupart des disciplines. Platon n’est pas détenu par qui que ce soit.

Donc nous en sommes là, à nous demander à quoi va ressembler le système éducatif du XXe siècle, et comment il va distribuer la connaissance socialement à travers l’humanité. J’ai une question pour vous. À combien d’Einstein qui ont jamais vécu on a laissé la possibilité d’apprendre la physique ? Quelques-uns. Combien de Shakespeare ont jamais vécu et sont décédés sans apprendre à lire et écrire ? Des quantités. Avec 7 milliards de personnes dans le monde en ce moment, 3 milliards sont des enfants. Combien d’Einstein voulez-vous rejeter aujourd’hui ? L’universalisation de l’accès au savoir est l’atout primordial le plus important dont nous disposions, pour augmenter l’innovation et le bien-être de l’humanité sur la terre. Personne ne devrait avoir peur de militer pour cela parce que quelqu’un pourrait crier « droit d’auteur ».

Donc nous nous intéressons maintenant à la conséquence de second ordre, de ce qu’on comprend sur comment susciter l’innovation sous l’austérité. Améliorer l’accès aux outils qui permettent d’apprendre, adapter la technologie pour permettre aux scientifiques qui n’ont pas 20 ans de mener des expériences et de partager les résultats, permettre la continuité de la croissance de l’univers des technologies de l’information que nous avons créées, en partageant depuis ces vingt-cinq dernières années, et on pourrait connaître les plus hauts taux d’innovation qu’on puisse atteindre, en dépit d’un baisse massive des investissements dans le social qui a lieu à cause de l’austérité.

Les règles ont changé. Les gouvernements ne le savent pas.

Nous donnons aussi aux jeunes la possibilité de mieux prendre en mains leur futur économique et professionnel, un impératif inévitable si on veut avoir une stabilité politique et sociale pour la prochaine génération. Personne ne devrait se berner d’illusions sur les chances d’amélioration sociale dans des sociétés où 50% des personnes de moins de 30 ans sont sans emploi. Cela ne va pas se résoudre en leur donnant du travail à la chaîne pour faire des voitures. Tout le monde comprend cela. Les gouvernements lèvent ensemble leurs mains aux ciel sur la question de ce qu’il faut faire de cette situation. Cela explique la rapidité avec laquelle dans les systèmes de représentation proportionnelle, les jeunes gens abandonnent les partis politiques traditionnels. Quand les pirates prennent 8,3% des voix dans le Schleswig-Holstein, il est déjà clair que les jeunes gens réalisent que les décisions politiques des partis traditionnels ne vont pas porter sur leur futur bien-être économique. Et nous devons écouter, de manière démocratique, le grand nombre de jeunes gens dans le monde qui se lèvent pour affirmer que les libertés numériques et une fin de l’espionnage et de la surveillance sont nécessaires à leur bien-être et à leur capacité à créer et vivre.

La désintermédiation signifie qu’il y aura plus de prestataires de services à travers l’économie avec laquelle nous sommes directement en contact. Cela veut dire plus de travail en dehors de la hiérarchie, et moins de travail dans la hiérarchie. Les jeunes dans le monde, qu’ils soient mes étudiants en droit qui vont avoir leur licence, ou des ingénieurs informatiques qui vont débuter leur carrière, ou des artistes, ou des musiciens, ou des photographes, ont besoin de plus de liberté sur le Net, et de plus d’outils avec lesquels créer des plateformes innovantes de services pour eux-mêmes. C’est un défi que leurs aînés n’auraient pas relevé avec succès en 1955, mais nous sommes une nouvelle génération d’êtres humains qui travaillent dans de nouvelles conditions, et ces règles ont changé. Ils savent que les règles ont changé. Les indignados dans chaque parc en Espagne savent que les règles ont changé. Ce sont leurs gouvernements qui ne le savent pas.

Cela nous ramène, je vous le concède, à la question de l’anonymat, ou plutôt de l’autonomie personnelle. Un des éléments vraiment problématiques pour enseigner à la jeune génération, du moins les jeunes auxquels j’enseigne sur les questions de vie privée, c’est qu’on utilise l’expression « vie privée » pour signifier plusieurs choses assez distinctes. La vie privée veut parfois dire le secret. C’est-à-dire que le contenu d’un message est secret pour tout le monde, sauf son créateur et son destinataire. La vie privée veut dire parfois l’anonymat. Cela veut dire que les messages ne sont pas secrets, mais que lieux d’émission et de réception le sont. Et il y a un troisième aspect de la vie privée, que j’appelle autonomie dans mes cours. C’est la chance de vivre une vie dans laquelle les décisions que vous prenez ne sont pas influencées par l’accès des autres à des communications secrètes ou anonymes.

Il y a une raison pour laquelle les villes ont toujours été des moteurs de croissance économique. Ce n’est pas parce que les banquiers y vivent. Les banquiers y vivent car les villes sont des moteurs de croissance économique. La raison pour laquelle les villes ont été des moteurs de croissance économique depuis l’antiquité, c’est que les jeunes s’y déplacent pour inventer de nouvelles manières d’exister, en tirant avantage du fait que la ville est le lieu où vous échappez à la surveillance du village, et du contrôle social de la ferme. « Comment est-ce que vous allez les retenir à la ferme une fois qu’ils ont vu Paris ? » était une question sensée en 1919, et elle avait beaucoup à voir avec la façon dont le XXe siècle fonctionnait aux États-Unis. La ville est le système historique pour l’obtention de l’anonymat et la capacité à tester de manière autonome des façons de vivre. Nous le supprimons.

Il y a quelques années, c’est à dire au début de 1995, nous avions un débat à l’école de droit de Harvard sur la clé de chiffrement publique, deux paires de personnes. Dans un camp se trouvaient Jamie Gorelick, alors secrétaire d’état à la justice aux États-Unis, et Stewart Baker, alors comme maintenant employé à Steptoe & Johnson quand il ne travaille pas dans le gouvernement des États-Unis pour faire des politique sociales horribles. De l’autre côté se trouvaient Danny Weitzner, alors à la Maison-Blanche, et moi. Et on a passé l’après-midi à échanger pour savoir si on devait confier nos clés au gouvernement des États-Unis, si la puce du nom Clipper allait fonctionner, et de plein d’autres sujets très intéressants maintenant aussi obsolètes que Babylone. Et une fois tout cela fini, on a traversé le campus de Harvard pour dîner au club de la faculté d’Harvard, et sur le chemin à travers le campus, Jamie Gorelick me dit : « Eben, sur la seule base de ce que tu as dit publiquement cet après-midi, c’est suffisant pour que je donne l’ordre d’intercepter tes conversations téléphoniques. » En 1995, c’était une blague. C’était une blague de mauvais goût quand elle était racontée par un fonctionnaire du ministère de la justice états-unien, mais c’était une blague, et on a tous rigolé car tout le monde savait qu’ils ne pouvaient pas le faire.

Donc nous avons mangé notre dîner, et la table fut débarrassée et toutes les assiettes furent enlevées, et le porto et les noisettes furent emportés, et Stewart Baker me regarda et me dit « ok, détachons nos cheveux », et il n’en avait pas alors, et il n’en a pas maintenant, mais « on va détacher nos cheveux » dit Stewart, « on ne va pas poursuivre votre client M. Zimmermann. On a consacré des décennies à se battre contre les clés de chiffrement publiques, cela a plutôt bien marché, mais c’est presque terminé, on va laisser cela arriver. » Et puis il regarda autour de la table, et il dit : « mais personne ici ne se soucie de l’anonymat, n’est-ce pas ? ». Et je fus pris d’un frisson.

Et je pensai : « OK, Stewart, je comprends ce qu’il se passe. Tu vas laisser arriver le chiffrement à clé publique car les banquiers vont en avoir besoin. Et tu vas consacrer les 20 prochaines de ta vie à essayer d’empêcher les gens d’être anonymes pour toujours, et je vais consacrer les 20 prochaines années de ma vie à essayer de t’arrêter. » Jusqu’ici, je dois dire que mon ami M. Baker a fait mieux que je ne l’avais espéré, et j’ai fait pire que ce que je craignais. C’est en partie à cause du gangster avec la capuche, et en partie pour d’autres raisons. Nous sommes proches d’éliminer le droit humain de la vie privée. Nous sommes proches d’éliminer le droit humain de la libre pensée, dans votre propre maison, selon votre propre manière, sans que personne ne le sache. Quelqu’un vient de prouver dans cette pièce il y a juste quelques minutes que s’il fait des courses sur un site d’achat particulier en utilisant un navigateur, il obtient un prix différent avec un autre navigateur, car un de ses navigateurs est relié à son historique de navigation : les prix, les offres, les produits, les bonnes affaires, sont maintenant basés sur la fouille intégrale des données. Un haut fonctionnaire du gouvernement m’a confié depuis que les États-Unis ont changé la loi sur la durée de rétention de données de toute personne qui n’est suspecte de rien. Vous savez tout ça, n’est-ce pas ? Un mercredi pluvieux, un 21 mars, bien après la fermeture des commerces, le ministère de la justice et le DNI, c’est le directeur du renseignement intérieur, ont publié ensemble un communiqué de presse annonçant des changements mineurs sur les lois Ashcroft, en incluant un petit changement qui dit que toute donnée personnelle identifiable dans les bases de données du gouvernement au centre national anti-terrorisme qui concernent des personnes qui ne sont suspectes de rien ne seront plus retenues sous le coup de la loi Ashcroft pour un maximum de 180 jours, le maximum a été changé pour 5 ans, ce qui est une éternité.

En fait j’ai dit à mes étudiants dans ma salle de classe, que la seule raison pour laquelle ils avaient dit 5 ans, c’est parce qu’ils ne savaient pas faire le 8 couché dans la police (rires) pour le communiqué de presse, donc ils ont fait une approximation. Donc je discutais avec un haut fonctionnaire du gouvernement de cette conclusion, et il m’a dit « eh bien, vous savez, on est devenu conscient qu’on avait besoin d’un sociogramme complet des États-Unis ». C’est de cette manière qu’on va relier les nouvelles données aux anciennes données. J’ai dit : « parlons un peu des questions constitutionnelles à ce sujet pendant un instant. Vous parlez de nous déplacer d’une société qu’on a toujours connue, à laquelle on se réfère de manière pittoresque en tant que société libre, vers une société dans laquelle le gouvernement tient une liste de toutes les relations qu’un Américain entretient. Donc si vous allez nous déplacer depuis ce qu’on avait l’habitude d’appeler un société libre vers une société dans laquelle le gouvernement des États-Unis tient une liste de toutes les relations qu’a chaque Américain, quelle devrait être la procédure constitutionnelle pour faire cela ? Est-ce qu’on devrait avoir, par exemple, une loi ? » Il s’est contenté de rigoler. Car évidemment, ils n’avaient pas besoin d’une loi. Ils l’ont fait avec un communiqué de presse, publié un mercredi pluvieux, la nuit, quand tout le monde était rentré à la maison. Et vous vivez là maintenant.

La question de savoir s’il est possible d’avoir de l’innovation dans une situation de despotisme total est intéressante. Les Américains d’extrême-droite ou même de centre-droit ont longtemps mis en avant qu’un des problèmes avec le totalitarisme du XXe siècle, duquel ils se démarquent de manière légitime, c’est qu’il éliminait la possibilité de ce qu’ils appellent le marché libre et l’innovation. Nous sommes prêts à savoir s’ils avaient raison.

Le réseau, tel qu’il est maintenant, est une plateforme extraordinaire pour un contrôle social sophistiqué. Très rapidement, et sans remord visible, les deux plus gros gouvernements de la planète, celui des États-Unis et celui de la République populaire de Chine ont adopté des points de vue fondamentalement identiques (Applaudissements). Un sociogramme complet qui connecte le gouvernement à tout le monde, et une fouille de données exhaustives sur la société représentent tous les deux une politique majeure du gouvernement, par rapport aux différentes formes de gouvernement dont ils se réclament, dans le domaine du maintien de l’ordre. Il est vrai, bien sûr, qu’ils ont différentes théories sur la manière de maintenir l’ordre suivant les personnes ou la manière, mais la technologie pour le maintien de l’ordre devient fondamentalement identique.

Nous avons le devoir, nous, qui comprenons ce qui est en train de se passer, de nous exprimer haut et fort à ce sujet. Mais ce ne sont pas seulement nos libertés civiles qui sont en jeu. Je ne devrais pas avoir besoin de dire cela, ce serait déjà suffisant, mais bien sûr ça ne l’est pas. Nous avons besoin de dire clairement, que l’autre partie qui nous importe, c’est la vitalité et l’éclat de l’innovation artistique et de l’expression, ces débats vifs très ouverts faits par des participants sans entraves, ceux que la Cour suprême aime tant (…). Et cette liberté de bidouiller, d’inventer, d’être différent, d’être anti-conformiste, ce pourquoi les gens se sont toujours déplacés vers les villes qui leur fournissent l’anonymat, et une chance de vivre avec ce qu’ils sont, et ce qu’ils peuvent faire.

Ceci plus que tout est ce qui soutient la force sociale et la croissance économique au XXIe siècle. Bien sûr, on a besoin de l’anonymat pour d’autres raisons. Bien sûr, on touche ici à quelque chose qui peut être décrit correctement comme la protection pour l’intégrité de l’âme humaine. Mais ce n’est pas le souci du gouvernement. C’est précisément la beauté de notre interprétation de ce qu’est la société civile qui ne préoccupe pas le gouvernement. C’est précisément notre engagement pour l’idée qu’un individu se construit à son propre rythme, et selon sa propre manière, cela a été au centre de la façon dont on concevait notre engagement fondamentalement civil, cela veut dire que la défense pour l’intégrité de l’âme humaine est notre affaire, pas celle du gouvernement. Mais le gouvernement doit s’occuper du bien-être matériel de ses citoyens et il doit s’occuper sur le long terme du bien de la société qu’il dirige. Et on doit dire clairement au gouvernement qu’il n’y a pas de tension entre le maintien des libertés civiles sous la forme du droit à une vie privée, il n’y a pas de distinction entre la politique de liberté civile à assurer le droit à la vie privée, et la politique économique qui vise à assurer l’innovation sous l’austérité. Elles demandent la même chose.

Nous avons besoin de logiciel libre, nous avons besoin de matériel libre qu’on peut bidouiller, nous avons besoin d’un spectre d’outils libres qu’on peut utiliser pour communiquer avec chacun, sans permission ou sans entrave. Nous avons besoin d’être capables d’éduquer et de fournir un accès aux ressources éducatives à tout le monde sur la terre, sans considérer de solvabilité financière. Nous devons fournir un accès pour chaque jeune à une vie intellectuelle et indépendante de l’économie. La technologie dont nous avons besoin, nous l’avons. J’y ai passé du temps, et beaucoup de personnes dans cette pièce (…) ont passé plus de temps maintenant, à essayer de faire des serveurs économiques, efficaces, et compacts, de la taille d’un serveur pour téléphone portable, avec lesquels on peut utiliser les bons logiciels pour peupler le Net de robots qui respectent notre vie privée, au lieu des robots qui ne respectent pas la vie privée, ceux qu’on porte dans presque chaque poche.

Nous avons besoin de moderniser la première loi de la robotique dans cette société d’ici les quelques prochaines minutes, sinon on est foutus ! Nous pouvons le faire. C’est de l’innovation civile. Nous pouvons aider à prolonger la longue durée de vie des ordinateurs à usage général qu’ont peut tous hacker. En les utilisant, en en ayant besoin, en les distribuant autour de nous. Nous pouvons utiliser notre propre force de consommateurs et de technologistes pour déprécier les réseaux fermés et les objets verrouillés. Mais sans ligne de conduite claire dans les politiques publiques, nous resterons une minorité,allez, disons 8,3%, ce qui ne sera pas suffisant pour nous sortir du bourbier dans lequel les banques nous ont conduits.

L’innovation sous l’austérité est notre cri de guerre. Ce n’est pas un cri de guerre pour les choses dont on se soucie, mais pour celles dont les autres personnes se soucient, notre porte d’entrée pour les politiques sociales ces cinq prochaines années, et notre dernière chance de faire dans la gouvernance ce que nous n’avons pas réussi à faire en essayant de préserver nos simples libertés. Celles-ci ont été honteusement violées par nos amis du gouvernement, aussi bien que par nos adversaires. On s’est fait avoir, en ce qui concerne le respect de nos droits et on s’est fait avoir, en ce qui concerne l’argent de tout le monde.

J’aimerais pouvoir dire que la chose la plus simple à faire serait de reprendre notre liberté, ça ne l’est pas. Personne ne va être candidat aux élections cette année sur la seule base du rétablissement de nos libertés civiles. Mais ils parleront de l’austérité et de la croissance. Et nous devons faire porter notre message où ils seront.

Ceci est ma première ébauche. Elle est insuffisante en tous points, mais au moins c’est un point de départ. Et si nous n’avons pas de point de départ, nous perdrons. Et notre perte sera durable. Et la nuit sera très noire.

Merci beaucoup. Et maintenant discutons-en ensemble.

Notes

[1] la faille de l’homme du milieu est le nom qu’on donne en informatique à une vulnérabilité qui expose à la fuite d’informations censées êtres privées : voir cet article de Wikipédia.

Crédit photo Eben Moglen Wikimédia Creative CommonsCC-Zero




Céline célèbre l’anniversaire de FreeBSD

Bonjour Céline, peux-tu nous expliquer comment tu en es venue à utiliser le système d’exploitation Free BSD ? Tu l’as attrapé tout d’un coup ou bien c’est l’effet d’une lente incubation ?

Je suis arrivée sur FreeBSD un peu par hasard. En fait, quand j’ai décidé de passer à Linux (en 1999, je sais ça remonte), j’ai testé plusieurs distributions dont La Lycoris Desktop LX, Debian et Ubuntu 6.06. J’ai utilisé Ubuntu et Debian en parallèle pendant énormément de temps jusqu’à ce que je décide de tester OpenBSD (réputé pour sa sécurité) pour l’utiliser sur un serveur de développement. À cause de l’absence de Java et comme je suis développeuse C/Java, j’ai éprouvé de la frustration de ne pas pouvoir tout faire sur ma machine nouvellement acquise. J’ai donc cherché une alternative la plus proche possible : FreeBSD s’est avéré être mon choix final. Une installation sans fioriture, simple et qui n’installait que ce dont j’avais besoin sur mon serveur (seul ArchLinux m’avait satisfaite au même degré jusque-là), je ne demandais rien de plus. Donc pour en revenir à l’usage de ce système d’exploitation, c’est bien l’effet d’une incubation d’une bonne dizaine d’années.

Bon c’est bien joli FreeBSD mais son installation et son usage réclament un certain niveau de compétence technique, non ? est-ce que tu le conseillerais vraiment à des usagers qui comme moi choisissent Ubuntu parce que c’est la distribution la plus abordable ? Il n’existe pas une version plus simple avec une interface graphique qui simplifie la vie ?

C’est vrai que quand on arrive sur FreeBSD, il ne faut pas avoir peur de la console. C’est pareil pour certaines distributions Linux, il faut s’armer de patience, lire la documentation (très bien réalisée) et parfois galérer dans les pages man. L’installation ne se fait pas en quelques clics, une fois l’installation finie, on ne dispose vraiment que des outils de base. Mais c’est ce que j’adore sur OpenBSD et FreeBSD (bon et aussi ArchLinux), c’est que je sais ce qu’il y a sur mon poste, ce qui démarre quand j’allume mon ordinateur, alors qu’au fil de temps je trouve que le fonctionnement des distributions Linux, pour se rendre facile d’accès au grand public, devient de plus en plus opaque. Il suffit de taper un petit ps aux sur Ubuntu pour voir tout ce qui peut tourner (des fois pour rien)… Pour ce qui est d’une version plus facile d’accès, j’ai entendu parler de PC-BSD qui a justement pour objectif de rendre FreeBSD accessible à tous : installation aisée en quelques clics, KDE est fourni en bureau par défaut… Je testerai peut-être un jour sur un autre PC ou avec VirtualBox 😉

Tu en fais un usage dans ta vie professionnelle ou bien c’est choix de passionnée pour ton usage personnel ?

Dans ma vie professionnelle, je travaille sur RedHat, Debian et Solaris, hélas pas encore de FreeBSD en vue, mais ça viendra ! 😉

Merci, je te laisse le soin de présenter l’article…

FreeBSD logo

Il y a de cela 20 ans, le 19 juin 1993, David Greenman, Jordan Hubbard et Rod Grimes annonçaient la création d’un nouveau logiciel basé sur le code source de BSD (Berkeley Software Distribution, voyez cette page Wikipédia) : FreeBSD était né. Peu connu du grand public, ce système d’exploitation est pourtant utilisé partout : en tant que solution d’hébergement pour des sociétés telles que Yahoo!, ou comme solution de sécurité pour la mise en place de firewall. Deux systèmes d’exploitation reposent sur son noyau : FreeNAS et MacOS. FreeNAS est une solution libre grand public pour héberger du contenu à travers un réseau, tandis que MacOS est le système d’exploitation propriétaire que nous connaissons tous au moins de nom. Pour fêter ce cap des 20 ans, voici un petit article qui vous fera découvrir une partie du monde BSD.

Céline

FreeBSD fête ses 20 ans et met toute sa puissance à votre service.

Traduction Framalang : lamessen, Céline, Garburst, Asta, audionuma d’après l’article original de Lawrence Latif

Le système d’exploitation open source FreeBSD vient de fêter son vingtième anniversaire.

FreeBSD a vu au fil des années sa popularité auprès du grand public diminuer alors que le noyau Linux et les nombreuses distributions qui l’utilisent ont connu un développement rapide. Cependant, FreeBSD a eu 20 ans le 19 juin et continue de faire fonctionner des infrastructures réseaux vitales.

FreeBSD a introduit de nombreuses innovations qui ont été adoptées par certaines distributions Linux. Par exemple, la collection de ports FreeBSD, qui compile des logiciels à partir du code source plutôt qu’à partir de binaires pré-assemblés, a été copiée par Gentoo Linux pour son système Portage.

FreeBSD est également connu pour avoir l’une des piles réseau les plus robustes. Il est fréquemment utilisé par les chercheurs et les industriels comme base pour la simulation et les systèmes de production. Monowall et Pfsense sont des distributions populaires basées sur FreeBSD destinées à être utilisées sur des périphériques réseaux qui embarquent tous les types de fonctionnalités, des firewalls aux réseaux privés virtuels en passant par les liaisons ADSL, sur un système facile à utiliser.

Alors que FreeBSD n’est pas la seule variante libre et largement distribuée de BSD Unix, il est différent de OpenBSD qui essaie d’être le système d’exploitation le plus sécurisé et de NetBSD qui tente de fonctionner sur n’importe quel appareil possédant un microprocesseur. Il est devenu la référence pour une utilisation générale de BSD.

Cependant, FreeBSD n’est pas que réseau et démons, puisque durant ces dernières années les distributions de bureau BSD Unix reposant sur FreeBSD sont apparues, notamment avec PC-BSD qui est la plus célèbre.

FreeBSD, grâce à ses performances et sa licence, est utilisé par des sociétés commerciales comme Citrix, Netapp et Juniper.

Ces dernières années, même la communauté Linux a commencé à reprendre des parties de FreeBSD, avec Debian qui propose une version de sa distribution utilisant le kernel FreeBSD. Malgré la blague récurrente sur le fait que BSD soit mort ou non, étant donné son support à l’industrie, il est probable qu’il continuera son combat dans les décennies à venir.




Principes internationaux pour le respect des droits humains dans la surveillance des communications

International Principles on the Application of Human Rights to Communications Surveillance

(Traduction : Slystone, tradfab, hugo, Pascal22, Hubert Guillaud, sinma, big f, Guillaume, Barbidule, Calou, Asta, wil_sly, chdorb, maugmaug, rou, RyDroid, + anonymes)

Version finale du 7 juin 2013

Alors que se développent les technologies qui leur permettent de surveiller les communications, les États ne parviennent pas à garantir que les lois et réglementations relatives à la surveillance des communications respectent les droits humains et protègent efficacement la vie privée et la liberté d’expression (Ndt : le choix de traduire human rights par « droits humains » – plutôt que « droits de l’homme » – repose sur le choix délibéré de ne pas perpétuer une exception française sujette à caution.). Ce document tente d’expliquer comment le droit international des droits humains doit s’appliquer à l’environnement numérique actuel, à un moment où les technologies et les méthodes de surveillance des communications se généralisent et se raffinent. Ces principes peuvent servir de guide aux organisations citoyennes, aux entreprises et aux États qui cherchent à évaluer si des lois et des pratiques de surveillance, actuelles ou en discussion, sont en conformité avec les droits humains.

Ces principes sont le fruit d’une consultation globale d’organisations citoyennes, d’entreprises et d’experts internationaux sur les aspects juridiques, politiques et technologiques de la surveillance des communications.

Préambule

Le respect de la vie privée est un droit humain fondamental, indispensable au bon fonctionnement des sociétés démocratiques. Il est essentiel à la dignité humaine et renforce d’autres droits, comme la liberté d’expression et d’information, ou la liberté d’association. Il est consacré par le droit international des droits humains[1]. Les activités qui restreignent le droit au respect de la vie privée, et notamment la surveillance des communications, ne sont légitimes que si elles sont à la fois prévues par la loi, nécessaires pour atteindre un but légitime et proportionnelles au but recherché[2].

Avant la généralisation d’Internet, la surveillance des communications par l’État était limitée par l’existence de principes juridiques bien établis et par des obstacles logistiques inhérents à l’interception des communications. Au cours des dernières décennies, ces barrières logistiques à la surveillance se sont affaiblies, en même temps que l’application des principes juridiques aux nouvelles technologies a perdu en clarté. L’explosion des communications électroniques, ainsi que des informations à propos de ces communications (les « métadonnées » de ces communications), la chute des coûts de stockage et d’exploration de grands jeux de données, ou encore la mise à disposition de données personnelles détenues par des prestataires de service privés, ont rendu possible une surveillance par l’État à une échelle sans précédent[3].

Dans le même temps, l’évolution conceptuelle des droits humains n’a pas suivi l’évolution des moyens modernes de surveillance des communications dont dispose l’État, de sa capacité à croiser et organiser les informations obtenue par différentes techniques de surveillances, ou de la sensibilité croissante des informations auxquelles il accède.

La fréquence à laquelle les États cherchent à accéder au contenu des communications ou à leurs métadonnées – c’est-à-dire aux informations portant sur les communications d’une personne ou sur les détails de son utilisation d’appareils électroniques – augmente considérablement, sans aucun contrôle approprié[4]. Une fois collectées et analysées, les métadonnées issues des communications permettent de dresser le profil de la vie privée d’un individu, tel que son état de santé, ses opinions politiques et religieuses, ses relations sociales et ses centres d’intérêts, révélant autant de détails, si ce n’est plus, que le seul contenu des communications[5]. Malgré ce risque élevé d’intrusion dans la vie privée des personnes, les instruments législatifs et réglementaires accordent souvent aux métadonnées une protection moindre, et ne restreignent pas suffisamment la façon dont les agences gouvernementales peuvent les manipuler, en particulier la façon dont elles sont collectées, partagées, et conservées.

Pour que les États respectent réellement leurs obligations en matière de droit international des droits humains dans le domaine de la surveillance des communications, ils doivent se conformer aux principes exposés ci-dessous. Ces principes portent non seulement sur l’obligation pesant sur l’État de respecter les droits de chaque individu , mais également sur l’obligation pour l’État de protéger ces droits contre d’éventuels abus par des acteurs non-étatiques, et en particulier des entreprises privées[6]. Le secteur privé possède une responsabilité équivalente en termes de respect et de protection des droits humains, car il joue un rôle déterminant dans la conception, le développement et la diffusion des technologies, dans la fourniture de services de communication, et – le cas échéant – dans la coopération avec les activités de surveillance des États. Néanmoins, le champ d’application des présents principes est limité aux obligations des États.

Une technologie et des définitions changeantes

Dans l’environnement moderne, le terme « surveillance des communications » désigne la surveillance, l’interception, la collecte, le stockage, la modification ou la consultation d’informations qui contiennent les communications passées, présentes ou futures d’une personne, ainsi que de toutes les informations qui sont relatives à ces communications. Les « communications » désignent toute activité, interaction et échange transmis de façon électronique, tels que le contenu des communications, l’identité des parties communiquant, les données de localisation (comme les adresses IP), les horaires et la durée des communications, ainsi que les identifiants des appareils utilisés pour ces communications.

Le caractère intrusif de la surveillance des communications est traditionnellement évalué sur la base de catégories artificielles et formelles. Les cadres légaux existants distinguent entre le « contenu » et le « hors-contenu », les « informations sur l’abonné » ou les « métadonnées », les données stockées et celles en transit, les données restant à domicile et celles transmises à un prestataire de service tiers[7]. Néanmoins, ces distinctions ne sont plus appropriées pour mesurer le niveau d’intrusion causé par la surveillance des communications dans la vie privée des individus. Il est admis de longue date que le contenu des communications nécessite une protection légale importante en raison de sa capacité à révéler des informations sensibles, mais il est maintenant clair que d’autres informations issues des communications d’un individu – les métadonnées et diverses informations autres que le contenu – peuvent révéler encore davantage sur l’individu que la communication elle-même, et doivent donc bénéficier d’une protection équivalente.

Aujourd’hui, ces informations, qu’elles soient analysées séparément ou ensemble, peuvent permettent de déterminer l’identité, le comportement, les relations, l’état de santé, l’origine ethnique, l’orientation sexuelle, la nationalité ou les opinions d’une personne ; ou encore d’établir une carte complète des déplacements et des interactions d’une personne dans le temps[8]., ou de toutes les personnes présentes à un endroit donné, par exemple une manifestation ou un rassemblement politique. En conséquence, toutes les informations qui contiennent les communications d’une personne, ainsi que toutes les informations qui sont relatives à ces communications et qui ne sont pas publiquement et facilement accessibles, doivent être considérées comme des « informations protégées », et doivent en conséquence se voir octroyer la plus haute protection au regard de la loi.

Pour évaluer le caractère intrusif de la surveillance des communications par l’État, il faut prendre en considération non seulement le risque que la surveillance ne révèle des informations protégées, mais aussi les raisons pour lesquelles l’État recherche ces informations. Si une surveillance des communications a pour conséquence de révéler des informations protégées susceptibles d’accroître les risques d’enquêtes, de discrimination ou de violation des droits fondamentaux pesant sur une personne, alors cette surveillance constitue non seulement une violation sérieuse du droit au respect de la vie privée, mais aussi une atteinte à la jouissance d’autres droits fondamentaux tels que la liberté d’expression, d’association et d’engagement politique. Car ces droits ne sont effectifs que si les personnes ont la possibilité de communiquer librement, sans l’effet d’intimidation que constitue la surveillance gouvernementale. Il faut donc rechercher, pour chaque cas particulier, tant la nature des informations collectées que l’usage auquel elles sont destinées.

Lors de l’adoption d’une nouvelle technique de surveillance des communications ou de l’extension du périmètre d’une technique existante, l’État doit vérifier préalablement si les informations susceptibles d’être obtenues rentrent dans le cadre des « informations protégées », et il doit se soumettre à un contrôle judiciaire ou à un mécanisme de supervision démocratique. Pour déterminer si les informations obtenues par la surveillance des communications atteignent le niveau des « informations protégées », il faut prendre en compte non seulement la nature de la surveillance, mais aussi son périmètre et sa durée. Une surveillance généralisée ou systématique a la capacité de révéler des informations privées qui dépassent les informations collectées prises individuellement, cela peut donc conférer à la surveillance d’informations non-protégées un caractère envahissant, exigeant une protection renforcée[9].

Pour déterminer si l’État est ou non fondé à se livrer à une surveillance des communications touchant à des informations protégées, le respect de principes suivants doit être vérifié.

Les principes

Légalité: toute restriction au droit au respect de la vie privée doit être prévue par la loi. L’État ne doit pas adopter ou mettre en oeuvre une mesure qui porte atteinte au droit au respect de la vie privée sans qu’elle ne soit prévue par une disposition législative publique, suffisamment claire et précise pour garantir que les personnes ont été préalablement informées de sa mise en oeuvre et peuvent en anticiper les conséquences. Etant donné le rythme des changements technologiques, les lois qui restreignent le droit au respect de la vie privée doivent faire l’objet d’un examen régulier sous la forme d’un débat parlementaire ou d’un processus de contrôle participatif.

Objectif légitime : la surveillance des communications par des autorités étatiques ne doit être autorisée par la loi que pour poursuivre un objectif légitime lié à la défense d’un intérêt juridique fondamental pour une société démocratique. Aucune mesure de surveillance ne doit donner lieu à une discrimination sur le fondement de l’origine, du sexe, de la langue, de la religion, des opinions politiques, de la nationalité, de l’appartenance à un groupe social, de la richesse, de la naissance ou de tout autre situation sociale.

Nécessité : les lois permettant la surveillance des communications par l’État doivent limiter la surveillance aux éléments strictement et manifestement nécessaires pour atteindre un objectif légitime. La surveillance des communications ne doit être utilisée que lorsque c’est l’unique moyen d’atteindre un but légitime donné, ou, lorsque d’autres moyens existent, lorsque c’est le moyen le moins susceptible de porter atteinte aux droits humains. La charge de la preuve de cette justification, que ce soit dans les procédures judiciaires ou législatives, appartient à l’État.

Adéquation : toute surveillance des communications prévue par la loi doit être en adéquation avec l’objectif légitime poursuivi.

Proportionnalité : la surveillance des communications doit être considérée comme un acte hautement intrusif qui interfère avec le droit au respect de la vie privée, ainsi qu’avec la liberté d’opinion et d’expression, et qui constitue de ce fait une menace à l’égard les fondements d’une société démocratique. Les décisions relatives à la surveillance des communications doivent être prises en comparant les bénéfices attendus aux atteintes causées aux droits des personnes et aux autres intérêts concurrents, et doivent prendre en compte le degré de sensibilité des informations et la gravité de l’atteinte à la vie privée.

Cela signifie en particulier que si un État, dans le cadre d’une enquête criminelle, veut avoir accès à des informations protégées par le biais d’une procédure de surveillance des communications, il doit établir auprès de l’autorité judiciaire compétente, indépendante et impartiale, que :

  1. il y a une probabilité élevée qu’une infraction pénale grave a été ou sera commise ;
  2. la preuve d’une telle infraction serait obtenue en accédant à l’information protégée recherchée ;
  3. les techniques d’investigation moins intrusives ont été épuisées ;
  4. l’information recueillie sera limitée à ce qui est raisonnablement pertinent au regard de l’infraction concernée et toute information superflue sera promptement détruite ou restituée ;
  5. l’information est consultée uniquement par l’instance spécifiquement désignée, et utilisée exclusivement aux fins pour lesquelles l’autorisation a été accordée.

Si l’État cherche à avoir accès à des informations protégées via une surveillance des communications à des fins qui ne placeront pas une personne sous le risque de poursuites pénales, d’enquête, de discrimination ou de violation des droits de l’homme, l’État doit établir devant une autorité indépendante, impartiale et compétente que :

  1. d’autres techniques d’investigation moins intrusives ont été envisagées ;
  2. l’information collectée sera limitée à ce qui est raisonnablement pertinent, et toute information superflue sera promptement détruite ou restituée à la personne concernée ;
  3. l’information est consultée uniquement par l’instance spécifiquement désignée, et utilisée exclusivement aux fins pour lesquelles l’autorisation a été accordée.

Autorité judiciaire compétente : les décisions relatives à la surveillance des communications doivent être prises par une autorité judiciaire compétente, impartiale et indépendante. L’autorité doit être (1) distincte des autorités qui effectuent la surveillance des communications, (2) au fait des enjeux relatifs aux technologies de la communication et aux droits humains, et compétente pour rendre des décisions judiciaires dans ces domaines, et (3) disposer de ressources suffisantes pour exercer les fonctions qui lui sont assignées.

Le droit à une procédure équitable : Une procédure équitable suppose que les États respectent et garantissent les droits humains des personnes en s’assurant que les procédures relatives aux atteintes aux droits humains sont prévues par la loi, sont systématiquement appliquées et sont accessibles à tous. En particulier, pour statuer sur l’étendue de ses droits humains, chacun a droit à un procès public dans un délai raisonnable par un tribunal établi par la loi, indépendant, compétent et impartial[10] sauf cas d’urgence lorsqu’il y a un risque imminent de danger pour une vie humaine. Dans de tels cas, une autorisation rétroactive doit être recherchée dans un délai raisonnable. Le simple risque de fuite ou de destruction de preuves ne doit jamais être considéré comme suffisant pour justifier une autorisation rétroactive.

Notification des utilisateurs : les personnes doivent être notifiées d’une décision autorisant la surveillance de leurs communications, avec un délai et des informations suffisantes pour leur permettre de faire appel de la décision, et elles doivent avoir accès aux documents présentés à l’appui de la demande d’autorisation. Les retards dans la notification ne se justifient que dans les cas suivants :

  1. la notification porterait gravement atteinte à l’objet pour lequel la surveillance est autorisée, ou il existe un risque imminent de danger pour une vie humaine ; ou
  2. l’autorisation de retarder la notification est accordée par l’autorité judiciaire compétente conjointement à l’autorisation de surveillance ; et
  3. la personne concernée est informée dès que le risque est levé ou dans un délai raisonnable, et au plus tard lorsque la surveillance des communications prend fin.

À l’expiration du délai, les fournisseurs de services de communication sont libres d’informer les personnes de la surveillance de leurs communications, que ce soit de leur propre initiative ou en réponse à une demande.

Transparence : les États doivent faire preuve de transparence quant à l’utilisation de leurs pouvoirs de surveillance des communications. Ils doivent publier, a minima, les informations globales sur le nombre de demandes approuvées et rejetées, une ventilation des demandes par fournisseurs de services, par enquêtes et objectifs. Les États devraient fournir aux individus une information suffisante pour leur permettre de comprendre pleinement la portée, la nature et l’application des lois autorisant la surveillance des communications. Les États doivent autoriser les fournisseurs de service à rendre publiques les procédures qu’ils appliquent dans les affaires de surveillance des communications par l’État, et leur permettre de respecter ces procédures ainsi que de publier des informations détaillées sur la surveillance des communications par l’État.

Contrôle public : les États doivent établir des mécanismes de contrôle indépendants pour garantir la transparence et la responsabilité de la surveillance des communications[11]. Les instances de contrôle doivent avoir les pouvoirs suivants : accéder à des informations sur les actions de l’État, y compris, le cas échéant, à des informations secrètes ou classées ; évaluer si l’État fait un usage légitime de ses prérogatives ; évaluer si l’État a rendu publiques de manière sincère les informations sur l’étendue et l’utilisation de ses pouvoirs de surveillance ; publier des rapports réguliers ainsi que toutes autres informations pertinentes relatives à la surveillance des communications. Ces mécanismes de contrôle indépendants doivent être mis en place en sus de tout contrôle interne au gouvernement.

Intégrité des communications et systèmes : Afin d’assurer l’intégrité, la sécurité et la confidentialité des systèmes de communication, et eu égard au fait que toute atteinte à la sécurité pour des motifs étatiques compromet presque toujours la sécurité en général, les États ne doivent pas contraindre les fournisseurs de services, ou les vendeurs de matériels et de logiciels, à inclure des capacités de surveillance dans leurs systèmes ou à recueillir et conserver certaines informations exclusivement dans le but de permettre une surveillance par l’État. La collecte et le stockage des données a priori ne doivent jamais être demandés aux fournisseurs de services. Les personnes ont le droit de s’exprimer anonymement, les États doivent donc s’abstenir d’imposer l’identification des utilisateurs comme condition préalable pour l’accès à un service[12].

Garanties dans le cadre de la coopération internationale : en réponse aux évolutions dans les flux d’information et les technologies de communication, les États peuvent avoir besoin de demander assistance à un fournisseur de services étranger. Les traités de coopération internationale en matière de police et de justice et les autres accords conclus entre les États doivent garantir que, lorsque plusieurs droits nationaux peuvent s’appliquer à la surveillance des communications, ce sont les dispositions établissant la plus grande protection à l’égard des individus qui prévalent. Lorsque les États demandent assistance dans l’application du droit, le principe de double-incrimination doit être appliqué (NdT : principe selon lequel, pour être recevable, la demande de collaboration doit porter sur une disposition pénale existant à l’identique dans les deux pays). Les États ne doivent pas utiliser les processus de coopération judiciaire ou les requêtes internationales portant sur des informations protégées dans le but de contourner les restrictions nationales sur la surveillance des communications. Les règles de coopération internationale et autres accords doivent être clairement documentés, publics, et conformes au droit à une procédure équitable.

Garanties contre tout accès illégitime : les États doivent adopter une législation réprimant la surveillance illicite des communications par des acteurs publics ou privés. La loi doit prévoir des sanctions civiles et pénales dissuasives, des mesures protectrices au profit des lanceurs d’alertes, ainsi que des voies de recours pour les personnes affectées. Cette législation doit prévoir que toute information obtenue en infraction avec ces principes est irrecevable en tant que preuve dans tout type de procédure, de même que toute preuve dérivée de telles informations. Les États doivent également adopter des lois prévoyant qu’une fois utilisées pour l’objectif prévu, les informations obtenues par la surveillance des communications doivent être détruites ou retournées à la personne.

Signataires

  • Access Now
  • Article 19 (International)
  • Bits of Freedom (Netherlands)
  • Center for Internet & Society (India)
  • Comision Colombiana de Juristas (Colombia)
  • Derechos Digitales (Chile)
  • Electronic Frontier Foundation (International)
  • Open Media (Canada)
  • Open Net (South Korea)
  • Open Rights Group (United Kingdom)
  • Privacy International (International)
  • Samuelson-Glushko Canadian Internet Policy and Public Interest Clinic (Canada)
  • Statewatch (UK)

Notes

[1] Article 12 de la Déclaration universelle des droits de l’homme ; article 14 de la Convention des Nations Unies sur les travailleurs migrants ; article 16 de la Convention des Nations Unies sur la protection des droits de l’enfant ; pacte international relatif aux droits civils et politiques ; article 17 du pacte international relatif aux droits civils et politiques ; conventions régionales dont article 10 de la Charte africaine des droits et du bien-être de l’enfant, article 11 de la Convention américaine des droits de l’Homme, article 4 de la déclaration de principe de la liberté d’expression en Afrique, article 5 de la déclaration américaine des droits et devoirs de l’Homme, article 21 de la Charte arabe des droits de l’Homme et article 8 de la Convention européenne de la protection des droits de l’Homme et des libertés fondamentales ; principes de Johannesburg relatifs à la sécurité nationale, libre expression et l’accès à l’information, principes de Camden sur la liberté d’expression et l’égalité.

[2] Article 29 de la Déclaration universelle des droits de l’homme ; commentaire général numéro 27, adopté par le Comité des droits de l’Homme sous l’article 40, paragraphe 4, par The International Covenant On Civil And Political Rights, CCPR/C/21/Rev.1/Add.9, du 2 novembre ; voir aussi de Martin Scheinin, « Report of the Special Rapporteur on the promotion and protection of human rights and fundamental freedoms while countering terrorism, » 2009, A/HRC/17/34.

[3] Les métadonnées des communications peuvent contenir des informations à propos de notre identité (informations sur l’abonné, information sur l’appareil utilisé), de nos interactions (origines et destinations des communications, en particulier celles montrant les sites visités, les livres ou autres documents lus, les personnes contactées, les amis, la famille, les connaissances, les recherches effectuées et les ressources utilisées) et de notre localisation (lieux et dates, proximité avec d’autres personnes) ; en somme, des traces de presque tous les actes de la vie moderne, nos humeurs, nos centres d’intérêts, nos projets et nos pensées les plus intimes.

[4] Par exemple, uniquement pour le Royaume-Uni, il y a actuellement environ 500 000 requêtes sur les métadonnées des communications chaque année, sous un régime d’auto-autorisation pour les agences gouvernementales, qui sont en mesure d’autoriser leurs propres demandes d’accès aux informations détenues par les fournisseurs de services. Pendant ce temps, les données fournies par les rapports de transparence de Google montrent qu’aux États-Unis, les requêtes concernant des données d’utilisateurs sont passées de 8 888 en 2010 à 12 271 en 2011. En Corée, il y a eu environ 6 millions de requêtes par an concernant des informations d’abonnés et quelques 30 millions de requêtes portant sur d’autres formes de communications de métadonnées en 2011-2012, dont presque toutes ont été accordées et exécutées. Les données de 2012 sont accessibles ici.

[5] Voir par exemple une critique du travail de Sandy Pentland, « Reality Minning », dans la Technology Review du MIT, 2008, disponible ici, voir également Alberto Escudero-Pascual et Gus Hosein « Questionner l’accès légal aux données de trafic », Communications of the ACM, volume 47, Issue 3, mars 2004, pages 77-82.

[6] Rapport du rapporteur spécial des Nations Unies sur la liberté d’opinions et d’expression, Frank La Rue, 3 juin 2013, disponible ici.

[7] « Les gens divulguent les numéros qu’ils appellent ou textent à leurs opérateurs mobiles, les URL qu’ils visitent et les adresses courriel avec lesquelles ils correspondent à leurs fournisseurs d’accès à Internet, et les livres, les courses et les médicaments qu’ils achètent à leurs boutiques en ligne… On ne peut présumer que toutes ces informations, volontairement divulguées à certaines personnes dans un but spécifique, sont, de ce seul fait, exclues de la protection du 4e amendement de la Constitution. » United States v. Jones, 565 U.S, 132 S. Ct. 945, 957 (2012) (Sotomayor, J., concurring).

[8] « La surveillance à court terme des déplacements d’une personne sur la voie publique est compatible avec le respect de la vie privée », mais « l’utilisation de systèmes de surveillance GPS à plus long terme dans les enquêtes sur la plupart des infractions empiète sur le respect de la vie privée. » United States v. Jones, 565 U.S., 132 S. Ct. 945, 964 (2012) (Alito, J. concurring).

[9] « La surveillance prolongée révèle des informations qui ne sont pas révélées par la surveillance à court terme, comme ce que fait un individu à plusieurs reprises, ce qu’il ne fait pas, et ce qu’il fait à la suite. Ce type d’informations peut en révéler plus sur une personne que n’importe quel trajet pris isolément. Des visites répétées à l’église, à une salle de gym, à un bar ou à un bookmaker racontent une histoire que ne raconte pas une visite isolée, tout comme le fait de ne pas se rendre dans l’un de ces lieux durant un mois. La séquence des déplacements d’une personne peut révéler plus de choses encore ; une seule visite à un cabinet de gynécologie nous en dit peu sur une femme, mais ce rendez-vous suivi quelques semaines plus tard d’une visite à un magasin pour bébés raconte une histoire différente. Quelqu’un qui connaîtrait tous les trajets d’une personne pourrait en déduire si c’est un fervent pratiquant, un buveur invétéré, un habitué des clubs de sport, un mari infidèle, un patient ambulatoire qui suit un traitement médical, un proche de tel ou tel individu, ou de tel groupe politique – il pourrait en déduire non pas un de ces faits, mais tous. » U.S. v. Maynard, 615 F.3d 544 (U.S., D.C. Circ., C.A.) p. 562; U.S. v. Jones, 565 U.S (2012), Alito, J., participants. « De plus, une information publique peut entrer dans le cadre de la vie privée quand elle est systématiquement collectée et stockée dans des fichiers tenus par les autorités. Cela est d’autant plus vrai quand ces informations concernent le passé lointain d’une personne. De l’avis de la Cour, une telle information, lorsque systématiquement collectée et stockée dans un fichier tenu par des agents de l’État, relève du champ d’application de la vie privée au sens de l’article 8 (1) de la Convention. » (Rotaru v. Romania, (2000) ECHR 28341/95, paras. 43-44.

[10] Le terme « Due process » (procédure équitable) peut être utilisé de manière interchangeable avec « équité procédurale » et « justice naturelle », il est clairement défini dans la Convention européenne pour les droits de l’Homme article 6(1) et article 8 de la Convention américaine relative aux droits de l’Homme.

[11] Le commissaire britannique à l’interception des communications est un exemple d’un tel mécanisme de contrôle indépendant. L’ICO publie un rapport qui comprend des données agrégées, mais il ne fournit pas de données suffisantes pour examiner les types de demandes, l’étendue de chaque demande d’accès, l’objectif des demandes et l’examen qui leur est appliqué. Voir ici.

[12] Rapport du rapporteur spécial sur la promotion et la protection du droit à la liberté d’opinion et d’expression, Frank La Rue, 16 mai 2011, A/HRC/17/27, para 84.