On ferme ! La guerre imminente contre nos libertés d’utilisateurs, par Cory Doctorow

Il y a un mois Cory Doctorow a donné une conférence remarquable et remarquée lors du fameux CCC de Berlin.

Tellement remarquée qu’il a décidé d’en faire a posteriori un long mais passionnant article dont nous vous proposons la traduction aujourd’hui (merci @ricomoro)[1].

La guerre contre le copyright préfigure une guerre totale contre les ordinateurs et donc nos libertés d’utilisateurs. C’est pourquoi il est fondamental de la gagner…

Francis Mariani - CC by-nc-nd

On ferme

La guerre imminente contre nos libertés d’utilisateurs

Lockdown – The coming war on general-purpose computing

Cory Doctorow – 10 janvier 2012 – BoingBoing
(Traduction Framalang : Don Rico – Relecture : Goofy)

Cet article reprend une intervention donnée au Chaos Computer Congress de Berlin, en décembre 2011.

Les ordinateurs sont époustouflants. À tel point que notre société ne sait toujours pas très bien les cerner, peine à comprendre exactement à quoi ils servent, par quel bout les prendre, et comment se débrouiller avec. Ce qui nous ramène à un sujet sur lequel on a écrit ad nauseam : le copyright.

Mais je vous demande un peu de patience, car je vais aborder ici une question plus importante. La forme que prend la guerre contre le copyright présage d’un combat imminent qui se livrera pour le destin de l’ordinateur lui-même.

Aux débuts de l’informatique grand public, nous achetions les logiciels dans des emballages et nous échangions des fichiers de la main à la main. On trouvait les disquettes dans des sachets hermétiques, dans des cartons, alignées dans des rayons à la façon des paquets de gâteaux et des magazines. Rien n’était plus facile que de les dupliquer, la copie était très rapide et très répandue, au grand dam des concepteurs et des vendeurs de logiciels.

Arrivent les verrous numériques (les DRM), dans leurs formes les plus primitives – nous les appellerons DRM 0.96. Pour la première fois, on eut recours à des marqueurs physiques – dégradation délibérée, dongles, secteurs cachés – dont le logiciel contrôlait la présence, ainsi qu’à des protocoles défi-réponse qui nécessitaient de posséder des modes d’emploi encombrants et difficiles à copier.

Ces mesures échouèrent pour deux raisons. Premièrement, elles connurent une grande impopularité commerciale, car elles réduisaient l’utilité du logiciel pour ceux qui le payaient. Les acquéreurs honnêtes voyaient d’un mauvais œil que leurs sauvegardes ne soient pas utilisables, n’appréciaient guère de perdre un de leurs ports, déjà rares, à cause des clés matérielles d’autentification, et s’irritaient de devoir manipuler de volumineux modes d’emploi lorsqu’ils souhaitaient lancer leur logiciel. Deuxièmement, ces mesures ne découragèrent pas les pirates, pour qui patcher le logiciel et contourner l’authentification était un jeu d’enfant. L’effet fut nul sur ceux qui se procuraient le logiciel sans le payer.

En gros, cela ce passait ainsi : un programmeur, possédant du matériel et des compétences du même niveau de sophistication que l’éditeur du logiciel, décortiquait le programme par rétro-ingénierie et en diffusait des versions crackées. Un tel procédé peut paraître très pointu, mais en fait, il n’en était rien. Comprendre le fonctionnement d’un programme récalcitrant et contourner ses défauts constituaient les compétences de base de tout programmeur, surtout à l’époque des fragiles disquettes et des débuts balbutiants du développement logiciel. Les stratégies destinées à combattre la copie devinrent plus inutiles encore lorsque les réseaux se développèrent. À l’apparition des BBS, services en ligne, newsgroups Usenet et listes de diffusion, le résultat du travail de ceux qui parvenaient à surmonter les systèmes d’authentification put être distribué sous forme de logiciel, dans de petits fichiers de crack. Lorsque les capacités du réseau s’accrurent, on put diffuser directement les images disque ou les exécutables crackés.

Vinrent alors les DRM 1.0. En 1996, il devint évident dans les lieux de pouvoir qu’un bouleversement d’envergure allait se produire. Nous allions entrer dans une économie de l’information, sans qu’on sache trop ce qu’était ce machin. Nos élites supposèrent que ce serait une économie où l’on achèterait et vendrait de l’information. La technologie de l’information améliore l’efficacité, alors imaginez un peu les marchés potentiels qui s’offraient à nous ?! On allait pouvoir acheter un livre pour une journée, vendre le droit de visionner un film pour un euro, puis louer le bouton pause pour un centime la seconde. On allait pouvoir vendre des films à un certain prix dans un pays, à un prix différent dans un autre, etc. Les fantasmes de l’époque ressemblaient à une adaptation SF ennuyeuse du Livre des Nombres de l’Ancien Testament, une énumération fastidieuse de toutes les combinaisons possibles de ce qu’on fait avec l’information, et combien chacune allait être facturée.

Hélas pour eux, rien de tout cela n’était possible à moins de pouvoir contrôler la façon dont nous utilisions nos ordinateurs, et les fichiers que nous y transférions. En fait, il était facile d’envisager de vendre à quelqu’un des morceaux de musique à télécharger sur un lecteur MP3, mais plus compliqué d’envisager le droit de transférer une chanson du lecteur vers un autre appareil. Comment en effet en empêcher les acheteurs une fois qu’on leur a vendu le fichier ? Pour cela, il fallait trouver un moyen d’interdire aux ordinateurs d’exécuter certains programmes, d’inspecter certains fichiers et processus. Par exemple, pourquoi ne pas chiffrer le fichier, puis exiger de l’utilisateur qu’il le lise avec un lecteur audio qui ne le déverouillerait que sous des conditions précises ?

Mais là, comme on dit sur internet, on se retrouve avec deux problèmes.

Il faut à présent empêcher l’utilisateur d’enregistrer le fichier après qu’il a été déchiffré – ce qui se produira un jour ou l’autre –, et faire en sorte que l’utilisateur ne découvre pas où le programme de déverrouillage entrepose ses clés, ce qui lui permettrait de déchiffrer le média de façon permanente et se débarrasser une bonne fois pour toutes de leur lecteur audio à la con.

Voilà donc un troisième problème : il faut empêcher les utilisateurs qui parviennent à déchiffrer le fichier de le partager. Un quatrième problème se pose alors, car ces utilisateurs qui réussissent à arracher leurs secrets aux programmes de déverrouillage, il faut les empêcher d’expliquer à d’autres comment procéder. S’ajoute au tout un cinquième problème, parce que les utilisateurs qui comprennent comment extraire ces secrets, il faut les empêcher de les dévoiler à d’autres !

Ça fait un paquet de problèmes. Mais en 1996, on trouva la solution. L’Organisation mondiale de la propriété intellectuelle des Nations Unies signa le Traité de l’OMPI sur le droit d’auteur. Ce traité engendra des lois qui rendaient illégal d’extirper les clés secrètes des programmes de déverrouillage, d’extraire des fichiers média (tels que des chansons ou des films) de ces programmes de déverrouillage lors de leur fonctionnement. On vota des lois qui rendaient illégal d’expliquer à ses pairs comment extirper les clés secrètes des programmes de déverrouillage, ainsi que d’héberger ces mêmes clés ou des œuvres placées sous copyright. Grâce à ce traité, on mit également en place un procédé bien ficelé et fort commode qui permet de faire retirer du contenu d’internet sans avoir à se coltiner avocats, juges, et tous ces emmerdeurs.

Après quoi, la copie illégale fut éradiquée, l’économie de l’information s’épanouit pour devenir une fleur splendide qui apporta la prospérité au monde entier. Comme on dit sur les porte-avions, « Mission accomplie ».

Non. Ce n’est pas ainsi que l’histoire se termine, bien sûr, car presque tous ceux qui maîtrisaient les ordinateurs et les réseaux comprirent que ces lois allaient créer plus de problèmes qu’elles ne pourraient en résoudre. Après tout, ces lois rendaient illégal le fait de regarder dans le ventre de son ordinateur pendant qu’il exécutait certains programmes. À cause d’elles, il était illégal de raconter à d’autres ce qu’on avait découvert sous le capot, et plus facile que jamais de censurer des fichiers sur internet sans devoir justifier d’une infraction.

En résumé, ces lois soumettaient des exigences irréalistes à la réalité, qui a refusé de s’y plier. Depuis le vote de ces lois, il est au contraire devenu plus facile de copier – et cette tendance ne s’inversera jamais. Il ne sera toujours plus aisé de copier demain qu’aujourd’hui. Vos petits-enfants vous demanderont : « Raconte-moi encore, papi, comme c’était compliqué de copier des fichiers, en 2012, quand on n’avait pas de disque de la taille d’un ongle sur lequel on peut stocker tous les albums jamais enregistrés, tous les films jamais tournés, tous les textes jamais écrits, toutes les photos jamais prises, absolument tout, et les transférer en un temps si court qu’on ne s’en rend même pas compte ! »

La réalité reprend toujours ses droits. Il existe une comptine dans laquelle une femme gobe une araignée pour attraper une mouche, avale ensuite un oiseau pour attraper l’araignée, et enfin un chat pour attraper l’oiseau. Il en va de même pour ces réglementations, qui semblent très prometteuses sur le papier, mais se révèlent désastreuses une fois appliquées. Chaque régulation en engendre une nouvelle, qui ne vise qu’à colmater ses propres manquements.

La tentation est forte d’interrompre ici mon récit et de conclure que le problème vient des régulateurs, qui seraient soit idiots, soit mal intentionnés, voire les deux à la fois. C’est une voie qu’il ne serait pas satisfaisant d’emprunter, parce qu’il s’agirait au fond d’un aveu d’impuissance. Cela laisserait entendre que nos problèmes ne peuvent être résolus tant que stupidité et mauvaises intentions n’auront pas été écartés des lieux de pouvoirs, autant dire jamais. En ce qui me concerne, j’ai une théorie différente pour expliquer ce qui s’est passé.

Le problème, ce n’est pas que les législateurs n’entendent rien aux technologies de l’information, parce qu’il devrait être possible qu’un non spécialiste parvienne à rédiger une bonne loi. Parlementaires, membres du Congrès et autres hommes politiques sont élus pour représenter des circonscriptions et des citoyens, pas pour s’occuper de disciplines et de questions pointues. Nous n’avons pas un secrétaire d’État à la biochimie, ni un sénateur issu du magnifique État qu’est l’urbanisme. Pourtant, ces personnes, qui sont des experts de la politique et de l’élaboration des lois, et pas de disciplines techniques, réussissent malgré tout à établir des règles sensées. C’est parce que le gouvernement s’appuie sur l’heuristique : une approche empirique qui permet d’équilibrer les contributions d’experts apportant leur avis sur différents aspects d’une question.

Hélas, il existe un point sur lequel la technologie de l’information est supérieure à cette heuristique, et la bat même à plates coutures.

Il existe deux conditions importantes pour déterminer si une régulation est pertinente : d’abord, il faut savoir si elle sera efficace, et ensuite, si ses effets s’étendront au-delà de ce pour quoi elle a été conçue. Si je voulais que le Congrès, le Parlement, ou l’UE préparent une loi réglementant l’usage de la roue, il est peu probable que j’y parvienne. Si je me présentais en avançant que les braqueurs de banque s’enfuient toujours dans un véhicule à roues, et demandais si on peut y remédier, on me répondrait non. Pour la simple raison qu’on ne connaît aucun moyen de fabriquer une roue qui reste utilisable pour un usage licite, mais soit inutilisable pour les bandits. Il est évident pour tous que le bénéfice général des roues est si grand qu’il serait idiot de s’en passer, dans une tentative farfelue d’enrayer les braquages. Même si l’on connaissait une flambée de braquages – et même s’ils mettaient en péril la société –, personne ne songerait que s’en prendre aux roues puisse être un bon point de départ pour résoudre nos problèmes.

En revanche, si je me présentais dans cette même institution, déclarais posséder la preuve irréfutable que les kits mains-libres rendent les voitures dangereuses, et que je demandais une loi les interdisant, il n’est pas impossible que le régulateur prenne ma requête en compte et agisse sur la question.

On pourrait débattre de la légitimité de cette idée, du caractère sensé de mes preuves, mais très peu d’entre nous pourrions avancer que si l’on retire les kits main-libre, une voiture cesse d’être une voiture.

Nous sommes d’accord pour dire qu’une voiture reste une voiture si nous en retirons des accessoires. Les automobiles sont des engins à but précis, du moins si on les compare à la roue, et le seul apport d’un kit mains-libres, c’est une fonction supplémentaire ajoutée à une technologie déjà spécialisée.

De manière générale, cette approche empirique est efficace pour le législateur, mais elle devient caduque pour la question de l’ordinateur et du réseau généralistes – le PC et l’internet. Si l’on considère un logiciel comme une fonction, un ordinateur équipé d’un tableur a une fonction tableur, et un autre qui ferait tourner World of Warcraft aurait une fonction MMORPG. En appliquant la méthode heuristique, on pourrait penser qu’un ordinateur ne pouvant exécuter des feuilles de calcul ou des jeux ne constituerait pas davantage une atteinte à l’informatique qu’une interdiction des kits mains-libres ne le serait pour les voitures.

Et si l’on considère les protocoles et les sites web comme des fonctions du réseau, alors demander à modifier l’internet pour que BitTorrent n’y fonctionne plus ou que The Pirate Bay n’y apparaisse plus, cela n’est pas très différent de vouloir changer la tonalité du signal de ligne occupée, ou de déconnecter la pizzeria du coin du réseau téléphonique, et n’équivaut pas à une remise en question des principes fondamentaux de l’internet.

La méthode empirique fonctionne pour les voitures, les maisons, et tous les autres domaines majeurs des réglementations technologiques. Ne pas comprendre qu’elle n’est pas efficace pour l’internet, ce n’est pas être quelqu’un de mauvais, ni un ignare. C’est faire partie de la grande majorité de la population, pour qui le Turing-complet et le principe de bout-à-bout ne veulent rien dire.

Nos législateurs se lancent donc et votent allègrement ces lois, qui intègrent la réalité de notre univers technologique. Soudain, nous n’avons plus le droit de diffuser certaines séries de chiffres sur internet, il est interdit de publier certains programmes, et pour faire disparaître des fichiers licites du réseau, une simple accusation d’infraction au droit d’auteur suffit. Ces mesures échouent à atteindre l’objectif de la réglementation, car elles n’empêchent personne d‘enfreindre le copyright, mais de façon très superficielle, elles donnent l’impression que l’on fait respecter le droit d’auteur – elles satisfont au syllogisme de la sécurité : « Il faut prendre les mesures nécessaires, je prends des mesures, donc le nécessaire à été fait. » Résultat, au moindre échec, on peut prétendre que la réglementation ne va pas assez loin, au lieu de reconnaître qu’elle était inefficace depuis le début.

On retrouve ce genre de similarité superficielle et d’opposition sous-jacente dans d’autres domaines. Un de mes amis, autrefois cadre supérieur dans une grosse entreprise de biens de consommation courante, m’a raconté ce qui s’est passé lorsque les membres du service marketing avaient annoncé aux ingénieurs qu’ils avaient trouvé une idée formidable pour une lessive : désormais, ils allaient fabriquer une lessive grâce à laquelle les vêtements sortiraient plus neufs à chaque lavage !

Après avoir tenté sans succès d’expliquer au service marketing la loi de l’entropie, ils parvinrent à une autre solution : ils conçurent une lessive contenant des enzymes qui attaquaient les fibres éparses, celles-là mêmes qui donnent un aspect usé aux vêtements. À chaque machine, le linge paraissait plus neuf. Malheureusement, cela se produisait parce que le détergent digérait les habits. En l’utilisant, on condamnait littéralement le linge à se désagréger.

C’était évidemment l’inverse du but recherché. Au lieu de rajeunir les vêtements, on les vieillissait de façon artificielle à chaque passage en machine, et en tant qu’utilisateur, plus on appliquait cette « solution », plus on devait prendre des mesures radicales pour garder une garde-robe à jour. Au bout du compte, il fallait acheter des vêtements neufs parce que les anciens tombaient en lambeaux.

Aujourd’hui, certains services marketing déclarent : « Pas besoin d’ordinateurs, ce qu’il nous faut, ce sont des appareils électroménagers. Fabriquez-nous un ordinateur qui ne permet pas de tout faire, seulement de lancer un programme qui effectue une tâche spécialisée, comme lire de l’audio en streaming, transférer des paquets, ou jouer à des jeux Xbox, et surtout, il ne doit pas faire tourner un programme que nous n’avons pas autorisé et qui risquerait d’amoindrir nos profits. »

En surface, l’idée d’un programme ne servant qu’à une fonction spécialisée n’a rien de farfelu. Après tout, on peut installer un moteur électrique dans un lave-vaisselle, et installer un moteur dans un mixeur, et peu nous importe de savoir si l’on peut lancer un programme de lavage dans un mixeur. Mais ce n’est pas ce qui se produit lorsqu’on transforme un ordinateur en appareil électroménager. On ne fabrique pas directement un ordinateur qui ne fait tourner que l’application de l’« appareil ». On prend un ordinateur capable d’exécuter tous les programmes, puis, grâce à un ensemble de rootkits, d’espiogiciels et de codes de validation, on empêche l’utilisateur de savoir quels processus sont actifs, d’installer ses propres logiciels, et d’interrompre les processus qu’il ne désire pas. En d’autres termes, un appareil électroménager n’est pas un ordinateur réduit à sa plus simple expression, c’est un ordinateur entièrement fonctionnel bourré d’espiogiels.

Nul ne sait concevoir un ordinateur généraliste capable de faire fonctionner tous les programmes sauf ceux qui déplaisent au constructeur, sont interdits par la loi, ou font perdre de l’argent à une entreprise. Ce qui s’en approche le plus, c’est un ordinateur bardé d’espiogiciels, une machine sur laquelle des parties tierces décident de limitations sans que l’utilisateur en soit averti, ou malgré les objections du propriétaire de la machine. Les outils de gestion des droits numériques s’apparentent toujours à des logiciels malveillants.

À l’occasion d’un incident qui a fait couler de l’encre (un vrai cadeau pour ceux qui partage mon hypothèse), Sony a dissimulé des installeurs de rootkits sur six millions de CDs audio, lesquels exécutaient subrepticement des programmes qui surveillaient toute tentative de lire les fichiers sons du CD et les interrompaient. Les rootkits cachaient aussi leur existence en poussant le noyau de l’ordinateur à mentir sur les processus en activité et les fichiers présents sur le support. Et ce n’est pas le seul exemple de ce genre. La 3DS de Nintendo profite des mises à jour de son firmware pour procéder à un contrôle d’intégrité, et vérifier que l’ancien firmware n’a subi aucune altération. Au moindre signe qu’on a mofifié le programme, la console devient inutilisable.

Des défenseurs des droits de l’homme ont tiré le signal d’alarme concernant U-EFI, le nouveau programme d’amorçage des PC, qui restreint votre ordinateur de sorte qu’il n’exécute que les systèmes d’exploitation « homologués », faisant valoir que des régimes répressifs allaient vraisemblablement refuser l’homologation des systèmes d’exploitation qui ne permettraient pas des opérations de surveillance furtives.

En ce qui concerne le réseau, les tentatives de le modeler pour qu’il ne puisse servir à enfreindre le droit d’auteur rejoignent toujours les mesures de surveillance mises en place par des régimes répressifs. Prenons par exemple SOPA, la proposition de loi pour la lutte contre le piratage, qui interdit des outils inoffensifs tels que DNSSec (une suite de sécurité qui authentifie les informations envoyées par un nom de domaine) parce qu’il pourrait servir à contrecarrer des mesures de blocage de DNS. SOPA proscrit également Tor, un outil d’anonymat en ligne soutenu par le Naval Research Laboratory (NdT : laboratoire de recherche de la Marine des États-Unis), et utilisé par les dissidents dans les régimes totalitaires, parce qu’il permet de contourner des mesures de blocage d’adresse IP.

La Motion Picture Association of America (NdT : MPAA, l’organisme qui défend les intérêts de l’industrie cinématographique), un des partisans de SOPA, a même fait circuler un mémo qui citait des recherches avançant que SOPA pourrait fonctionner parce qu’elle s’appuie sur des mesures éprouvées en Syrie, en Chine et en Ouzbékistan. On y expliquait que, ces procédés étant efficaces dans ces pays, ils le seraient aussi aux États-Unis !

On pourrait avoir l’impression que SOPA (NdT : quand ce billet a été écrit, SOPA/PIPA n’avaient pas encore été ajournées suite au blackout) siffle la fin de partie au terme d’une longue lutte au sujet du copyright et d’internet, et l’on pourrait croire que si nous parvenons à faire rejeter SOPA, nous serons en bonne voie pour pérenniser la liberté des PC et des réseaux. Mais comme je l’ai précisé au début de cette intervention, le fond du sujet, ce n’est pas le copyright.

La bataille du copyright n’est que la version bêta d’une longue guerre qui va être menée contre l’informatique. L’industrie du divertissement n’est que le premier belligérant à prendre les armes, et dans l’ensemble, on peut penser qu’elle remporte de belles victoires. En effet, nous voici face à SOPA, qui est sur le point d’être votée, prête à briser les fondements de l’internet, le tout pour protéger les tubes du Top 50, les émission de télé-réalité et les films d’Ashton Kutcher.

En réalité, si la législation sur le copyright va aussi loin, c’est parce que les politiciens ne prennent pas la question au sérieux. C’est pourquoi, au Canada, les Parlements successifs n’ont eu de cesse de présenter des propositions de loi plus calamiteuses les unes que les autres, mais en contrepartie, ces mêmes Parlements n’ont jamais été capables de les voter. C’est pourquoi SOPA, une proposition de loi composée de stupidité à l’état pur et assemblée molécule par molécule pour former une sorte de « Stupidium 250 » que l’on ne trouve normalement que dans le noyau des jeunes étoiles, a vu son examen reporté au beau milieu des vacances de Noël – pour que les législateurs puissent participer à un débat national enflammé sur une question autrement importante, l’assurance chômage.

C’est pourquoi l’Organisation mondiale de la propriété intellectuelle se fait duper et promulgue des lois délirantes et d’une ignorance crasse ; parce que lorsqu’une nation envoie une mission à l’ONU de Genève, ce sont des experts en eau, pas en copyright. Des experts de la santé, pas du copyright. Des experts en agriculture, et toujours pas du copyright, parce que c’est loin d’être aussi important.

Le parlement canadien n’a pas soumis ces propositions de loi au vote parce que, parmi les inombrables sujets que le Canada doit traiter, les problèmes de copyright arrivent très loin derrière les urgences sanitaires dans les réserves indiennes, l’exploitation de la nappe pétrolière d’Alberta, l’intervention dans les frictions sectaires entre francophones et anglophones, la résolution des crises dues aux ressources de pêche, et des tas d’autres problèmes. À cause du caractère anodin du copyright, une chose est sûre : dès que d’autres secteurs de l’économie évinceront les inquiétudes au sujet de l’internet et du PC, on se rendra compte que la question du copyright n’était qu’une escarmouche, pas une guerre.

Pourquoi d’autres secteurs risquent-ils de s’en prendre aux ordinateurs comme c’est déjà le cas de l’industrie du divertissement ? Dans le monde d’aujourd’hui, tout est ordinateur. Nous n’avons plus de voitures, mais des ordinateurs qui roulent. Nous n’avons plus d’avions, mais des machines sous Solaris qui volent, agrémentées d’un tas de dispositifs de contrôle industriels. Une imprimante 3D n’est pas un appareil ménager, c’est un périphérique qui ne fonctionne qu’en étant connecté à un ordinateur. Une radio n’a plus rien du poste à galène d’antan, c’est un ordinateur généraliste qui utilise un logiciel. Le mécontentement que soulèvent les copies non autorisées du dernier best-seller à la mode sera insignifiant comparé aux appels aux armes que créera bientôt notre réalité tissée d’ordinateurs.

Prenons l’exemple de la radio. Jusqu’à présent, la réglementation concernant les radios se fondait sur l’idée que les propriétés d’une radio sont fixées à la fabrication, et qu’il est difficile de les modifier. Il ne suffit pas d’actionner un interrupteur sur votre babyphone pour capter d’autres signaux. Mais des radios logicielles puissantes peuvent servir d’interphone pour bébé, de répartiteur pour services d’urgence ou d’outil de contrôle aérien, simplement en chargeant et en exécutant un logiciel différent. C’est pourquoi la Federal Communications Commission (FCC) (NdT : Commission fédérales des communications) s’est intéressée à ce qui allait se produire lorsque les radios logicielles seraient disponibles, et a organisé une consultation pour savoir si elle devait imposer que toutes les radios logicielles soient enchâssées dans des machines d’« informatique de confiance ». En définitive, la question est de savoir si les PC devraient être verrouillés, de telle sorte que leurs programmes puissent être strictement contrôlés par des autorités centrales.

Là encore, ce n’est qu’un avant-goût de ce qui nous attend. C’est cette année seulement que sont apparues des limes open source pour transformer des fusils AR-15 en armes automatiques. C’est cette année qu’on a créé pour la première fois du matériel libre et financé collectivement destiné au séquençage génétique. Tandis que l’impression 3D donnera lieu à des tas de plaintes sans importance, des juges du Sud des États-Unis et des mollahs iraniens piqueront une crise quand des habitants de leur circonscription modèleront des sex-toys. Ce qu’il sera possible de fabriquer avec les imprimantes 3D, qu’il s’agisse de labos à méthemphétamine ou de couteaux céramiques, provoquera de véritables protestations.

Pas la peine d’être auteur de science-fiction pour comprendre que les régulateurs auront des suées à l’idée que l’on puisse modifier le firmware des voitures sans conducteur, limiter l’interopérabilité dans les systèmes de contrôle aérien, ou tout ce qui serait possible d’accomplir avec des assembleurs et séquenceurs moléculaires. Imaginez ce qui se passera le jour où Monsanto décrétera qu’il est primordial de s’assurer que les ordinateurs ne puissent exécuter des programmes grâce auxquels des périphériques produiraient des organismes modifiés qui, littéralement, concurrenceraient leur gagne-pain.

Qu’il s’agisse selon vous d’inquiétudes légitimes ou de peurs insensées, elles restent néanmoins la monnaie politique de lobbies et de groupes d’intérêt beaucoup plus puissants que Hollywood et l’industrie du divertissement. Tous finiront par formuler la même requête : « Fabriquez-nous donc un ordinateur grand public qui exécute tous les programmes, sauf ceux qui nous effraient et nous déplaisent. Fabriquez-nous un internet qui transmet des messages, sur tous les protocoles, d’un point à une autre, sauf si ça nous dérange. »

Parmi les programmes qui tourneront sur des ordinateurs grand public et leurs périphériques, cerains me ficheront les jetons à moi aussi. J’imagine donc sans mal que les partisans d’une limitation de ces ordinateurs trouveront une oreille réceptive. Mais comme cela s’est produit avec la guerre du copyright, interdire certaines instructions, certains protocoles et messages sera un moyen de prévention ou un remède tout aussi inefficace. Comme nous l’avons vu au cours de la guerre du copyright, toute tentative de contrôler les PC mènera à l’installation de rootkits, et toute tentative de contrôler l’internet débouchera sur la surveillance et la censure. Ces questions sont importantes, car depuis dix ans, nous envoyons nos meilleurs joueurs combattre ce que nous prenions pour le dernier boss du jeu, mais il s’avère que ce n’était qu’un boss secondaire. Les enjeux seront toujours plus importants.

Appartenant à la génération Walkman, je me suis résolu au fait que j’aurai besoin d’un appareil auditif pour mes vieux jours. Cela étant, ce ne sera pas un simple sonotone ; en réalité, ce sera un ordinateur. Quand je monterai dans ma voiture – un ordinateur dans lequel je place mon corps – équipé de mon aide auditive – un ordinateur que je place dans mon corps –, je veux donc être certain que ces technologies ne sont pas conçues pour me cacher des informations, ou m’empêcher de mettre fin à un processus qui œuvre contre mon intérêt.

L’année dernière, le secteur scolaire de Lower Merion, dans une banlieue aisée de Philadelphie, s’est trouvé au centre d’un scandale. On a découvert que les établissements distribuaient aux élèves des ordinateurs portables rootkités qui permettaient de procéder à une surveillance furtive et à distance, via la webcam et la connexion réseau. Les machines ont pris des milliers de photos des adolescents, chez eux et en cours, de jour ou de nuit, vêtus ou nus. Dans le même temps, la dernière génération de technologie de surveillance légale peut activer secrètement les caméras, les micros et les émetteurs-récepteurs GPS des PC, tablettes et appareils mobiles.

Nous n’avons pas encore perdu, mais si nous voulons que l’internet et les PC restent libres et ouverts, nous devons d’abord gagner la guerre du copyright. À l’avenir, afin de préserver notre liberté, nous devrons être en mesure de contrôler nos appareils et d’établir des réglementations sensées les concernant, d’examiner et d’interrompre les processus logiciels qu’ils exécutent, et enfin, de les maîtriser pour qu’ils restent d’honnêtes serviteurs de notre volonté, au lieu de devenir des traîtres et des espions à la solde de criminels, de bandits et de maniaques du contrôle.

Notes

[1] Crédit photo : Francis Mariani (Creative Commons By-Nc-Nd)




7 qualités de l’Open Source, entre mythes et réalités

UGArdener - CC by-nc« Nous avons tous intérêt à défendre l’Open Source contre les forces qui l’affaiblissent », nous affirme ici Matthew But­t­er­ick, juriste et passionné de typographie[1].

Constatant que de nombreux projets se disent open source alors qu’ils n’en possèdent pas les caractéristiques, il nous propose ici de le définir en sept points, distinguant la réalité de ce qu’il appelle sa dilution.

Vous ne serez pas forcément d’accord, surtout si vous êtes plus « logiciel libre » (version canal historique Richard Stallman) que « Open Source ». Mais on devrait pouvoir en discuter sereinement dans les commentaires 🙂


Sept qualités essentielles à l’Open Source

Seven essential qualities of open source

Matthew But­t­er­ick – Janvier 2012 – TypographyForLawyers.com
(Traduction Framalang : Goofy, OranginaRouge, antistress)


Les citations tronquées déforment les propos. Beaucoup connaissent la fameuse citation de Stew­art Brand selon laquelle « l’information veut être gratuite » (NdT : « infor­ma­tion wants to be free. »). Cette phrase, prise isolément, est souvent citée à l’appui de thèses selon lesquelles toute contrainte sur l’information numérique est futile ou immorale.

Mais peu ont entendu la deuxième partie du propos, rarement citée, qui prend le contrepied de la première partie : « l’information veut être hautement valorisée » (NdT : « infor­ma­tion wants to be expen­sive. »). Lorsque l’on reconstitue le propos dans son entier, il apparait que Brand veut illustrer la tension centrale de l’économie de l’information. Lorsque le propos est tronqué, sa signification en est changée.

Les citations tronquées ont aussi déformé le sens de « Open Source ». Au fur et à mesure que le monde de l’Open Source prenait de l’ampleur, il a attiré davantage de participants, depuis les programmeurs individuels jusqu’aux grandes entreprises. C’était prévisible. Tous ces participants ne sont pas d’accord sur le sens donné à l’Open Source. Ça aussi c’était prévisible. Certains participants influents ont tenté de diluer l’idée de l’Open Source, usant d’un raccourci réducteur pour décrire une démarche méthodique. Ça aussi, on pouvait s’y attendre.

Mais même si cela était à prévoir, il est toujours payant de combattre cette dilution. Sur le long terme, cela est néfaste à l’Open Source. Et pas seulement pour des raisons éthiques ou morales mais aussi pour des raisons pratiques et de viabilité. Si on laisse l’Open Source se diluer en acceptant de revoir à la baisse les attentes, ceux d’entre nous qui jouissent des avantages de l’Open Source seront perdants à terme. De la même façon, ceux qui contribuent à des projets pseudo-Open Source risquent de dépenser leur énergie au profit de causes douteuses. C’est pourquoi nous avons tous intérêt à défendre l’Open Source contre les forces qui l’affaiblissent.

Dans le même esprit, voici sept qualités que je considère comme essentielles pour définir l’identité de l’Open Source, par opposition aux formes diluées que revêt généralement ce mouvement. L’objectif de cet exercice n’est pas d’offrir une caractérisation univoque de l’Open Source. Ce serait à la fois présomptueux et impossible. L’Open Source est hétérogène par essence, comme tout ce qui apparaît sur la place publique.

Pourtant, le fait que nous puissions parler de l’Open Source en général signifie qu’il doit y avoir des caractéristiques irréductibles. Des gens raisonnables, par exemple, peuvent avoir des conceptions différentes de l’art. Mais qui irait contester la qualité de Mona Lisa ? De la même façon, s’il n’est pas raisonnable de parler de l’Open Source comme d’un bloc monolithique, il est tout aussi déraisonnable de prétendre que c’est un concept complètement subjectif. L’Open Source doit pouvoir être défini sinon le terme lui-même n’a pas de sens.

Pourquoi rédiger un essai sur l’Open Source sur un site Web traitant de typographie ? Premièrement parce que les outils open source prennent une part de plus en plus importante dans la conception des polices (citons par exemple Robo­Fab). Deuxièmement parce que des polices soi-disant open source sont en train d’être produites à une cadence accélérée. Troisièmement parce que l’approche utilisée pour l’Open Source est de plus en plus appliquée aux projets issus des domaines du design ou du droit. Quatrièmement parce que je m’intéresse personnellement de longue date à l’Open Source, ayant par exemple travaillé pour Red Hat (ajoutons que ce site tourne avec Word­Press, un moteur de blog open source).

Qualité essentielle n°1

  • Dilution : L’Open Source émane d’un esprit de liberté et de coopération.
  • Réalité : L’Open Source émane d’un esprit de compétition capitaliste.

L’Open Source, en tant que méthode de conception d’un logiciel, permet l’émergence de produits compétitifs sans les besoins en capitaux et main-d’œuvre inhérents aux méthodes traditionnelles de développement des logiciels propriétaires. La plupart des projets open source à succès sont conçus comme des substituts de logiciels propriétaires à succès. Il n’y a pas de coïncidence. La demande en logiciels propriétaires est aussi ce qui créée la demande pour des alternatives open source.

De plus, le succès d’un projet open source dépend de sa capacité à rivaliser avec l’alternative propriétaire. Le temps, c’est de l’argent. Les logiciels open source qui ne remplissent pas leur office ne font pas des bonnes affaires au final. Bien que certains choisiront le logiciel open source pour des raisons purement politiques, les clients rationnels se prononceront sur la base d’un bilan coûts/avantages.

Qualité essentielle n°2

  • Dilution : Les développeurs de logiciels open source travaillent gratuitement.
  • Réalité : Les développeurs de logiciels open source sont rémunérés.

Personne ne travaille sur des projets open source gratuitement. Peut-être un petit groupe de développeurs contribue t-il à des projets open source pour se distraire au lieu de collectionner des timbres par exemple. Il s’agit là d’une minorité. La plupart du travail open source est réalisé par des développeurs professionnels qui sont rémunérés à un tarif professionnel.

C’est forcément vrai, et ce pour deux raisons.

Premièrement, les développeurs ne sont pas altruistes. Comme n’importe qui d’autre sur le marché du travail, ce sont des acteurs rationnels, et bien payés avec ça. Il n’y a aucune raison pour que ces développeurs se consacrent au développement de logiciels open source moyennant un salaire de misère alors qu’il existe plein d’entreprises qui accepteraient de les payer pour le même travail.

Deuxièmement, ainsi que nous l’avons déjà mentionné, le logiciel open source ne peut réussir que s’il a les moyens de rivaliser avec les alternatives propriétaires. Et il ne peut rivaliser avec les logiciels propriétaires que s’il parvient à attirer des développeurs de même niveau. Et la seule façon d’attirer ces développeurs est de les rémunérer au prix du marché. De la même façon qu’il n’y a pas de déjeuner gratuit, il n’y a pas d’avantage de logiciel gratuit.

Qualité essentielle n°3

  • Dilution : L’Open Source rend les choses gratuites.
  • Réalité : L’Open Source redéfinit ce qui a de la valeur.

Les développeurs de logiciels open source ne travaillent pas gratuitement, mais il existe un corollaire à cette affirmation : les projets open source bénéficient, pour une valeur équivalente, à ceux qui financent ce travail de développement — habituellement les employeurs des développeurs.

Si vous croyez que les entreprises de technologies sont des acteurs rationnels de l’économie, vous avez certainement raison. Une société investira son capital dans les activités les plus rentables qu’elle pourra trouver. Si une entreprise finance des projets open source, elle en espère un retour sur investissement supérieur aux autres options.

Alors que les défenseurs des logiciels libres ou open source tentent parfois d’en illustrer l’idée avec ces comparaisons : libre comme dans « entrée libre » ou comme dans « expression libre » (NdT : « free as in beer » et « free as in speech », deux images souvent utilisées en anglais pour distinguer les deux sens du mot « free », respectivement gratuit et libre), un ingénieur de Red Hat me l’a un jour plus exactement décrit de cette façon : « gratuit comme un chiot ». Certes vous ne payez pas les logiciels open source. Mais vous ne bénéficiez pas des avantages habituels des logiciels propriétaires : facilité d’installation, support d’utilisation, documentation, etc. Soit vous payez avec votre temps, soit vous payez quelqu’un pour ces services. Le résultat est que le coût des services liés au logiciel est déplacé à l’extérieur du logiciel lui-même au lieu d’être inclus dans son prix. Mais ce coût est seulement déplacé, et non supprimé.

Qualité essentielle n°4

  • Dilution : Il n’y a pas de barrière pour participer à l’Open Source.
  • Réalité : L’Open Source s’appuie sur la méritocratie.

L’Open Source ne pourrait pas fonctionner sans un filtrage méritocratique. Ce principe découle de l’idée que l’Open Source est une méthode pour créer des produits compétitifs. Pour obtenir des résultats de haute qualité, les projets open source doivent mettre l’accent sur les contributions de haute qualité, et rejeter le reste. Les projets open source sont ouverts à tous dans le sens où n’importe qui peut suggérer des changements dans le code source. Mais ces changements peuvent toujours être rejetés ou annulés.

L’idée de l’Open Source est mal employée quand elle est appliquée à des projets qui n’ont pas ce filtrage méritocratique et auxquels n’importe qui peut contribuer. Ces projets sont plutôt décrit comme du « partage de fichiers ». Ce qui distingue la méthode open source est son appui sur une communauté de développeurs pour trouver les meilleures idées. Cela signifie donc que la plupart des idées sont rejetées.

Qualité essentielle n°5

  • Dilution : L’Open Source est démocratique.
  • Réalité : L’Open Source s’appuie sur des dictateurs bienveillants.

Les projets open source sont menés par des développeurs qui sont parfois appelés des « dictateurs bienveillants ». Habituellement il s’agit de ceux qui ont démarré le projet et qui sont considérés comme détenant la vision de l’avenir du projet.

Ils ne sont pas élus mais, d’un autre côté, il ne sont autorisés à rester au pouvoir que tant que les autres participants y consentent. C’est le principe de l’Open Source : n’importe qui peut récupérer le code source et l’utiliser pour démarrer un nouveau projet (cette pratique a pour nom le « forking »).

Cela arrive rarement. En fin de compte, les participants à un projet open source ont davantage à gagner à conserver le projet intact sous la direction d’un dictateur bienveillant plutôt que le fragmenter en de multiples projets. (notons ici encore l’influence des incitations rationnelles). De même, le dictateur a intérêt à rester bienveillant puisque le projet pourrait à tout moment se dérober sous ses pieds.

Qualité essentielle n°6

  • Dilution : Un projet open source peut n’avoir qu’un développeur.
  • Réalité : Un projet open source nécessite plusieurs développeurs.

Cette exigence découle de l’idée que l’Open Source est une méritocratie. Il ne peut y avoir de filtrage méritocratique si toutes les contributions viennent d’une seule personne. Parfois certains publieront leur projet personnel et annonceront « Hé, c’est maintenant open source ».

Cela ne le rend pas pour autant open source, pas plus qu’acheter un pack de bières et des chips suffisent à faire une soirée. Vous aurez toujours besoin d’invités. De même pour créer une pression méritocratique, les projets open source ont besoin de plusieurs développeurs (pour créer une émulsion d’idées) et d’un dictateur éclairé (pour choisir parmi ces idées). Sans cette pression, on a affaire à du partage de fichiers, pas de l’Open Source.

Qualité essentielle n°7

  • Dilution : Un projet logiciel peut devenir open source à tout moment.
  • Réalité : L’Open Source est inscrit dans l’ADN du projet ou ne l’est pas.

Comme l’Open Source rencontre un succès grandissant, de plus en plus de projets de logiciels propriétaires ont été « convertis » en logiciels open source. Cela revient à greffer des ailes à un éléphant dans l’espoir qu’il volera.

L’Open Source est une manière de produire des logiciels (entre autres). Cela inclut certaines valeurs et en exclut d’autres. Cela n’est ni intrinsèquement meilleur que le développement de logiciels propriétaires ni applicable à tous les projets. Mais la décision de développer un projet open source n’a du sens qu’au démarrage du projet. De cette manière, le dirigeant, la communauté des développeurs et le code pourront évoluer autour des ces principes.

Un projet propriétaire démarre avec des principes radicalement différents et évolue autour de ces principes. Et il ne pourra pas devenir plus tard un projet open source, pas plus qu’un éléphant ne peut devenir un aigle. Néanmoins, ceux qui convertissent des projets propriétaires en projets open source suggèrent le plus souvent que cela offre le meilleur des deux mondes : une manière de partager les bénéfices d’un développement propriétaire avec une communauté open source.

Mais cela offre presque toujours le pire des deux mondes : l’ouverture des sources n’est qu’une manière cynique d’exporter les problèmes d’un projet propriétaire. Malheureusement c’est ce qui se produit la plupart du temps car des projets propriétaires qui fonctionnent n’ont rien à gagner à devenir open source. Les développeurs n’adoptent pas votre technologie propriétaire ? Ramenez son prix à zéro et renommez le « Open Source ». Votre logiciel propriétaire est rempli de mystérieux bogues insolubles ? Rendez le « Open Source » et peut-être que quelqu’un d’autre résoudra ces problèmes. Votre technologie est sur le point de devenir obsolète car vous avez été trop lent à la mettre à jour ? Peut-être que la rendre open source allongera sa durée de vie. Les entreprises refourguent leurs logiciels à la communauté open source quand elles n’ont plus rien à perdre.

Cependant cette technique n’a jamais payé. Les projets open source qui fonctionnent ont appliqué cette méthodologie très tôt et s’y sont tenu. Le simple engagement en faveur de l’open source n’est pas un gage de succès bien qu’il soit nécessaire.


La plupart de mes explications ci-dessus ont été formulées en termes de développement logiciel. Mais ce message a une portée qui va au delà du simple logiciel. Je pense que « l’Open Source » vient du monde du logiciel, et restera certainement plutôt adapté à ce type de projet, mais il n’y a aucune raison à ce qu’il ne convienne pas à d’autres types de projets. C’est déjà ce qui se passe.

La principale difficulté est d’appliquer de façon méticuleuse et réfléchie le modèle open source. Au fur et à mesure que l’Open Source s’étend et s’éloigne de ses racines traditionnelles, il va devoir faire face à un risque grandissant de dilution. Encore une fois, je ne prêche pas une définition canonique de l’Open Source. Peut-être que le meilleur que nous pouvons espérer est que ceux qui souhaitent qualifier leur projet d’open source apprendront d’eux-mêmes les caractéristiques qui font le succès de ce type de projet. Si vous n’aimez pas mon résumé de ces qualités essentielles, alors apprenez-en suffisamment à propos de l’Open Source pour venir avec le vôtre. Et ne vous sentez pas obligé, ne prenez pas cela comme un devoir à la maison — faites cela dans votre propre intérêt.

Ça ne peut pas faire de mal de se pencher sur les autres projets open source pour comprendre comment ils ont réussi. Une fois cet examen réalisé, si vous voulez modifier les grands principes pour votre propre projet, allez-y ! Je ne m’en plaindrai pas.

Et accordez-moi une faveur : n’appelez pas cela Open Source.

Notes

[1] Crédit photo : UGArdener (Creative Commons By-Sa)




Il est temps de passer à l’offensive pour défendre la liberté d’expression

On peut se féliciter du spectaculaire succès de la récente action contre les lois SOPA et PIPA mais quelques part il était déjà trop tard. Il ne restait plus qu’à résister, ce qui fut fait et bien fait jusqu’à… la prochaine attaque !

Engagez-vous, comme dirait l’autre, pour casser ce cercle vicieux qui nous voit être trop souvent sur la défensive[1], pour proposer et mettre en place d’urgentes et salutaires alternatives.

Un article qui fait écho à une autre de nos traductions : Le jour d’après le blackout SOPA ou ce que j’aurais aimé entendre de Wikipédia & Co.

Petteri Sulonen - CC by

Il est temps de passer à l’offensive pour défendre la liberté d’expression

It’s Time To Go On The Offensive For Freedom Of Speech

Rick Falkvinge – 22 janvier 2011 – TorrentFreak – CC BY-SA
(Traduction Framalang/Twitter : skhaen, vinci, toto, e-Jim, quota)

L’action collective de la semaine dernière contre les lois PIPA et SOPA aux États-Unis était fabuleuse et sans précédent. Mais n’avez-vous pas remarqué que nous étions toujours sur la défensive ? Nous ne pourrons pas gagner ni même conserver notre liberté d’expression en continuant ainsi.

L’industrie du copyright est tenace et utilise, avec une grande efficacité il faut l’avouer, pour faire voter des lois, la technique dite du « Papa, je veux un poney ». Ils y reviennent sans cesse. Conséquence de cela, nous assistons à une érosion sans fin de nos droits civiques, et à l’enracinement du fait que cette industrie doive profiter de nos impôts.

La tactique dite de « Papa, je veux un poney » fonctionne à peu près comme suit :

La petite fille : Papa, Je veux un poney ! veux un poney ! je veux veux veux un poney !

Le père : Hum, non, hum, hum, non, pourquoi pas plutôt un chien ?

La petite fille : Non non NON ! Je veux un poney ! un PONEY ! … Heu, bon, un chien ? d’accord !

À ce moment là le père pense : « pfiou, je l’ai échappé belle ». Et la petite fille pense « wow, ce fut le chien le plus facile à avoir que j’ai jamais eu ». C’est la tactique « Papa, je veux un poney ».

Nous avons vu cette tactique à l’oeuvre avec le DMCA (NdT: Digital Millennium Copyright Act) aux États-Unis, lequel a largement restreint nos droits sur notre propriété privée, ainsi qu’avec son pendant Européen, la directive InfoSoc (NdT: Directive 2001/29/CE du Parlement européen et du Conseil du 22 mai 2001 sur l’harmonisation de certains aspects du droit d’auteur et des droits voisins dans la société de l’information). Nous pouvons la voir en ce moment même avec ACTA qui, à nouveau, est une illustration de cette attitude « on peut retirer le plus choquant, le plus répugnant. », tout en laissant passer d’autres éléments qui n’en constituent pas moins un énorme pas en arrière en matière de droits de l’Homme. Nous l’avons vu également avec le Directive sur la Conservation des Données.

À chaque fois, nous nous défendons et réussissons à faire supprimer les pires morceaux, en brûlant à chaque fois davantage nos réserves d’activistes. Puis il y a une nouvelle attaque trois ans plus tard. Ajoutons qu’à chaque fois que nous nous battons contre un de ces maux, une dizaines d’autres passent discrètement en douce dans les coulisses du pouvoir.

Le truc, c’est que tant que nous nous bornerons à défendre nos droits, nous aurons en permanence un coup de retard, et nous perdrons toujours. L’industrie du copyright a l’initiative, et le mieux que nous puissions faire est de résorber le retard que nous avons, ou de limiter les dégats déjà provoqués. Cela n’est pas suffisant.

Et il y a pire. L’industrie du copyright a également obtenu le droit de percevoir des taxes sur le commerce de produits sans liens directs avec le droit d’auteur, notamment les médias vierges (NdT : cf la taxe sur la copie privée) mais également des objets ayant à priori peu à voir avec la copie d’œuvres telles que les consoles de jeux, parce qu’elles peuvent théoriquement être utilisées comme support pour copier des ressources de manière tout à fait légale. Vous comprenez ça, vous ? Copier ainsi ne viole pas le monople instauré par le copyight, mais l’industrie du copyright reçoit quand même cette compensation.

Reprenons.

Le monopole du copyright, bien qu’étant très étendu, ne recouvre pas tout acte de copie imaginable. Il y a beaucoup de manières de copier qui sont parfaitement légales et non couvertes par ce monopole. Mais dans le sens du copyright tel que l’entendent les industriels, il ont demandé – et obtenu – une compensation concernant les domaines où le monopole du copyright ne s’étend pas. Une compensation de la poche du contribuable, versée à une industrie privée. Pour n’avoir pas de monopole. Vous y croyez ?

Dans ce schéma de compensation, ils collectent des sommes d’argent faramineuses chaque année sans avoir besoin de faire quoi que ce soit. Beaucoup de cet argent est directement reversé dans la guerre contre nos droits civiques, et dans toujours plus de lobbying pour d’obtenir encore plus d’argent du contribuable, avec de nouveaux schémas de type : « Papa, je veux un poney ». Pour nous, c’est un cercle vicieux. N’importe qui, connaissant un peu les différents moyens de motiver quelqu’un, sait que la pire manière d’optimiser la production consiste à donner de l’argent à une industrie sans tenir compte de ce qu’ils sont en train de faire avec cet argent, que ce soit en bien, en mal, ou en rien du tout.

Donc, pour résumer, l’industrie du copyright s’est mise elle-même dans une position où elle gagne des sommes incroyables en ne faisant absolument rien, et utilise cet argent pour acheter des lois qui leur donneront encore plus d’argent, tout en réduisant notre liberté d’expression. Ce n’est pas seulement inacceptable. C’est répugnant.

C’est une surprise pour personne, je pense depuis longtemps que le monopole du copyright est dangereux (ou au moins inutile) dans son ensemble, et que la créativité, le business et les libertés civiles s’en porterait bien mieux s’il n’existait pas. Pour avoir étudié le sujet pendant 6 ans d’affilée, je découvre toujours plus d’indicateurs qui me confortent dans ma position.

Mais je suis également assez pragmatique pour comprendre que si vous visez la lune et insistez pour ne pas avoir d’étape intermédiaire entre le départ et l’arrivée, non seulement vous n’arriverez jamais à l’atteindre, mais vous risquez en plus de ne pas faire un seul pas en avant. S’engager ne serait-ce que partiellement vers la lune peut déjà vous apporter satisfaction. 99% des problèmes avec le copyright d’aujourd’hui peuvent être résolus avec une réforme réaliste et raisonnable.

Lorsque l’enjeu est d’envergure, on ne peut pas changer toutes les règles du jeu en un jour. Donc visons à établir une proposition équilibrée et raisonnable qui restaure nos libertés civiles tout en conservant certains aspects des investissements qui incitent au développement de la culture.

J’emprunte ce plan au groupe des Verts du Parlement Européen (et plus précisément à la délégation du Parti Pirate qui l’abrite). Essayons de faire passer cette nouvelle législation en Europe, aux USA, en Australie, et partout où l’on pourra :

  • Il faut impérativement mettre au clair que le monopole du copyright ne peut s’étendre à ce qu’une personne ordinaire peut faire avec un équipement ordinaire, chez lui, et sur son temps libre ; ce monopole doit ne réguler que l’activité commerciale, dans le but de faire du profit. En particulier, le partage de fichiers est toujours légal.
  • Échantillons gratuits. Il doit exister des exceptions qui rendent légale la création de remixes et de mashups. Les droits de citation tels qu’ils existent pour le texte, doivent être étendus aux sons et aux vidéos.
  • Les outils de restriction des droits numériques (DRM) devraient être rendus illégaux, car c’est une escroquerie qui nie les droits des consommateurs et des citoyens, à défaut il doit au moins être possible de les contourner légalement.
  • Le monopole du copyright commercial basique est ramené à cinq ans à dater de la publication, extensible à vingt ans si l’oeuvre a été enregistrée dans une base de données appartenant au monopole du copyright.
  • Le domaine public doit être renforcé.
  • La neutralité du Net doit être garantie.
  • La levée d’impôts sur des médias vierges est mise hors-la-loi.
  • De manière générale, la limite doit toujours être très clair. Les déclaration du genre « la justice en décidera » ne sont pas acceptables et sont équivalents à la mise hors-la-loi.

Cette proposition raisonnable, équilibrée, réalisable et réaliste résoudrait 99% des problèmes actuels, tout en maintenant l’ensemble des quatre aspects du monopole instauré par le copyright.

Cela mettait un terme à la chasse aux sorcières contre les ados qui téléchargent des séries télé. Cela résoudrait le problème des oeuvres orpheline, et nous rendrait l’accès à l’héritage culturel du XXème siècle. Et cela résoudrait le problème des contribuables payant l’industrie du copyright sans raison.

Par contre, cela maintiendrait un monopole commercial d’une durée maximale de 20 ans pour les investissements dans des productions culturels, battant en brêche l’argument avancé par l’industrie du copyright selon lequel l’établissement d’un monopole est nécessaire pour encourager la création culturelle.

Même si je ne suis pas d’accord avec les monopoles sur les brevets, il convient de noter que si les companies pharmaceutiques peuvent se contenter d’un monopole commercial de 20 ans (sur les brevets), alors cette durée devrait certainement convenir à Disney et Elvis aussi.

Ceci, ou quelque chose s’en approchant, est ce que nous devons faire. Nous devons reprendre l’offensive pour défendre notre liberté d’expression.

Notes

[1] Crédit photo : Petteri Sulonen (Creative Commons By)




Les dangers du livre électronique, par Richard Stallman

Le jour viendra où lire tranquillement un livre dans un parc deviendra un acte de résistance.

Nous ne sommes plus très loin en effet de Fahrenheit 451 et surtout de la nouvelle Le droit de lire, rédigée par Richard Stallman en… 1997, et malheureusement plus proche aujourd’hui de la triste réalité que de la fiction délirante[1].

Le même Richard Stallman se livre ci-dessous à une comparaison édifiante entre un livre papier et un livre électronique (ou e-book). Je me retourne et suis alors bien content de trouver encore de vrais livres dans ma bibliothèque…

Remarque 1 : Un billet qui fait écho à l’excellent (mais tout aussi inquiétant) Lisez, vous êtes surveillés de Jean-Marc Manach.

Remarque 2 : Raison de plus pour soutenir notre transparent projet Framabook, par exemple en achetant la version vraie livre des ouvrages 🙂

Giles Lane - CC by-nc-sa

Stallman : E-books malfaisants et vie privée

Stallman on E-Book Evils & Privacy

Alan Wexelblat – 19 janvier 2012 – Copyfight
(Traduction Framalang/Twitter : kamui57, HgO, Cubox, ncroizat, Palu, adelos, Felor, Shoods, electronichien, Don Rico)

J’étais invité en fin de semaine dernière à une table ronde sur le droit d’auteur avec Richard Stallman. L’homme s’est certainement assagi avec l’âge (même si je suis heureux de ne pas avoir été invité à une table ronde sur « l’héritage de Steve Jobs » avec lui). Avant le début des discussions, il m’a tendu un papier intitulé « Le danger des e-books », que vous trouverez sur son site (NdT : et donc traduit ci-après par nos soins).

Les points qu’il soulève sont pour l’essentiel ceux dont nous avons débattu ces derniers mois – questions de propriété, formats propriétaires, DRMs restrictifs, etc. Mais j’ai pensé qu’il valait mieux bloguer au sujet de son premier point, qui crève les yeux tellement c’est évident et que j’ai pourtant manqué. Les e-books, du moins la façon dont ils sont vendus aujourd’hui par les principaux fournisseurs, présentent un risque majeur de confidentialité que les livres physiques ne posent pas.

Comme le note Stallman, vous pouvez vous rendre dans une librairie et acheter un livre physique de manière anonyme, le plus souvent juste avec des espèces. Tout au plus pourrait-on exiger de vous de prouver votre âge pour certains contenus, mais aucune trace des informations que vous donnez ne sera conservée. Contrairement à l’achat d’un e-book, qui requiert une identification, reliée à une carte de crédit, un compte bancaire, et d’autres informations difficiles à supprimer. Ces traces d’achat peuvent alors être invoquées ou saisies par les autorités qui pourraient avoir un intérêt à savoir ce que vous avez lu. Avez-vous acheté des livres sur les fertilisants agricoles récemment ? Ou peut-être vivez-vous dans un pays du Moyen-Orient et votre gouvernement se préoccupe soudainement du fait que vous avez acheté des e-books expliquant comment construire des applications se connectant à l’API de Twitter.

Même si les autorités ne saisissent pas vos enregistrements, nous avons déjà nombre de preuves que ceux qui les possèdent vont bafouer la loi pour obtenir des informations personnelles utiles à leur commerce. Si votre liste de lecture ressemble à la mienne, il doit déjà y avoir dessus suffisament de choses pour alimenter les soupçons. Le Comic Book Legal Defense Fund (NdT : Fond de Défense Juridique des créateurs de Bandes Dessinées), par exemple, suit de nombreux cas de gens dont les habitudes de lecture se sont avérées suivies et surveillées pour les autorités.

Jonsson - CC by

Les e-books et leurs dangers

The Danger of Ebooks

Richard Stallman – 2011 – Creative Commons Paternité 3.0
(Traduction Framalang/Twitter : kamui57, HgO, Cubox, ncroizat, Palu, adelos, Felor, Shoods, electronichien, Don Rico)

Alors que le commerce régit nos gouvernements et dicte nos lois, toute avancée technologique offre aux entreprises une occasion d’imposer au public de nouvelles restrictions. Des technologies qui devraient nous conférer davantage de liberté sont au contraire utilisées pour nous entraver.

Le livre imprimé :

  • On peut l’acheter en espèces, de façon anonyme.
  • Après l’achat, il vous appartient.
  • On ne vous oblige pas à signer une licence qui limite vos droits d’utilisation.
  • Son format est connu, aucune technologie privatrice n’est nécessaire pour le lire.
  • On a le droit de donner, prêter ou revendre ce livre.
  • Il est possible, concrètement, de le scanner et de le photocopier, pratiques parfois légales sous le régime du copyright.
  • Nul n’a le pouvoir de détruire votre exemplaire.

Comparez ces éléments avec les livres électroniques d’Amazon (plus ou moins la norme) :

  • Amazon exige de l’utilisateur qu’il s’identifie afin d’acquérir un e-book.
  • Dans certains pays, et c’est le cas aux USA, Amazon déclare que l’utilisateur ne peut être propriétaire de son exemplaire.
  • Amazon demande à l’utilisateur d’accepter une licence qui restreint l’utilisation du livre.
  • Le format est secret, et seuls des logiciels privateurs restreignant les libertés de l’utilisateur permettent de le lire.
  • Un succédané de « prêt » est autorisé pour certains titres, et ce pour une période limitée, mais à la condition de désigner nominalement un autre utilisateur du même système. Don et revente sont interdites.
  • Un système de verrou numérique (DRM) empêche de copier l’ouvrage. La copie est en outre prohibée par la licence, pratique plus restrictive que le régime du copyright.
  • Amazon a le pouvoir d’effacer le livre à distance en utilisant une porte dérobée (back-door). En 2009, Amazon a fait usage de cette porte dérobée pour effacer des milliers d’exemplaires du 1984 de George Orwell.

Un seul de ces abus fait des livres électroniques une régression par rapport aux livres imprimés. Nous devons rejeter les e-books qui portent atteinte à nos libertés.

les entreprises qui les commercialisent prétendent qu’il est nécessaire d’empiéter sur nos libertés afin de continuer à rémunérer les auteurs. Le système actuel du copyright rétribue généreusement ces entreprises, et chichement la grande majorité des auteurs. Nous pouvons soutenir plus efficacement les auteurs par des biais qui ne requièrent pas que l’on porte atteinte à notre liberté, et même légaliser le partage. Voici deux méthodes que j’ai déjà suggérées :

  • Concevoir des programmes permettant aux utilisateurs d’envoyer aux auteurs des paiements volontaires et anonymes.

Les livres électroniques n’attaquent pas systématiquement notre liberté (ceux du Projet Gutenberg la respectent), mais ce sera le cas si nous laissons toute latitude aux entreprises. Il est de notre devoir de les en empêcher.

Soutenez notre cause en vous inscrivant à cette liste de diffusion.

Notes

[1] Crédit photos : Giles Lane (Creative Commons By-Nc-Sa) et Jonsson (Creative Commons By)




Mesures de R. Stallman pour une politique publique de promotion du logiciel libre

La « timidité » des pouvoirs publics vis-à-vis du logiciel libre est quelque chose qui en 2012 défie le bon sens.

Comme d’habitude avec Richard Stallman[1] c’est du sans concession mais je me prends à rêver que tous les candidats aux futures élections approuvent ces mesures et s’engagent en signant en bas de la page…

Au delà de ce crucial sujet de fond, ce billet a deux autres intentions. Rappeler l’existence du site Gnu.org qui accueille entre autres les écrits de Richard Stallman et de la Free Software Foundation et qui réalise un gros travail de traduction. Appeler à participer à la campagne de soutien dont il ne manque plus grand chose pour atteindre l’objectif fixé.

Christian Payne - CC by-nc-sa

Mesures à la portée des gouvernements pour promouvoir le logiciel libre

URL d’origine du document

Richard Stallman – GNU.org – version du 06 janvier 2012
Licence Creative Commons By-Nd

Cet article suggère des mesures pour une politique forte et résolue destinée à promouvoir le logiciel libre au sein de l’État, et à conduire le pays vers la liberté informatique.

La mission de l’État est d’organiser la société avec pour objectif la liberté et le bien-être du peuple. Un aspect de cette mission, dans le domaine informatique, est d’encourager les utilisateurs à adopter le logiciel libre.

L’État a besoin d’exiger le logiciel libre dans sa propre informatique pour garantir sa souveraineté dans ce domaine (c’est-à-dire le contrôle par l’État de son informatique). Les utilisateurs ont un droit légitime au contrôle de leur informatique, mais l’État est responsable envers les citoyens du maintien de son contrôle sur les travaux informatiques qu’il effectue pour eux. La plupart des activités de l’État se font actuellement par ce moyen, et son contrôle de ces activités dépend donc de son contrôle de son informatique. Lorsqu’il s’agit d’une agence dont la mission est cruciale, perdre ce contrôle sape la sécurité nationale.

La migration des organismes étatiques vers le logiciel libre peut fournir des bénéfices supplémentaires qui sont d’induire des économies budgétaires et de dynamiser l’industrie locale de support de logiciel.

Dans ce texte, « organismes étatiques » se réfère à tous les niveaux de gouvernement, et signifie les organismes publics y compris les écoles, les partenariats public-privé, les organismes en grande partie financés par l’État, et les sociétés « privées » contrôlées par l’État ou auxquelles l’État a attribué des privilèges ou des missions particulières.

Le domaine politique le plus important concerne l’éducation, dans la mesure où celle-ci détermine l’avenir d’une nation :

  • Les activités éducatives, du moins celles qui sont assurées par des organismes étatiques, doivent enseigner uniquement les logiciels libres (et donc ne devraient jamais conduire les élèves à utiliser un programme non libre), et devraient enseigner les raisons civiques de promouvoir le logiciel libre. Enseigner un programme non libre revient à enseigner la dépendance, ce qui est contraire à la mission de l’école.

Sont également cruciales les politiques publiques qui ont des conséquences sur le type de logiciel utilisé par les particuliers et par les organisations :

  • Les lois et les pratiques du secteur public doivent être modifiées afin de ne jamais obliger les particuliers ou les organisations à utiliser un programme non libre, ni les y pousser, même indirectement. Elles doivent aussi décourager les pratiques de communication et de publication qui impliquent de telles conséquences, y compris la gestion numérique des restrictions (DRM) EN).
  • Chaque fois qu’un organisme étatique distribue des logiciels au public, y compris des programmes inclus dans ses pages web ou exigés par elles, ces programmes doivent être distribués en tant que logiciels libres, et être aptes à fonctionner dans un environnement 100% libre.
  • Les sites web et les serveurs des organismes étatiques doivent être conçus pour fonctionner parfaitement dans des environnements 100% libres sur l’ordinateur de l’utilisateur.
  • Les organismes étatiques doivent utiliser uniquement les formats de fichier et les protocoles de communication qui sont bien pris en charge par le logiciel libre, et de préférence ceux dont les spécifications ont été publiées. (Nous n’énonçons pas cette règle en termes de « standards » parce qu’elle doit s’appliquer aux interfaces non standardisées aussi bien que standardisées.) Par exemple, ils ne doivent pas distribuer d’enregistrements audio ou vidéo dans des formats qui nécessitent de recourir à Flash ou à des codecs non libres, et les bibliothèques publiques ne doivent pas distribuer d’œuvres munies de dispositifs de gestion numérique des restrictions (DRM).

Plusieurs politiques affectent la souveraineté informatique de l’État. Les organes étatiques doivent exercer le contrôle de leur informatique, et ne pas céder celui-ci aux mains d’entités privées. Ces points s’appliquent à tous leurs ordinateurs, y compris les smartphones.

  • Tous les organismes étatiques doivent migrer vers le logiciel libre, et ne doivent installer ni continuer à utiliser aucun logiciel non libre, sauf exception temporaire. Une seule agence doit être compétente pour accorder ces dérogations temporaires, et seulement lorsque des raisons impérieuses sont démontrées. L’objectif de cette agence devrait être de réduire le nombre de ces exceptions à zéro.
  • Quand un organisme étatique finance le développement d’une solution informatique, le contrat doit exiger que ce soit une solution logicielle libre et capable de fonctionner dans un environnement 100% libre. Tous les contrats doivent l’exiger, de sorte que si les développeurs ne se conforment pas à cette exigence, leur ouvrage ne puisse être payé.
  • Quand un organisme étatique achète ou loue des ordinateurs, il doit choisir parmi les modèles qui se rapprochent le plus, dans leur catégorie de spécifications et capacités, d’un fonctionnement sans aucun logiciel privateur (non libre). L’État doit maintenir, pour chaque catégorie d’ordinateurs, une liste des modèles acceptables répondant à ce critère. Les modèles disponibles à la fois pour le public et l’État doivent être préférés aux modèles disponibles uniquement pour l’État.
  • L’État se doit de négocier activement avec les fabricants pour favoriser la disponibilité sur le marché (tant pour le public que pour l’État), dans tous les domaines pertinents, de produits matériels hardware appropriés qui ne nécessitent aucun logiciel privateur.
  • L’État devrait inviter d’autres États à négocier collectivement avec les fabricants la fourniture de produits matériels appropriés. Car ensemble ils auront plus de poids.

La souveraineté et la sécurité informatiques d’un État supposent le contrôle de l’État sur les ordinateurs effectuant des tâches de son ressort. Cela exige d’éviter le logiciel en tant que service (SaaS), à moins qu’il ne soit géré par une agence de l’État. (Cependant, pour respecter la séparation des pouvoirs, les travaux informatiques des services relevant respectivement de l’exécutif, du législatif et du judiciaire ne doivent pas être confiés à une agence relevant d’un autre pouvoir.) Plus généralement, cela exige d’éviter toute pratique qui diminuerait le contrôle exercé par l’État sur son informatique.

  • Tout ordinateur utilisé au service de l’État doit avoir été acquis ou loué par une entité relevant du même « pouvoir » (exécutif, législatif ou judiciaire) que l’administration utilisatrice ; aucune entité extérieure à ce pouvoir ne doit avoir le droit de décider qui a accès à l’ordinateur, qui peut en effectuer la maintenance (matérielle ou logicielle), ou quels logiciels doivent y être installés. Si l’ordinateur n’est pas portable, alors il doit être utilisé dans un espace dont l’État est propriétaire ou locataire.

Une autre politique concerne le développement de logiciels libres et non libres :

  • L’État doit encourager les développeurs à créer ou à améliorer le logiciel libre ainsi que tous ceux qui les mettent à disposition du public, par exemple au moyen d’exonérations fiscales ou de toutes autres incitations financières. Au contraire, aucune incitation ne doit être accordée pour le développement, la distribution ou l’utilisation de logiciels non libres.
  • En particulier, les développeurs de logiciels privateurs ne devraient pas être en mesure de « donner » des copies à des écoles et réclamer une déduction d’impôt basée sur la valeur nominale du logiciel. Les logiciels privateurs n’ont nulle légitimité dans les écoles.

Un tel train de mesures doit permettre à l’État de recouvrer le contrôle et la souveraineté de son informatique, ainsi que d’amener les citoyens, les entreprises et les organisations du pays à prendre le contrôle de leur informatique.

Notes

[1] Crédit photo : Christian Payne (Creative Commons By-Nc-Sa)




Pourquoi les codeurs sont des oiseaux de nuit ?

« Les développeurs travaillent la nuit parce que cela les dispense de contraintes horaires. Ils sont alors plus détendus, ne se dispersent pas, et la luminosité de l’écran neutralise la fatigue. »

Telles sont les hypothèses de Swizec Teller, jeune blogueur (et donc aussi et surtout développeur) slovène[1].

Et vous ? Travaillez-vous aussi principalement de nuit et si oui que vous inspire ce témoignage ?

Stuart Pilbrow - CC by-sa

Pourquoi les programmeurs travaillent de nuit

Why programmers work at night

Swizec Teller – 15 décembre 2011 – A geek with a hat
(Traduction Framalang : Deadalnix, Goofy, Martin, Pandark, DonRico, Antistress)

Il est d’usage de dire que les programmeurs sont des machines qui transforment la caféine en code.

Demandez donc au premier développeur venu à quel moment il est le plus efficace. Il y a de fortes chances qu’il reconnaisse travailler souvent très tard la nuit. Certains sont plus matinaux que d’autres. Une tendance répandue est de se lever à quatre heures du matin et de se mettre au travail avant que la folle agitation de la journée ne commence. D’autres préfèrent se coucher à quatre heures du matin.

L’essentiel, c’est d’éviter les distractions. Mais il est toujours possible de fermer la porte à clé, alors la nuit, qu’est-ce que ça apporte de plus ?

Je pense que cela tient à trois éléments : l’emploi du temps du créateur, le cerveau fatigué et la luminosité des écrans d’ordinateurs.

L’emploi du temps du créateur

C’est en 2009 que Paul Graham a écrit un billet au sujet de l’emploi du temps du créateur – en résumé, il existe deux grandes familles d’emplois du temps en ce bas monde.

D’un côté, l’emploi du temps traditionnel du manager, ou la journée est découpée en heures, et où dix minutes de distraction coûtent, au maximum, l’équivalent d’une heure de temps de travail.

De l’autre, on a ce que Paul Graham nomme l’emploi du temps du créateur – un emploi du temps pour ceux qui produisent quelque chose. Travailler sur des systèmes abstraits de grande envergure nécessite d’avoir l’ensemble dudit système en tête. Quelqu’un a un jour comparé ce processus à la construction d’une maison faite en cristal précieux. Dès que quelqu’un vous distrait, l’édifice s’écroule et se brise en mille morceaux.

Voilà pourquoi les programmeurs supportent si mal que l’on perturbe leur concentration.

À cause de cet investissement intellectuel important, nous ne pouvons tout simplement pas nous mettre au travail avant d’avoir quelques heures de tranquillité devant nous. Inutile de construire ce modèle dans notre tête pour le voir démoli une demi-heure plus tard.

En fait, en interrogeant de nombreux entrepreneurs, vous découvrirez qu’ils pensent ne pas être capables de véritablement travailler pendant la journée. Le flot constant d’interruptions, de choses importantes™ à régler et de courriels à rédiger l’interdit. Résultat, ils accomplissent en grande partie leur « vrai boulot » pendant la nuit, quand les autres dorment.

Le cerveau fatigué

Mais même les programmeurs ont besoin de dormir la nuit. Nous ne sommes pas des êtres supérieurs. Même les programmeurs sont plus attentifs le jour.

Alors pourquoi accomplissons-nous notre vrai boulot, complexe et exigeant, quand notre cerveau réclame du repos, et effectuons des tâches plus simples lorsque nous capacités intellectuelles sont les plus affutées ? Parce qu’être fatigué fait de nous de meilleurs codeurs.

De façon similaire au Ballmer Peak (Ndt : théorie selon laquelle les programmeurs sont plus efficaces avec un certain taux d’alcool dans le sang), la fatigue nous permet d’être mieux concentré, car le cerveau n’a alors d’autre choix que de se focaliser sur une tâche précise ! Il n’a pas assez d’excédent de capacités pour se permettre de vagabonder.

J’ai l’impression que les moments où je suis le moins efficace, c’est quand j’ai bu trop de thé ou une boisson énergisante à un moment mal calculé. La caféine ou les vitamines me rendent hyperactif, et je passe alors en permanence de Twitter au blog de tel ou tel, et j’ai l’impression de m’agiter dans tous les sens…

On pourrait croire que je travaillerais mieux à ce moment-là, quand j’ai de l’énergie à revendre et le cerveau en ébullition, mais non. Je ne cesse de me prendre les pieds dans le tapis, parce que je suis incapable de me concentrer plus de deux secondes d’affilée.

À l’inverse, lorsque je suis en état de fatigue légère, je ne bouge pas les fesses de mon siège et j’écris du code, rien d’autre. Je peux alors coder des heures entières sans même songer à consulter Twitter ou Facebook. C’est comme si internet cessait d’exister.

J’ai le sentiment que ce phénomène se vérifie chez la majorité des programmeurs. Nous disposons de trop de capacité cérébrale pour environ 80% des tâches qui nous incombent. Ne nous leurrons pas, l’écriture d’un tout petit algorithme bien corsé nécessite dix fois plus de ligne de codes que la construction de l’environnement dans lequel il pourra s’exécuter. Même si vous bossez sur l’apprentissage automatique (ou je ne sais quoi d’autre) le plus pointu, une grande partie du travail consiste simplement à nettoyer les données et à présenter les résultats de façon élégante.

Et quand le cerveau ne tourne pas à plein régime, il cherche à s’occuper. La fatigue vous abrutit juste ce qu’il faut pour que votre travail en cours lui suffise.

La luminosité des écrans

Là, c’est plutôt simple. Le soir, restez devant une source de lumière vive, et votre cycle de sommeil se décale. Vous oubliez la fatigue jusqu’à trois heures du matin. Ensuite, vous vous réveillez à onze heures, et lorsque le soir pointe le bout de son nez, vous n’êtes même pas crevé parce, je vous le donne en mille, vous vous êtes levé super tard !

Si cela se reproduit un certain nombre de fois, vous pouvez vous retrouver dans un fuseau horaire différent. Plus intéressant encore, il semblerait que le décalage finisse par stagner, car lorsqu’on atteint un rythme de croisière en se couchant à trois ou quatre heures du matin, on finit par se caler sur ces horaires.

À moins que ce ne soit tout bêtement à cause des radio-réveils, parce que la société nous renvoie l’image de grosses larves si on prend le petit-déj à deux heures de l’après-midi.

Fin

En conclusion, les programmeurs travaillent la nuit parce que cela les dispense de contraintes horaires. Ils sont alors plus détendus, ils ne se dispersent pas, et la luminosité de l’écran neutralise la fatigue.

Notes

[1] Crédit photo : Stuart Pilbrow (Creative Commons By-Sa)




Le mouvement Occupy prépare un Facebook libre pour les 99 %

Ne faisant pas confiance à Facebook et autre Twitter et dans la foulée d’Occupy Wall Street, une bande de geeks cherchent à mettre en place un réseau social dédié aux mouvements d’activisme et de protestation[1].

Ils nous expliquent ici le pourquoi du comment d’un tel ambitieux projet.

Sasha Kimel - CC by

Les geeks du mouvement Occupy construisent un Facebook pour les 99%

Occupy Geeks Are Building a Facebook for the 99%

Sean Captain – 27 décembre 2011 – Wired
(Traduction Framalang/Twitter : Lolo le 13, AlBahtaar, Destrimi, HgO, Marm, Don Rico)

« Je ne cherche pas à dire que nous créons notre propre Facebook, mais c’est pourtant ce que nous sommes en train de faire, » explique Ed Knutson, un developpeur web et applications mobiles qui a rejoint une équipe de geeks-activistes qui repensent le réseautage social pour l’ère de la contestation mondialisée.

Ils espèrent que la technologie qu’ils sont en train de développer pourra aller bien au-delà d’Occupy Wall Street pour aider à établir des réseaux sociaux plus decentralisés, une meilleure collaboration en ligne pour l’entreprise et, pourquoi pas, contribuer au web sémantique tant attendu – un internet qui soit fait non pas de textes en vrac, mais unifié par des métadonnées sous-jacentes que les ordinateurs peuvent facilement analyser.

Cet élan est compréhensible. En 2010 et 2011, les médias sociaux ont permis aux manifestants du monde entier de se rassembler. Le dictateur égyptien Hosni Mubarak a eu tellement peur de Twitter et Facebook qu’il a coupé l’accès internet de l’Égypte. Une vidéo Youtube publiée au nom des Anonymous a propulsé le mouvement Occupy Wall Street, jusqu’alors confidentiel, aux actulalités nationales. Enfin, apparaître parmi les hashtags Twitter les plus populaires a fait passer #Occupy d’une manifestation ennuyeuse organisée le 17 septembre 2011 à un mouvement national, et même international.

D’après Knuston, il est temps pour les activistes de passer un cap, de quitter les réseaux sociaux existants et de créer le leur. « Nous ne voulons pas confier à Facebook les messages confidentiels que s’échangent les militants », dit-il.

La même approche s’applique à Twitter et aux autres réseaux sociaux – et ce raisonnement s’est trouvé justifié la semaine passée, lorsqu’un procureur de district du Massachusetts a enjoint Twitter de communiquer des informations sur le compte @OccupyBoston, et d’autres, liés au mouvement de Boston. (À son crédit, Twitter a pour politique de permettre aux utilisateurs de contester de tels ordres quand c’est possible.)

« Ces réseaux peuvent rester parfaitement fréquentables,jusqu’au jour où ça ne sera plus le cas. Et ça se produira du jour au lendemain », déclare Sam Boyer, un militant passé développeur web, redevenu militant, qui travaille avec l’équipe technique des occupants de New York.

À plusieurs niveaux au sein des mouvements Occupy, on commence déjà à prendre ses distances avec les principaux réseaux sociaux – que ce soit par les réseaux locaux déjà mis en place pour chaque occupation, par un projet de réseau international en cours de création appelé Global Square, à la construction duquel Knutson collabore. Il est problable que ces réseaux soient la clé de l’avenir du mouvement Occupy, car la majorité des grands campements aux États-Unis ont été évacués – supprimant de fait les espaces physiques où les militants communiquaient lors d’assemblées générales radicalement démocratiques.

L’idée d’une alternative ouverte aux réseaux sociaux détenus pas des entreprises privées n’est pas nouvelle – des efforts pour créer des alternatives à Facebook et Twitter moins centralisées et open source sont à l’œuvre depuis des années, Diaspora* et Identi.ca étant les plus connus.

Mais ces projets ne s’articulent pas spécifiquement sur les mouvements de protestation. Et la montée inattendue du mouvement Occupy aux États-Unis a renouvelé le désir d’une version open source pour une catégorie de logiciels qui joue un rôle de plus en plus important dans la mobilisation et la connexion des mouvements sociaux, ainsi que dans la diffusion de leur action dans le monde.

Les nouveaux mouvements sont tous confrontés à un défi particulièrement ardu pour des services non centralisés : s’assurer que leurs membres sont dignes de confiance. C’est un point crucial pour les militants qui risquent des violences et des arrestations dans tous les pays, voire la mort dans certains. Dans les projets de Knutson et Boyer, les réseaux locaux et internationnaux utiliseront un système de cooptation pour établir une relation de confiance. Les participants ne pourront devenir membres à part entière par eux-même comme c’est le cas avec les réseaux sociaux Twitter, Facebook et Google+.

« Il faut connaître quelqu’un dans la vraie vie qui te parraine », explique Knutson.

Selon Boyer, il est plus important d’identifier une personne comme étant digne de confiance que de s’assurer que son identité en ligne corresponde à son passeport ou à son acte de naissance.

« Je respecte les pseudonymes tant qu’on les considère comme un simple pseudonyme et non comme un masque », explique Boyer. En d’autres termes, nul ne devrait se cacher derrière un faux nom pour mal se comporter en toute impunité – ou dans un cas extrême, infiltrer le mouvement pour l’espionner ou le saboter.

Agé de 36 ans, Knutson, qui vit à Milwaukee dans le Wisconsin, a commencé l’année en tant qu’observateur politique avant de devenir un militant d’OWS convaincu. Sa métamorphose a débuté lors des grèves des fonctionnaires en février contre certaines propositions de loi du gouverneur Scott Walker, lesquelles rogneraient sur leurs traitements et affecterait les acquis de leur convention collective.

« Avant cette année, nous pensions que les choses allaient un peu vers le mieux », raconte-t-il. « Mais quand ça a commencé à bouger, en février, on s’est rendu compte que c’était de pire en pire. »

Alors qu’il organisait un camp de protestation « Walkerville », au mois de juin, Knutson a rencontré, grâce à Twitter, des membres du mouvement de protestation espagnol du 15M. Ils venaient de mettre en place un site web, « Take the Square » (Investis la Place), pour suivre les différentes occupations dans le monde, de la Tunisie à Madrid. Il a également rencontré Alexa O’Brien, fondatrice de l’organisation US Day of Rage, pour la réforme du financement des campagnes électorales, et co-fondatrice du mouvement Occupy Wall Street. Après les débuts d’OWS, Knutson a passé quelque temps sur la Côte Est, où il s’est rendu à New York, Boston et Philadelphie et s’est joint aux techniciens de ces villes.

Grâce à toutes ces rencontres, Knutson s’est attelé au développement de la technologie nécessaire à la mise en place d’un réseau support pour les occupations internationales. Mais la politique est une affaire complexe. « Certaines personnes en Espagne en veulent à OWS, parce qu’ils ont accaparé l’attention médiatique », explique-t-il, rappelant que les occupations espagnoles ont été les premières et rassemblent encore bien plus de monde.

Homologue de Knutson, Sam Boyer se concentre sur les occupations américaines, en mettant au point les technologies qui permettent de rassembler par interconnexion ces réseaux sociaux à travers le pays avec le titre adéquat de « Federated General Assembly » (NdT : Assemblée Générale Fédérée), ou FGA. Son travail sur Occupy lui a donné une vue globale du mouvement.

Lorsqu’il était étudiant en 2005, Boyer, qui a maintenant 27 ans, s’est impliqué au sein de la « Student Trade Justice Campaign », une organisation qui concentre ses efforts sur la réforme de la politique commerciale. En 2007, il voulait mettre en place une plateforme en ligne pour organiser en groupe les sections locales, et relier ces groupes pendant les discussions nationales – grosso modo la fonction de la FGA. Mais Boyer n’a pu la mettre en place, relate-t-il. « Quand j’ai commencé, je ne savais même pas programmer. »

Boyer s’est donc lancé dans l’apprentissage du développement web, pour lequel il s’est pris de passion. D’abord principalement activiste, il s’est ensuite surtout consacré au code. Sa spécialité est le CMS libre Drupal, sur lequel fonctionnera la FGA.

Knutson, Boyer et les autres geeks d’Occupy n’ont cependant pas à tout construire eux-mêmes. « Il existe des standards déjà depuis longtemps, et nous ne réinventons pas la roue », explique Boyer.

Par exemple, les projets s’appuieront sur un ensemble de technologies connues sous le nom d’OpenID et OAuth, grâce auxquelles un utilisateur peut se connecter sur un nouveau site en utilisant son identifiant et mot de passe d’un réseau social comme Facebook, Google ou Twitter. Ces technologies permettent de s’inscrire à un nouveau service, en se connectant à un compte Twitter ou Google, lequel vous identifie sur le nouveau site sans transmettre votre mot passe tout en vous évitant de devoir vous souvenir d’un énième couple identifiant/mot de passe.

Dans la nouvelle technologie OWS, le réseau d’occupation locale d’un militant peut se porter garant d’un utilisateur auprès d’un autre réseau, et l’ensemble des réseaux locaux se faisant mutuellement confiance, ils peuvent se fier à ce militant. Quelqu’un peut se connecter à un réseau, publier et commenter sur tous les autres.

Certains messages sensibles, concernant par exemple la désobéissance civile, seraient privés. D’autres, comme une liste de revendications ou un communiqué de presse, seraient publics, mais seuls les membres reconnus du réseau pourraient les créer.

FGA veut se distinguer du « Moi, moi, moi » narcissique de Facebook, et se destine surtout aux groupes, pour travailler collectivement sur des sujets définis tels que les banques et monnaies alternatives, ou encore une réforme du mode de scrutin.

Et il y a de quoi faire. Actuellement, la gestion des groupes dans les sites liés à Occupy est une vraie cacophonie.

« En arrivant, la première chose tu vois, c’est un flux de messages inutiles », selon Boyer. Chaque commentaire – qu’il s’agisse d’une idée brillante, d’un troll ou du dernier message d’une ribambelle de « moi aussi » -, apparaît dans le fil et se voit validé. « La seule garantie que vous avez, c’est qu’une personne seule – et pas le groupe dans son ensemble – a jugé ce message digne d’intérêt », déplore-t-il.

Dans le système de la FGA, chaque groupe discute des informations à publier sur sa page d’accueil, comme la description d’un événement, un article de blog ou le procès-verbal d’une rencontre. « De la même manière que, lorsque vous consultez Reddit, vous savez que les premiers articles sont ceux qui sont les mieux notés, l’utilisateur peut savoir que les messages apparaissant sur une page d’accueil résultent de l’accord concerté du groupe », déclare Boyer.

Les codeurs militants veulent également être en mesure d’obtenir et publier des infos, de les partager avec le reste du mouvement. L’idée, c’est qu’ils disposent de systèmes disparates classant les infos avec des mots-clé communs qui permettront un jour d’effectuer une recherche sur n’importe quel site et d’acceder précisement à des résultats provenant de partout dans le monde.

Le travail d’Ed Knutson consiste à permettre à ces sites de communiquer, même si le contenu peut être en langues différentes (anglais, espagnol, arabe, etc.) et généré par différents systèmes de gestion de contenu (ou SGC) comme Drupal ou WordPress. Le réseau social Global Square sera connecté non pas à travers ces systèmes, mais à partir des standards du « web sémantique » conçus pour lier des technologies disparates.

Un standard clé dans ce domaine porte le nom verbeux de Cadre de Description de Ressource, ou CDR, un système d’étiquetage universel.

Si un indigné veut poster le procès-verbal d’une réunion, par exemple, il peut les entrer dans la boîte texte appropriée, grâce au logiciel de gestion de contenu qui motorise le site. Ce logiciel envoie l’information à une base de données CDR et lui associe un certain nombre de mot-clés universels – par exemple « procès-verbal », ou quelque autre terme sur lequel les mouvements d’occupation se seraient mis d’accord. L’occupant local pourrait aussi sélectionner « Groupe : Alternatives Bancaires » dans une liste déroulante de propositions et ce mot-clé y serait ajouté aussi. Utiliser les mêmes étiquettes permet à tous les sites d’échanger de l’information. Ainsi, une recherche portant sur un procès-verbal de la part d’un groupe Alternative Bancaire afficherait les entrées de n’importe quel mouvement d’occupation comportant un groupe de ce genre.

Avec CDR, les sites peuvent interagir même s’ils fonctionnent avec différents logiciels de gestion de contenu, comme Drupal (utilisé par la FGA), ou WordPress (utilisé par le groupe espagnol M15).

« La clé, c’est que tout passe par CDR », explique Knutson. « Qu’importe s’ils utilisent Drupal ou un truc à la Frankenstein qui combine différents outils. »

Les codeurs seront toutefois confrontés au problème qui affecte le web depuis des années – les uns et les autres devront se mettre d’accord sur des standards et les adopter. Un projet de longue haleine qui cherche à accélérer ce processus s’appelle Microformats – une façon d’inclure dans le HTML des balises de données invisibles pour le visiteur humain, mais qui peuvent être comprises par leur navigateur ou par un moteur de recherche. Cela permet notamment de marquer des informations de contact de sorte que le lecteur puisse les ajouter à son carnet d’adresse d’un simple clic, ou d’annoter une recette pour qu’un moteur de recherche permette de chercher les recettes contenant l’ingrédient « épinards ».

Ces moyens de liaison et de collaboration seraient utiles bien au-delà du mouvement Occupy.

« Je pense que n’importe quel groupe de petite ou moyenne taille, ou une équipe constituée d’un membre dans huit villes différentes, pourrait l’utiliser pour collaborer », explique Knutson. Et il ne voit aucune raison de ne pas répandre cette technologie dans les entreprises.

« Tous les propriétaires de PME font partie des 99% », poursuit-il. « Par ailleurs, chercher à établir des relations avec les entreprises… c’est assez important si l’on veut un impact tangible. »

« Notre projet, c’est en grande partie de permettre une meilleure communication, afin que cette discussion cacophonique soit mieux coordonnée », précise Boyer, en évoquant à titre de comparaison l’atelier OWS d’une conférence ayant eu lieu le 18 décembre à New York, au cours duquel le modérateur avait demandé à chacun de crier sa meilleure idée pour le mouvement.

Toutes étaient sans doute de bonnes idées, raconte Boyer. Mais il n’a pu en entendre une seule, car elles étaient noyées dans le brouhaha.

La toile de confiance entre réseaux, les étiquetages CDR qui lient les données entre les occupations, les consensus des groupes de travail sur le contenu à publier, tout est conçu pour aider les personnes à se connecter les unes aux autres et accéder à la bonne information. « Que la multitude de gens qui si’ntéressent au mouvement comprennent l’ampleur de ce qui se passe », dit Boyer. Mais pour l’instant, tous ces projets restent au stade des idées. Et quoi qu’il en émerge, cela viendra par fragments.

Sam Boyer espère un lancement dans les prochaines semaines de ce qu’il qualifie de tremplin – une liste des mouvements d’occupations à travers le monde, appelé en toute simplicité, pour l’instant, directory.occupy.net. Le site Take the Square du mouvement M15, fournissait, comme d’autres, quelque chose d’équivalent depuis mai. Mais directory.occupy.net sera unique dans son utilisation des CDR et autres technologies pour étiqueter l’ensemble des données. Il permettra aussi aux participants de tous les mouvements d’occupation d’être maîtres de leurs contributions et de les mettre à jour.

« Ce répertoire devrait être utile, mais ce n’est pas encore notre lancement en fanfare », tempère Boyer. Il espère qu’il aura lieu quelque part au printemps, lors du lancement d’une version rudimentaire de FGA.

Le réseau Global Square que Knutson contribue à mettre en place est en voie de finalisation et devrait être lancé en janvier, avec des liaisons basiques entre divers sites Occupy qui permettront d’échanger des messages, republier des articles et poster des commentaires inter-réseaux.

« Selon moi, ce serait déjà un succès considérable que d’amener quelques-uns de ces outils de conception web utilisés par tout le monde, comme Elgg, Drupal, MediaWiki et peut-être WordPress, à travailler ensemble », explique-t-il.

Mais le simple fait d’organiser cette discussion n’a pas été une mince affaire. « C’est difficile d’amener les uns et les autres à se pencher sur ce genre de question. »

Notes

[1] Crédit photo : Sasha Kimel (Creative Commons By)




Le matériel libre à l’aube d’une nouvelle ère de l’innovation

Le logiciel libre a été un moteur de l’innovation de ces dix dernières années, permettant à de petites structures, telle que Google à ses débuts, d’émerger en investissant à moindre coût. Suivant son sillage, il en ira de même avec la matériel libre pour la prochaine décennie[1].

Telle est l’hypothèse de Joi Ito, actuel directeur du MIT Media Lab et qui possède l’un des plus beaux CV d’Internet.

Windell Oskay - CC by

Joi Ito : le matériel open source est une évidence

Joi Ito: Open-source hardware is a no brainer

Barb Darrow – 11 janvier 2012 – GigaOM
(Traduction Framalang/Twitter : Goofy, FredB, Albahtaar, Luc, Ipos, Antistress)

Le matériel libre est sur les rails, et il va nourrir une nouvelle ère d’innovation, si on en croit Joichi « Joi » Ito, directeur du MIT Media Lab.

Selon Ito, l’émergence de plans de matériels disponibles librement et de composants quasi-libres va propulser l’innovation technologique, comme a pu le faire le logiciel libre il y a une dizaine d’années.

« Si vous voulez fabriquer une caméra, un jour vous pourrez vous procurer toutes les pièces standard, les plans seront accessibles gratuitement en ligne et vous n’aurez qu’à concevoir les seules parties du produit qui vous intéressent » a déclaré Ito au cours de discussions dans le cadre de MITX à Cambridge (Massachussets).

Les développeurs pourront concentrer leur attention sur la partie la plus importante du matériel qu’ils construiront à partir de cette base standard, tout comme les développeurs de logiciels écrivent des logiciels spécialisés qui tournent sur Linux et le middleware open source plutôt que sur des systèmes d’exploitation propriétaires Unix ou Windows ou que sur les plateformes applicatives Weblogic d’Oracle ou Websphere d’IBM.

L’industrie a débuté les discussions autour du matériel libre grâce à la fondation Open Compute qui se concentre sur les serveurs des centres de traitement des données. Ito évoque des applications bien plus larges.

Ito a cité la naissance de Google comme exemple de créativité rendue possible par le logiciel libre. Si les cofondateurs de Google, Sergey Brin et Larry Page, avaient débuté sans l’open source, ils auraient dû dépenser des sommes considérables en systèmes d’exploitation et autres logiciels commerciaux pour pouvoir faire ce qu’ils ont fait, explique-t-il. Mais grâce à l’open source, « tout ce qu’ils ont eu à faire c’est d’écrire un petit programme et le connecter au réseau universitaire, tout ça pour quelques milliers de dollars ».

L’avènement du logiciel libre a divisé par dix les coûts d’entrée des sociétés éditrices de logiciels, provoquant « l’explosion de l’innovation dans la vallée parce que vous pouviez tout essayer » précise-t-il.

De la même manière, l’adoption du modèle open source réduira les coûts de conception du matériel car les entreprises n’auront pas à consacrer autant d’argent à l’équipement. Elles pourront télécharger les plans des matériels pour les construire elles-mêmes ou pour en sous-traiter la fabrication.

Les économies vont pousser les innovations matérielles « dans les petites et moyennes entreprises, dans les laboratoires académiques et dans les garages, » déclare Ito.

Les avancées de l’impression 3D vont également faciliter et faire baisser pour les entreprises les plus petites le coût de création de prototypes à partir de leurs plans , supprimant ainsi un autre obstacle.

Ito indique que « l’idée d’imprimer des gadgets n’est pas si loin… pas autant que vous le pensez, ».

Tout cela signifie que des sociétés plus petites qui innovent peuvent subvenir à leurs besoins tout en restant petites. « Les investisseurs en capital risque pouvaient sournoisement faire remarquer au sujet d’un produit que ça ne suffisait pas à faire une entreprise. Les produits et les entreprises devaient habituellement être imposants, comme AOL. Mais vous pouvez aujourd’hui avoir de très petites sociétés spécialisées. »

Et c’est dans les petites entreprises, a-t-il dit, que l’innovation se développe.

Notes

[1] Crédit photo : Windell Oskay (Creative Commons By)