Ce que pense Jimmy Wales des App Stores et de la Neutralité du Net

Joi Ito - CC byVoici une courte traduction qui fait en quelque sorte la jonction entre les 10 ans de Wikipédia et notre récent billet évoquant la difficile cohabitation entre l’App Store d’Apple et les logiciels libres.

Il n’y pas que les libristes qui critiquent ces plateformes et qui y voient un possible « nœud d’étranglement », il y a aussi le fondateur de Wikipédia[1].

Pour ce qui concerne la neutralité du Net, il se montre plus prudent en ne partageant pas l’alarmisme de certains, mais il reconnaît que son avis est « fluctuant » sur le sujet.

Jimmy Wales, de Wikipédia : les App stores, une menace claire et actuelle

Wikipedia’s Jimmy Wales: App stores a clear and present danger

John Lister – 13 janvier 2011 – Tech.Blorge
(Traduction Framalang : Olivier Rosseler)

Le modèle des plateforme de téléchargement d’application (NdT : ou App Stores, du nom de la plus célèbres d’entre elles, celle d’Apple) est une menace plus immédiate pour la liberté d’Internet que les entorses à la neutralité du Net. C’est l’opinion de Jimmy Wales, le boss de Wikipédia.

D’après Wales, qui a clairement insisté sur le fait qu’il parlait en son nom propre, les plateformes de téléchargement d’applications, comme l’App Store d’iTunes, peuvent devenir des « nœuds d’étranglements très dangereux. » D’après lui, il est temps d’évaluer si ce modèle est « une menace pour la variété et l’ouverture des écosystèmes » en avançant que « lorsque nous achetons un appareil, nous devrions en avoir le contrôle. »

Wales s’exprimait lors d’un évènement à Bristol, en Angleterre, à l’occasion de l’anniversaire des 10 ans de Wikipédia. Pour lui, les inquiétudes exprimées sur la neutralité du Net ne sont souvent qu’hypothétiques et ne représentent pas un danger immédiat. Il reconnaît cependant que le sujet est complexe et que sa propre opinion est « sujette aux fluctuations » (ce qui signifie apparemment qu’il ne suivrait pas aveuglément un principe strict quelle que soit la situation). Il trouve que les arguments de la campagne pour la neutralité du Net sont « largement alarmistes » et plus centrés sur des craintes que sur des faits.

Wales s’est livré à une session de questions/réponses après une présentation sur le passé, le présent et le futur de Wikipédia. Il y cite notamment le tweet d’un enseignant qui disait : « Hier, j’ai demandé à une de mes étudiantes si elle savait ce qu’est une encyclopédie et elle m’a répondu « Quelque chose comme Wikipédia ? ». » D’après Wales, de tels exemples montrent que « la qualité de Wikipédia est un enjeu culturel majeur. » Mais il insiste sur le fait que les étudiants ne devraient pas citer WIkipédia dans leurs essais ou leurs dissertations, ni aucune autre encyclopédie d’ailleurs.

Partant du constat que 87% des contributeurs de Wikipédia sont des hommes, d’âge moyen 26 ans, et que les docteurs sont deux fois plus représentés que dans la population globale, l’un des plus grands défis du site est, selon lui, de s’ouvrir à une population plus diverse de contributeurs. Une solution serait de simplifier le système d’édition, éliminer autant que possible tout ce qui fait appel aux codes. Il reconnaît en particulier que la création de tableaux est un véritable « cauchemar ».

Mais il insiste également sur le fait que Wikipédia ne déviera pas de son but premier. S’il concède que l’ajout de fonctionnalités comme les e-mails ou le chat pourrait attirer plus de visiteurs, ce qui est l’objectif de services commerciaux, cela ne profiterait pas nécessairement à la qualité du contenu de Wikipédia, qui, d’après lui, devrait « égaler celle de l’encyclopédie Britannica, voire faire mieux. »

Notes

[1] Crédit photo : Joi Ito (Creative Commons By)




Où est le bouton « J’aime pas » Facebook ?

ZuckRépondons sans attendre à la question du titre. Vous trouverez la version française du bouton « J’aime pas » Facebook, ci-dessous, sur le Framablog ! Explications…

Il aurait pu faire comme Le Monde et désigner Julian Assange mais non, le célèbre hebdomadaire américain Time Magazine a choisi le fondateur de Facebook Mark Zuckerberg comme Personnalité de l’année 2010.

Et cette décision est restée un peu en travers de la gorge de la Free Software Foundation, qui du coup vous propose une contre-offensive en détournant ce pernicieux espion traceur que représente le bouton Facebook « J’aime », qui pullule déjà sur d’aussi naïfs que nombreux sites.

Bouton que notre ami Poupoul2 s’est fait un plaisir d’adapter à notre langue et que vous trouverez en pièce-jointe (au format .SVG) à la fin de la traduction du billet de la FSF expliquant et justifiant cette action.

À partager et diffuser sans modération si affinités dans la démarche.

J'aime pas Facebook

Mark Zuckerberg, personnalité de l’année selon TIME Magazine ? Où est le bouton « J’aime pas » ?

Mark Zuckerberg is TIME Magazine’s Person of the Year? Where’s the “dislike” button?

Matt Lee et John Sullivan – 4 janvier 2011 – FSF.org
(Traduction Framalang : Julien et Antistress)

TIME Magazine fait l’éloge de Mark Zuckenberg pour avoir créé un système qui a interconnecté les gens du monde entier.

Malheureusement, les conditions sous lesquelles il prétend avoir réalisé cela a créé un épouvantable précédent pour notre avenir — s’agissant de la maîtrise des logiciels que nous utilisons pour interagir avec les autres, du contrôle de nos données et de notre vie privée. Les dégâts ne sont pas limités aux utilisateurs de Facebook. Parce que tant de sites — y Compris TIME — utilisent le bouton Facebook « J’aime » de traçage des internautes, Zuckerberg, est capable de collecter des informations sur des personnes qui ne sont même pas utilisatrices de son site. Ce sont des précédents qui entravent notre capacité à nous connecter librement les uns aux autres. Il a créé un réseau qui est avant tout une mine d’or pour la surveillance gouvernementale et les annonceurs publicitaires.

Tout cela est bien connu s’agissant du comportement du site Facebook lui-même et de ses relations avec l’extérieur — mais les choses pourraient s’avérer en fait bien pires. Les utilisateurs de Facebook ne se connectent pas directement entre eux. Ils parlent à M. Zuckenberg qui commence par enregistrer et stocker tout ce qui est dit, et, alors seulement, le transmet éventuellement à l’utilisateur destinataire, si ce qui est dit lui convient. Dans certains cas, il ne le fait pas — comme en sont témoins les récents comptes-rendus montrant que le service de messagerie de Facebook bloque des messages en se basant sur les mots et liens qu’ils contiennent, parce que ces liens pointent vers des services que Facebook préférerait que l’on évite de mentionner.

Heureusement, il y a de nombreux efforts en cours pour fournir des services distribués, contrôlés par l’utilisateur, permettant de faciliter la mise en relation entre les gens, dont GNU social, status.net, Crabgrass, Appleseed et Diaspora. Ces services n’auront pas les mêmes types de problèmes parce qu’à la fois le code permettant le fonctionnement du réseau et les données échangées seront entre les mains des gens qui communiquent.

Ces efforts finiront par être couronnés de succès. Nous espérons que, lorsque ce sera le cas, TIME réparera son erreur d’appréciation en décernant le titre de la Personnalité de l’année avec plus de discernement.

Not Facebooked Me - FSF

Copiez et collez ce code dans votre propre site :

<a href="http://www.fsf.org/fb"><img src="http://static.fsf.org/nosvn/no-facebook-me.png" alt="Not f'd — you won't find me on Facebook" /></a>

En attendant, vous pouvez encourager les gens à ne pas se connecter à Zuckenberg lorsqu’ils croient qu’ils se mettent en rapport avec vous, en plaçant ce bouton sur votre blogue ou site web, avec un lien vers la méthode que vous préférez qu’ils utilisent pour vous contacter directement — peut-être votre compte sur identi.ca ou tout autre serveur status.net.

Sinon, vous pouvez faire pointer un lien vers ce billet ou tout autre article qui souligne les problèmes avec Facebook, tel que « Des amis tels que ceux-ci… » (NdT : dont il existe une traduction en français) de Tom Hodgkinson, ou les ressources disponibles sur http://autonomo.us — en particulier la « Déclaration sur la Liberté et les Services Réseaux de Franklin Street » (NdT : nommée d’après l’adresse des bureaux de la FSF à Boston).

Notre bouton n’est évidemment pas relié à une quelconque base de données de surveillance ou autre système de traçage.

Téléchargez notre bouton « J’aime pas » et ajoutez le à votre site web, ou imprimez vos propres autocollants.

Tous les boutons sont mis à disposition sous la licence Creative Commons Paternité – Partage des Conditions Initiales à l’Identique (CC BY SA).

Vous êtes libre de modifier les boutons, mais veuillez garder la mention des créateurs originaux intacte, et assurez-vous que vos boutons soient sous la même licence.

Vous ne me trouverez pas sur Facebook




Longue vie au Web, par Tim Berners-Lee

Neal Fowler - CC By « Sir » Tim Berners-Lee, le père du Web, a livré ce week-end au magazine Scientific American, une analyse complète lucide et accessible des menaces qui pèsent aujourd’hui sur ce curieux phénomène qui depuis vingt ans a changé la face du monde : Internet.

En termes simples, Berners-Lee revient sur l’universalité de ce réseau, qui n’a pu se développer que grâces à des conditions initiales propices :

  • Une technique simple et libre, donc bidouillable par chacun dans son coin;
  • Une conception décentralisée, permettant une croissance tous azimuts;
  • Le principe de neutralité du réseau, qui permet à tous de proposer du contenu.

Or, force est de constater que ces conditions, qui ont démarqué ce que nous appelons aujourd’hui « Internet » des autres tentatives de mise en réseau à grande échelle d’ordinateurs de par le monde, sont attaquées et mises en péril par de grandes entreprises, et, presque comme une conséquence par de nombreux gouvernements. [1]

À la lecture de ce texte, on peut également se rendre compte que la France est malheureusement en bonne position parmi les gouvernements les plus hostiles au réseau, et que la HADOPI, comme un pavé jeté dans la mare, éclabousse effectivement de honte le pays des droits de l’Homme face à ses voisins. Contrastant par exemple clairement avec le droit au haut débit pour tous mis en place par la Finlande et lui aussi mentionné par Berners-Lee.

Toutefois, la principale qualité de cette riche synthèse est son ton résolument grand public, qui a mobilisé l’équipe Framalang tout un week-end pour venir à bout de la traduction des 6 pages de l’article original en moins de 48h.

Longue vie au Web ! Un appel pour le maintien des standards ouverts et de la neutralité

Long Live the Web, A Call for Continued Open Standards and Neutrality

Tim Berners-Lee – lundi 22 novembre – ScientificAmerican.com
Traduction Framalang : Goofy, Pablo, Seb seb, Misc, Siltaar

Le Web est un enjeu crucial non seulement pour la révolution numérique mais aussi pour notre prospérité — et même pour notre liberté. Comme la démocratie elle-même, il doit être défendu.

Le world wide web est venu au monde, concrètement, sur mon ordinateur de bureau à Genève en Suisse en décembre 1990. Il était composé d’un site Web et d’un navigateur, qui d’ailleurs se trouvaient sur la même machine. Ce dispositif très simple faisait la démonstration d’une idée fondamentale : n’importe qui pouvait partager des informations avec n’importe qui d’autre, n’importe où. Dans cet esprit, le Web s’est étendu rapidement à partir de ces fondations. Aujourd’hui, à son 20ème anniversaire, le Web est intimement mêlé à notre vie de tous les jours. Nous considérons qu’il va de soi, nous nous attendons à ce qu’il soit disponible à chaque instant, comme l’électricité.

Le Web est devenu un outil puissant et omniprésent parce qu’il a été conçu suivant des principes égalitaires et parce que des milliers d’individus, d’universités et d’entreprises ont travaillé, à la fois indépendamment et ensemble en tant que membres du World Wide Web Consortium, pour étendre ses possibilités en se fondant sur ces principes.

Le Web tel que nous le connaissons, cependant, est menacé de diverses façons. Certains de ses plus fameux locataires ont commencé à rogner sur ses principes. D’énormes sites de réseaux sociaux retiennent captives les informations postées par leurs utilisateurs, à l’écart du reste du Web. Les fournisseurs d’accés à Internet sans fil sont tentés de ralentir le trafic des sites avec lesquels ils n’ont pas d’accords commerciaux. Les gouvernements — qu’ils soient totalitaires ou démocratiques — surveillent les habitudes en ligne des citoyens, mettant en danger d’importants droits de l’Homme.

Si nous, les utilisateurs du Web, nous permettons à ces tendances et à d’autres encore de se développer sans les contrôler, le Web pourrait bien se retrouver fragmenté en archipel. Nous pourrions perdre la liberté de nous connecter aux sites Web de notre choix. Les effets néfastes pourraient s’étendre aux smartphones et aux tablettes, qui sont aussi des portails vers les nombreuses informations fournies par le Web.

Pourquoi est-ce votre affaire ? Parce que le Web est à vous. C’est une ressource publique dont vous, vos affaires, votre communauté et votre gouvernement dépendent. Le Web est également vital pour la démocratie, en tant que canal de communication qui rend possible une conversation globale permanente. Le Web est désormais plus crucial pour la liberté d’expression que tout autre média. Il transpose à l’âge numérique les principes établis dans la constitution des États-Unis, dans la Magna Carta britannique et d’autres textes fondateurs : la liberté de ne pas être surveillée, filtrée, censurée ni déconnectée.

Pourtant les gens semblent penser que le Web est en quelque sorte un élément naturel, et que s’il commence à dépérir, eh bien, c’est une de ces choses malheureuses contre lesquelles on ne peut rien faire. Or il n’en est rien. Nous créons le Web, en concevant les protocoles pour les ordinateurs et les logiciels. Ce processus est entièrement entre nos mains. C’est nous qui choisissons quelles caractéristiques nous voulons qu’il ait ou non. Il n’est absolument pas achevé (et certainement pas mort). Si nous voulons contrôler ce que fait le gouvernement, ce que font les entreprises, comprendre dans quel état exact se trouve la planète, trouver un traitement à la maladie d’Alzheimer, sans parler de partager nos photos avec nos amis, nous le public, la communauté scientifique et la presse, nous devons nous assurer que les principes du Web demeurent intacts — pas seulement pour préserver ce que nous avons acquis mais aussi pour tirer profit des grandes avancées qui sont encore à venir.

L’universalité est le principe fondateur

Il existe des principes-clés pour s’assurer que le Web devienne toujours plus précieux. Le premier principe de conception qui sous-tend l’utilité du Web et son développement, c’est l’universalité. Lorsque vous créez un lien, vous pouvez le diriger vers n’importe quoi. Cela signifie que chacun doit être capable de mettre tout ce qu’il veut sur le Web, quel que soit l’ordinateur, le logiciel utilisé ou la langue parlée, peu importe qu’on ait une connexion avec ou sans wifi. Le Web devrait être utilisable par des personnes handicapées. Il doit fonctionner avec n’importe quelle information, que ce soit un document ou un fragment de données, quelle que soit la qualité de l’information — du tweet crétin à la thèse universitaire. Et il devrait être accessible avec n’importe quel type de matériel connectable à Internet : ordinateur fixe ou appareil mobile, petit ou grand écran.

Ces caractéristiques peuvent paraître évidentes, allant de soi ou simplement sans importance, mais ce sont grâce à elles que vous pourrez voir apparaître sur le Web, sans aucune difficulté, le site du prochain film à succès ou la nouvelle page d’accueil de l’équipe locale de foot de votre gamin. L’universalité est une exigence gigantesque pour tout système.

La décentralisation est un autre principe important de conception. Vous n’avez nul besoin de l’approbation d’une quelconque autorité centrale pour ajouter une page ou faire un lien. Il vous suffit d’utiliser trois protocoles simples et standards : écrire une page en HTML (langage de balisage hypertextuel), de la nommer selon une norme d’URI (identifiant uniforme de ressource), et de la publier sur Internet en utilisant le protocole HTTP (protocole de transfert hypertexte). La décentralisation a rendu possible l’innovation à grande échelle et continuera de le faire à l’avenir.

L’URI est la clé de l’universalité (à l’origine j’ai appelé le procédé de nommage URI, Universal Resource Identifier – Identifiant Universel de Ressource ; par la suite il est devenu URL, Uniform Resource Locator – Localisateur Uniforme de Ressource). L’URI vous permet de suivre n’importe quel lien, indépendamment du contenu vers lequel il pointe ou de qui publie ce contenu. Les liens transforment le contenu du Web en quelque chose de plus grande valeur : un espace d’information inter-connecté.

Plusieurs menaces à l’encontre de l’universalité du Web sont apparues récemment. Les compagnies de télévision par câble qui vendent l’accès à Internet se demandent s’il faut pour leurs clients limiter le téléchargement à leurs seuls contenus de divertissement. Les sites de réseaux sociaux présentent un problème différent. Facebook, LinkedIn, Friendster et d’autres apportent essentiellement une valeur en s’emparant des informations quand vous les saisissez : votre date de naissance, votre adresse de courriel, vos centres d’intérêts, et les liens qui indiquent qui est ami avec qui et qui est sur quelle photo. Les sites rassemblent ces données éparses dans d’ingénieuses bases de données et réutilisent les informations pour fournir un service à valeur ajoutée — mais uniquement sur leurs sites. Une fois que vous avez saisi vos données sur un de ces services, vous ne pouvez pas facilement les utiliser sur un autre site. Chaque site est un silo, séparé des autres par une cloison hermétique. Oui, vos pages sur ces sites sont sur le Web, mais vos données n’y sont pas. Vous pouvez accéder à une page Web contenant une liste de gens que vous avez rassemblée au même endroit, mais vous ne pouvez pas envoyer tout ou partie de cette liste vers un autre site.

Cette compartimentation se produit parce que chaque élément d’information est dépourvu d’URI. L’interconnexion des données existe uniquement à l’intérieur d’un même site. Ce qui signifie que plus vous entrez de données, et plus vous vous enfermez dans une impasse. Votre site de réseau social devient une plateforme centrale — un silo de données fermé, qui ne vous donne pas le plein contrôle sur les informations qu’il contient. Plus ce genre d’architecture se répand, plus le Web se fragmente, et moins nous profitons d’un unique espace d’information universel.

Un effet pervers possible est qu’un site de réseau social — ou un moteur de recherche, ou un navigateur — prenne une telle ampleur qu’il devienne hégémonique, ce qui a tendance à limiter l’innovation. Comme cela s’est produit plusieurs fois depuis les débuts du Web, l’innovation permanente du plus grand nombre peut être la meilleure réponse pour contrer une entreprise ou un gouvernement quelconque qui voudrait saper le principe d’universalité. GnuSocial et Diaspora sont des projets sur le Web qui permettront à chacun de créer son propre réseau social sur son propre serveur, et de se connecter à d’autres sur leur site. Le projet Status.net, qui fait tourner des sites comme Identi.ca, vous permet de monter votre propre réseau de micro-blogage à la manière de Twitter mais sans la centralisation induite par Twitter.

Les standards ouverts sont le moteur de l’innovation

Permettre à chaque site d’être lié à n’importe quel autre est nécessaire mais pas suffisant pour que le Web ait une armature solide. Les technologies de base du Web, dont les particuliers et les entreprises ont besoin pour développer des services avancés, doivent être gratuites et sans redevance. Amazon.com, par exemple, est devenu une gigantesque librairie en ligne, puis un disquaire, puis un immense entrepôt de toutes sortes de produits, parce que l’entreprise avait un accès libre et gratuit aux standards techniques qui sous-tendent le Web. Amazon, comme tout usager du Web, a pu utiliser le HTML, l’URI et le HTTP sans avoir à en demander l’autorisation à quiconque et sans avoir à payer pour cela. La firme a pu également bénéficier des améliorations de ces standards développées par le World Wide Web Consortium, qui permettent aux clients de remplir un bon de commande virtuel, de payer en ligne, d’évaluer les marchandises achetées et ainsi de suite.

Par « standards ouverts » je veux dire des standards à l’élaboration desquels peuvent participer tous les spécialistes, pourvu que leur contribution soit largement reconnue et validée comme acceptable, qu’elle soit librement disponible sur le Web et qu’elle soit gratuite (sans droits à payer) pour les développeurs et les utilisateurs. Des standards ouverts, libres de droits et faciles à utiliser génèrent l’extraordinaire diversité des sites Web, depuis les grands noms tels qu’Amazon, Craigslist et Wikipédia jusqu’aux blogs obscurs maintenus par des passionnés, en passant par les vidéos bricolées à la maison et postées par des ados.

La transparence signifie aussi que vous pouvez créer votre site Web ou votre entreprise sans l’accord de qui que ce soit. Au début du Web, je ne devais pas demander de permission ni payer de droits d’auteur pour utiliser les standards ouverts propres à Internet, tels que le célèbre protocole de contrôle de transmission (TCP) et le protocole Internet (IP). De même, la politique de brevets libres de droits du W3C (World Wide Web Consortium) dit que les entreprises, les universités et les individus qui contribuent au développement d’un standard doivent convenir qu’ils ne feront pas payer de droits d’auteur aux personnes qui pourraient l’utiliser.

Les standards libres de droits et ouverts ne signifient pas qu’une entreprise ou un individu ne peut pas concevoir un blog ou un programme de partage de photos et vous faire payer son utilisation. Ils le peuvent. Et vous pourriez avoir envie de payer pour ça, si vous pensez que c’est « mieux » que le reste. L’important est que les standards ouverts permettent un grand nombre d’options, gratuites ou non.

En effet, de nombreuses entreprises dépensent de l’argent pour mettre au point des applications extraordinaires précisément parce qu’elles sont sûres que ces applications vont fonctionner pour tout le monde, sans considération pour le matériel, le système d’exploitation ou le fournisseur d’accés internet (FAI) que les gens utilisent — tout ceci est rendu possible par les standards ouverts du Web. La même confiance encourage les scientifiques à passer des centaines d’heures à créer des bases de données incroyables sur lesquelles ils pourront partager des informations sur, par exemple, des protéines en vue de mettre au point des remèdes contre certaines maladies. Cette confiance encourage les gouvernements des USA ou du Royaume-Uni à mettre de plus en plus de données sur le réseau pour que les citoyens puissent les inspecter, rendant le gouvernement de plus en plus transparent. Les standards ouverts favorisent les découvertes fortuites : quelqu’un peut les utiliser d’une façon que personne n’a imaginée avant. Nous le voyons tous les jours sur le Web.

Au contraire, ne pas utiliser les standards ouverts crée des univers fermés. Par exemple, le systéme iTunes d’Apple identifie les chansons et les vidéos par des URI que l’on ouvre. Mais au lieu d’« http: », les adresses commencent par « itunes: » qui est propriétaire. Vous ne pouvez accéder à un lien « itunes: » qu’en utilisant le logiciel propriétaire iTunes d’Apple. Vous ne pouvez pas faire un lien vers une information dans l’univers iTunes, comme une chanson ou une information sur un groupe. L’univers iTunes est centralisé et emmuré. Vous êtes piégés dans un seul magasin, au lieu d’être sur une place ouverte. Malgré toutes les fonctionnalités merveilleuses du magasin, leurs évolutions sont limitées par ce qu’une seule entreprise décide.

D’autres entreprises créent aussi des univers fermés. La tendance des magazines, par exemple, de produire des « applis » pour smartphone plutôt que des applications Web est inquiétante, parce que ce contenu ne fait pas partie du Web. Vous ne pouvez pas le mettre dans vos signets, ni envoyer par email un lien vers une page pointant dessus. Vous ne pouvez pas le « tweeter ». Il est préférable de créer une application Web qui fonctionnera aussi sur les navigateurs des smartphones et les techniques permettant de le faire s’améliorent en permanence.

Certaines personnes pourraient penser que les univers fermés ne sont pas un problème. Ces univers sont faciles à utiliser et peuvent donner l’impression de leur apporter tout ce dont elles ont besoin. Mais comme on l’a vu dans les années 1990 avec le système informatique bas débit d’AOL, qui vous donnait un accès restreint à un sous-ensemble du Web, ces « jardins emmurés », qu’importe qu’ils soient agréables, ne peuvent rivaliser en diversité, en profusion et en innovation avec l’agitation démente du Web à l’extérieur de leurs portes. Toutefois, si un « clôt » a une emprise trop importante sur un marché cela peut différer sa croissance extérieure.

Garder la séparation entre le Web et l’Internet

Conserver l’universalité du Web et garder ses standards ouverts aide tout le monde à inventer de nouveaux services. Mais un troisième principe — la séparation des couches — distingue la conception du Web de celle de l’Internet.

Cette séparation est fondamentale. Le Web est une application tournant sur Internet, qui n’est autre qu’un réseau électronique transmettant des paquets d’information entre des millions d’ordinateurs en suivant quelques protocoles ouverts. Pour faire une analogie, le Web est comme un appareil électroménager qui fonctionne grâce au réseau électrique. Un réfrigérateur ou une imprimante peut fonctionner tant qu’il utilise quelques protocoles standards — aux États-Unis, on fonctionne sur du 120 volts à 60 hertz. De la même façon, chaque application — parmi lesquelles le Web, les courriels ou la messagerie instantanée — peut fonctionner sur Internet tant qu’elle suit quelques protocoles standards d’Internet, tels que le TCP et l’IP.

Les fabricants peuvent améliorer les réfrigérateurs et les imprimantes sans transformer le fonctionnement de l’électricité, et les services publics peuvent améliorer le réseau électrique sans modifier le fonctionnement des appareils électriques. Les deux couches de technologie fonctionnent en même temps mais peuvent évoluer indépendamment. C’est aussi valable pour le Web et Internet. La séparation des couches est cruciale pour l’innovation. En 1990 le Web se déploie sur Internet sans le modifier, tout comme toutes les améliorations qui ont été faites depuis. À cette période, les connexions Internet se sont accélérées de 300 bits par seconde à 300 millions de bits par seconde (Mbps) sans qu’il ait été nécessaire de repenser la conception du Web pour tirer profit de ces améliorations.

Les droits de l’homme à l’âge électronique

Bien qu’Internet et les principes du Web soient distincts, un utilisateur du Web est aussi un utilisateur d’Internet et par conséquent il compte sur un réseau dépourvu d’interférences. Dans les temps héroïques du Web, il était techniquement trop difficile pour une entreprise ou un pays de manipuler le Web pour interférer avec un utilisateur individuel. La technologie nécessaire a fait des bonds énormes, depuis. En 2007, BitTorrent, une entreprise dont le protocole de réseau « peer to peer » permet de partager les musiques, les vidéos et d’autres fichiers directement sur Internet, a déposé une plainte auprès de la FCC (commission fédérale des communications) contre le géant des fournisseurs d’accès Comcast qui bloquait ou ralentissait le trafic de ceux qui utilisaient l’application BitTorrent. La FCC a demandé à Comcast de cesser ces pratiques, mais en avril 2010 la cour fédérale a décidé que la FCC n’avait pas le droit de contraindre Comcast. Un bon FAI (Fournisseur d’Accès Internet) qui manque de bande passante s’arrangera souvent pour délester son trafic de moindre importance de façon transparente, de sorte que les utilisateurs soient au courant. Il existe une différence importante entre cette disposition et l’usage du même moyen pour faire une discrimination.

Cette différence met en lumière le principe de la neutralité du réseau. La neutralité du réseau garantit que si j’ai payé pour une connexion d’une certaine qualité, mettons 300 Mbps, et que vous aussi vous avez payé autant, alors nos communications doivent s’établir à ce niveau de qualité. Défendre ce principe empêcherait un gros FAI de vous transmettre à 300 Mbps une vidéo venant d’une société de média qu’il posséderait, tandis qu’il ne vous enverrait la vidéo d’une société concurrente qu’à une vitesse réduite. Cela revient à pratiquer une discrimination commerciale. D’autres situations complexes peuvent survenir. Que se passe-t-il si votre FAI vous rend plus facile l’accès à une certaine boutique en ligne de chaussures et plus difficile l’accès à d’autres ? Ce serait un moyen de contrôle puissant. Et que se passerait-il si votre FAI vous rendait difficile l’accès à des sites Web de certains partis politiques, de groupes à caractère religieux, à des sites parlant de l’évolution ?

Hélas, en août Google et Verizon ont suggéré pour diverses raisons que la neutralité ne doit pas s’appliquer aux connexions des téléphones portables. De nombreuses personnes dans des zones rurales aussi bien dans l’Utah qu’en Ouganda n’ont accés à l’Internet que par leur téléphone mobile. Exclure les accès sans fil du principe de neutralité laisserait ces utilisateurs à la merci de discriminations de service. Il est également bizarre d’imaginer que mon droit fondamental d’accés à la source d’information de mon choix s’applique quand je suis sur mon ordinateur en WiFi à la maison, mais pas quand j’utilise mon téléphone mobile.

Un moyen de communication neutre est la base d’une économie de marché juste et compétitive, de la démocratie et de la science. La polémique est revenue à l’ordre du jour l’année dernière pour savoir s’il est nécessaire qu’une législation gouvernementale protège la neutralité du réseau. C’est bien le cas. Même si généralement Internet et le Web se développent grâce à une absence de régulation, quelques principes fondamentaux doivent être protégés légalement.

Halte à l’espionnage

D’autres menaces envers le web résultent d’indiscrétions touchant Internet, ce qui inclut l’espionnage. En 2008, une entreprise du nom de Phorm a mis au point un moyen pour un FAI de fouiner dans les paquets d’informations qu’il envoie. Le fournisseur peut alors déterminer chaque URI sur laquelle un de ses clients a surfé, et ensuite créer un profil des sites que l’utilisateur a visités afin de produire des publicités ciblées.

Accéder à l’information contenue dans un paquet Internet est équivalent à mettre un téléphone sur écoute ou ouvrir le courrier postal. Les URI que les gens utilisent révèlent beaucoup de choses sur eux. Une entreprise ayant acheté les profils URI de demandeurs d’emploi pourrait les utiliser pour faire de la discrimination à l’embauche sur les idées politiques des candidats par exemple. Les compagnies d’assurance-vie pourraient faire de la discrimination contre les personnes qui ont fait des recherches concernant des symptômes cardiaques sur le Web. Des personnes mal intentionnées pourraient utiliser les profils pour traquer des individus. Nous utiliserions tous le Web de façon très différente si nous savions que nos clics pouvaient être surveillés et les données ainsi obtenues partagées avec des tierces personnes.

La liberté d’expression devrait être elle aussi protégée. Le Web devrait être semblable à une feuille de papier blanche : disponible pour y écrire, sans qu’on puisse contrôler ce qui y est écrit. Au début de cette année Google a accusé le gouvernement chinois d’avoir piraté ses bases de données pour récupérer les courriels des dissidents. Ces intrusions supposées ont fait suite au refus de Google d’obéir aux exigences du gouvernement, qui demandait à l’entreprise de censurer certains documents sur son moteur de recherche en langue chinoise.

Les régimes totalitaires ne sont pas les seuls qui violent les droits du réseau de leurs citoyens. En France une loi créée en 2009, appelée HADOPI, autorise une administration du même nom à déconnecter un foyer pendant un an si quelqu’un dans la maison est accusé par une compagnie de distribution de médias d’avoir téléchargé de la musique ou des vidéos. Suite à une forte opposition, en octobre le Conseil constitutionnel français a demandé qu’un juge soit saisi du dossier avant que l’accès à Internet ne soit coupé, mais si le juge l’accepte, le foyer familial pourra être déconnecté sans procédure légale digne de ce nom. Au Royaume-Uni, le Digital Economy Act, hâtivement voté en avril, autorise le gouvernement à demander à un FAI (Fournisseur d’Accès Internet) d’interrompre la connexion de quiconque figure dans une liste d’individus soupçonnés de violation de copyright. En septembre, le Sénat des États-Unis a introduit le Combating Online Infringement and Counterfeits Act (loi pour lutter contre la délinquance en ligne et la contrefaçon), qui devrait permettre au gouvernement de créer une liste noire de sites Web — qu’ils soient ou non hébergés aux USA — accusés d’enfreindre la loi, et d’obliger tous les FAI à bloquer l’accès des-dits sites.

Dans de tels cas de figure, aucune procédure légale digne de ce nom ne protège les gens avant qu’ils ne soient déconnectés ou que leurs sites soient bloqués. Compte-tenu des multiples façons dont le Web s’avère essentiel pour notre vie privée et notre travail, la déconnexion est une forme de privation de notre liberté. En s’inspirant de la Magna Carta, nous pourrions maintenant proclamer :

« Aucun individu ni organisation ne pourra être privé de la possibilité de se connecter aux autres sans une procédure légale en bonne et due forme qui tienne compte de la présomption d’innocence. »

Lorsque nos droits d’accès au réseau sont violés, un tollé général est déterminant. Les citoyens du monde entier se sont opposés aux exigences de la Chine envers Google, à tel point que la Secrétaire d’état Hillary Clinton a déclaré que le gouvernement des États-Unis soutenait la résistance de Google et que la liberté de l’Internet — et avec elle celle du Web — allait devenir une pièce maîtresse de la politique étrangère américaine. En octobre, la Finlande a fait une loi qui donne le droit à chaque citoyen d’avoir une connexion à haut débit de 1 Mbps.

Connexion vers l’avenir

Tant que les principes fondamentaux du Web seront maintenus, son évolution ultérieure ne dépendra d’aucun individu ni d’aucune organisation particulière — ni de moi, ni de personne d’autre. Si nous pouvons en préserver les principes, le Web est promis à un avenir extraordinaire.

La dernière version du HTML par exemple, intitulée HTML5, n’est pas simplement un langage de balisage mais une plateforme de programmation qui va rendre les applications Web encore plus puissantes qu’elles ne le sont aujourd’hui. La prolifération des smartphones va mettre le Web encore plus au cœur de nos vies. L’accès sans fil donnera un avantage précieux aux pays en développement, où beaucoup de gens n’ont aucune connexion filaire ou par câble mais peuvent en avoir sans fil. Il reste encore beaucoup à faire, bien sûr, y compris en termes d’accessibilité pour les personnes handicapées, et pour concevoir des pages qui s’afficheront aussi bien sur tous les écrans, depuis le mur d’images géantes en 3D jusqu’à la taille d’un cadran de montre.

Un excellent exemple de futur prometteur, qui exploite la puissance conjuguée de tous ces principes, c’est l’interconnexion des données. Le Web d’aujourd’hui est relativement efficace pour aider les gens à publier et découvrir des documents, mais nos programmes informatiques ne savent pas lire ni manipuler les données elles-mêmes au sein de ces documents. Quand le problème sera résolu, le Web sera bien plus utile, parce que les données concernant presque chaque aspect de nos vies sont générées à une vitesse stupéfiante. Enfermées au sein de toutes ces données se trouvent les connaissances qui permettent de guérir des maladies, de développer les richesses d’un pays et de gouverner le monde de façon plus efficace.

Les scientifiques sont véritablement aux avants-postes et font des efforts considérables pour inter-connecter les données sur le Web. Les chercheurs, par exemple, ont pris conscience que dans de nombreux cas un unique laboratoire ou un seul dépôt de données en ligne s’avèrent insuffisants pour découvrir de nouveaux traitements. Les informations nécessaires pour comprendre les interactions complexes entre les pathologies, les processus biologiques à l’œuvre dans le corps humain, et la gamme étendue des agents chimiques sont dispersées dans le monde entier à travers une myriade de bases de données, de feuilles de calcul et autres documents.

Un expérience réussie est liée à la recherche d’un traitement contre la maladie d’Alzheimer. Un grand nombre de laboratoires privés ou d’état ont renoncé à leur habitude de garder secrètes leurs données et ont créé le projet Alzheimer’s Disease Neuroimaging. Ils ont mis en ligne une quantité phénoménale d’informations inter-connectées sur les patients, ainsi que des scanners cérébraux, une base dans laquelle ils ont puisé à maintes reprises pour faire progresser leurs recherches. Au cours d’une démonstration dont j’ai été témoin, un scientifique a demandé : « quelles protéines sont impliquées dans la transduction des signaux et sont liées aux neurones pyramidaux ? ». En posant la question avec Google, on obtenait 233 000 résultats — mais pas une seule réponse. En demandant aux bases de données inter-connectées du monde entier pourtant, on obtenait un petit nombre de protéines qui répondaient à ces critères.

Les secteurs de l’investissement et de la finance peuvent bénéficier eux aussi des données inter-connectées. Les profits sont générés, pour une grande part, par la découverte de modèles de recherche dans des sources d’informations incroyablement diversifiées. Les données sont également toutes liées à notre vie personnelle. Lorsque vous allez sur le site de votre réseau social et que vous indiquez qu’un nouveau venu est votre ami, vous établissez une relation. Et cette relation est une donnée.

Les données inter-connectées suscitent un certains nombre de difficultés que nous devrons affronter. Les nouvelles possibilités d’intégration des données, par exemple, pourraient poser des problèmes de respect de la vie privée qui ne sont pratiquement pas abordés par les lois existantes sur le sujet. Nous devrions examiner les possibilités légales, culturelles et techniques qui préserveront le mieux la vie privée sans nuire aux possibilités de bénéfices que procure le partage de données.

Nous sommes aujourd’hui dans une période enthousiasmante. Les développeurs Web, les entreprises, les gouvernements et les citoyens devraient travailler ensemble de façon collaborative et ouverte, comme nous l’avons fait jusqu’ici, pour préserver les principes fondamentaux du Web tout comme ceux de l’Internet, en nous assurant que les processus techniques et les conventions sociales que nous avons élaborés respectent les valeurs humaines fondamentales. Le but du Web est de servir l’humanité. Nous le bâtissons aujourd’hui pour que ceux qui le découvriront plus tard puissent créer des choses que nous ne pouvons pas même imaginer.

Notes

[1] Crédit photo : Neal Fowler – Creative Commons By




Prix unique du livre, même numérique ?

Michael Mandiberg - CC-by-sa Nouvel exemple du refus des tenants d’industries du siècle dernier de considérer l’ère du numérique (ouverte par l’informatique et Internet [1]) comme une opportunité nouvelle et non comme une menace passagère, les sénateurs examineront bientôt une proposition de loi visant à imposer une recette sociale adaptée à l’économie matérielle d’objets, au commerce que l’on qualifiait encore il y a peu de « virtuel », des œuvres numériques, disponibles en-ligne et à volonté.

Tel est en effet l’objectif de cette proposition de loi : appliquer le prix-unique du livre également sur Internet. Si, naïvement, l’idée peut sembler bonne de prime abord, puisqu’elle a sûrement contribué à sauver les petites librairies françaises, elle dénote surtout une incompréhension chronique par la classe politique et les marchants de culture, de la notion de fichier d’ordinateur, ce support numérique réplicable en un instant et sans véritable coût à l’échelle de la population mondiale.

Sans en arriver aux extrémités répressives qu’instaure la loi HADOPI II, ce nouveau mouvement législatif se traduit par une énième tentative de limitation des fantastiques possibilités d’une économie nouvelle, dans le but de la faire entrer dans le moule rassurant des précédents modèles. Ici encore, au lieu d’explorer et d’exploiter au mieux ce qu’Internet rend possible, le législateur s’entête à refuser le potentiel d’un réseau numérique mondial, en s’entêtant aveuglément à transposer avec le minimum de réflexion possible ce qui marchait bien avant. D’autres pays plus pragmatiques vivent avec le Net, s’y adaptent et connaissent (est-ce lié ?) les plus forts taux de croissance de la planète depuis ces dix dernières années, mais pendant ce temps, nos sénateurs ont à cœur de préserver les recettes du passé, quitte à gâcher, pour un temps, celles du futur.

Si le Framablog parle rarement d’économie, nous vous parlons plus régulièrement d’œuvres libres, partagées par leurs auteurs à grande échelle via Internet. Or, cette loi ignore tout simplement la question et entre en contradiction avec l’essence même des licences libres, confirmant pour le moins que si la voie est libre, la route semble encore bien longue avant que les paradigmes du libre ne soient connus, compris et reconnus en haut lieu.

À l’heure de la sortie imminente de deux nouveaux Framabooks, Framasoft se joint donc aux inquiétudes soulevées par ses partenaires Adullact et AFUL dans leur dernier communiqué commun :

Le prix unique du livre numérique doit-il s’opposer à la création libre ?

14/10/2010 – URL d’origine

L’ADULLACT et l’AFUL s’inquiètent de la proposition sénatoriale de loi sur le prix [unique] du livre numérique, dont la rédaction actuelle menace sans nécessité la création sous licence libre. Leurs représentants au CSPLA s’en expliquent dans ce communiqué.

Nous avons eu récemment connaissance de la proposition de loi faite au Sénat par Mme Catherine DUMAS et M. Jacques LEGENDRE [2] relative au prix [unique] du livre numérique.

Nous comprenons le souci de la représentation nationale de préserver la filière du livre dans le monde numérique [3], en reprenant une formule qui s’est montrée efficace pour le livre imprimé traditionnel [4].

Cependant le monde numérique n’est pas le monde des supports matériels traditionnels et, s’il pose les problèmes que nous connaissons depuis plusieurs années, notamment en ce qui concerne la multiplication des copies illicites, c’est précisément parce qu’il obéit à des lois économiques nouvelles. En un mot : une fois l’œuvre créée, la production de copies peut se faire à un coût essentiellement nul.

Cela n’implique nullement qu’il soit légitime de faire ces copies sans l’accord des titulaires des droits, mais cela implique la possibilité et, de fait, l’existence de nouveaux modèles de création et d’exploitation des œuvres, modèles qui sont tout aussi légitimes que les modèles traditionnels issus du monde de l’imprimé.

Pour ne citer qu’un exemple, l’association Sésamath produit des livres numériques "homothétiques" (selon la terminologie de l’exposé des motifs), disponibles sous licence Creative Commons By-Sa. Cette licence implique que ces livres peuvent être exploités commercialement par quiconque, quelle que soit la forme que pourrait prendre cette exploitation, mais que les livres sont toujours cédés avec cette même licence sans contrainte nouvelle. Cela exclut en particulier toute contrainte de prix, ce qui est essentiel à la dynamique de création mutualisée et de maximisation du public recherchée par les auteurs.

Il ne s’agit nullement d’un phénomène marginal, même s’il est ignoré par certains rapports officiels [5]. Les versions imprimées des livres de Sésamath représentent environ 15% du marché qui les concerne, ce qui est loin d’être négligeable. Ces œuvres participent déjà au rayonnement de la France dans plusieurs pays francophones. C’est manifestement un modèle de création qui se développe : il a d’ailleurs fait l’objet des travaux d’une Commission Spécialisée [6] du Conseil Supérieur de la Propriété Littéraire et Artistique (CSPLA) où nous siégeons tous deux.

Il y a donc tout lieu de s’inquiéter de la compatibilité de la proposition de loi avec ces nouveaux modèles.

Ainsi l’article 2 prévoit la fixation d’un prix par le diffuseur commercial. Certes, les licences ouvertes – par exemple Creative Commons By-Sa – tout en permettant la diffusion gratuite et non commerciale, n’excluent nullement la diffusion commerciale, qu’elle soit le fait des créateurs initiaux ou de tiers. Mais le principe même de ces licences est par nature exclusif de toute fixation de prix puisqu’elles sont choisies par l’auteur précisément pour donner la liberté d’en décider, sans contrôle amont de l’aval de la chaîne de diffusion.

Cette loi n’a pas l’intention, on peut l’espérer, de tuer dans l’œuf ces nouveaux modes de création et d’exploitation, ce qui ne serait guère dans l’intérêt de notre pays, des créateurs concernés ou du public. Il faut donc préciser que la fixation du prix du livre numérique ne s’applique pas aux œuvres numériques libres ou ouvertes. Cela peut être réalisé très simplement par un amendement à l’article 2.3 qui prévoit déjà quelques cas d’exemption, sans aucunement porter atteinte aux modes d’exploitation commerciale que la loi vise à encadrer, au bénéfice des titulaires de droit qui souhaitent une telle protection.

Le monde du numérique et les modèles économiques associés sont complexes et mouvants, et la prudence doit probablement prévaloir avant d’y figer quoi que ce soit. Du moins faut-il préciser avec soin quels objets sont visés par le législateur. Il nous semble important que les nouveaux modèles de création et d’exploitation aient le droit de se faire entendre au même titre que les modèles traditionnels. Il y va de la compétitivité économique et culturelle de notre pays dans un univers bouleversé par le numérique. Le meilleur témoin de l’intérêt économique et social de ces modèles est le soutien que leur apportent les collectivités territoriales par leur adhésion à l’association ADULLACT présidée par l’un de nous.

Le rapport Patino préconise [7] de "mettre en place des dispositifs permettant aux détenteurs de droits d’avoir un rôle central dans la détermination des prix". Nous ne demandons rien d’autre.

Bernard LANG
Membre titulaire du CSPLA
Vice-président de l’AFUL
bernard.lang@aful.org, +33 6 62 06 16 93

François ELIE Membre suppléant au CSPLA
Président de l’ADULLACT
Vice-Président de l’AFUL
francois@elie.org, +33 6 22 73 34 96

Notes

[1] Crédit photo : Michael Mandiberg – Creative Commons Paternité Partage à conditions initiales

[2] http://www.senat.fr/leg/ppl09-695.html

[3] Le rapport de M. Bruno Patino, sur le livre numérique http://www.culture.gouv.fr/culture/actualites/conferen/albanel/rapportpatino.pdf s’inquiéte du moyen d’étendre la loi Lang au numérique (page 45).

[4] Sur ce point, discutable, voir Mathieu Perona et Jérôme Pouyet : Le prix unique du livre à l’heure du numérique http://www.cepremap.ens.fr/depot/opus/OPUS19.pdf

[5] C’est d’autant plus regrettable que les modèles explorés par Sésamath sont cités dans le monde entier comme précurseurs et innovants.

[6] http://www.cspla.culture.gouv.fr/travauxcommissions.html, Commission sur la mise à disposition ouverte des œuvres.

[7] C’est sa quatrième recommandation.




Avec Uniflow, Canon invente la photocopieuse qui espionne, refuse et dénonce

Timshell - CC-by-nd En l’absence de l’habituel maître des lieux
Les lutins du Framablog font bien de leur mieux
Écumant le web, en quête de sujets sérieux
Ils espérent que ces billets vous rendront joyeux
À défaut de nous aider à ouvrir les yeux
Sur des technologies qui derrière un vœu pieu
Menacent nos libertés et nos échanges précieux

« On arrête pas le progrès » aimait à répéter mon grand père, mais aujourd’hui, je me demande ce qu’il aurait pensé des dernières inventions de Canon…

En effet, si l’esprit du hacker est de bidouiller une technologie pour en trouver de nouveaux usages, les grandes firmes s’ingénient elles bien souvent à limiter les possibilités de leurs produits, pour créer une illusion de contrôle.

Dans notre cas, Canon a créé des photocopieuses qui inspectent au plus près les documents qu’on leur donne à reproduire, et s’y refusent si ces derniers contiennent l’un des mots de la liste noire située sur le serveur central des installations Uniflow.

Tout d’abord, ces photocopieuses illustrent exactement la menace qui plane sur la neutralité d’Internet. Imaginez qu’il ne soit plus possible de se parler qu’à l’aide de textes envoyés d’une photocopieuse à une autre et vous aurez un bon aperçu de comment fonctionne Internet. En effet, chaque message y circule, par petits bonds, d’un ordinateur à un autre entre votre machine et celle à laquelle vous tentez d’accéder de l’autre côté du réseau. Chaque machine rencontrée photocopie simplement les messages qu’elle reçoit vers la sortie qui les rapprochera de leur destination. Pour l’instant, les routeurs de l’Internet transportent les messages de manière aussi neutre qu’une simple photocopieuse, sans le moindre soupçon d’analyse de contenu. Mais Canon vient donc de briser la neutralité des photocopieuses, en créant un système de « deep photocopy inspection » bien sûr associés à un système centralisé de censure.

Ensuite, comme le remarquait Benoit Sibaud sur Identi.ca, nous nous trouvons là devant un cas concret d’informatique déloyale, telle que définie par l’April, où des utilisateurs se trouvent confrontés à des systèmes soit-disant « de confiance », et qui sous prétexte de sécurité ne remplissent tout simplement plus la tâche pour laquelle ils sont conçu si les conditions arbitraires d’une entité tierce de contrôle ne sont pas réunies.

Je parlais d’une illusion du contrôle, car comme toujours le moyen mis en œuvre pour « sécuriser l’usage » est aisément contournable, les documents n’étant (pour l’instant) analysés qu’à l’aide d’un logiciel OCR, incapable donc de percevoir les notes manuscrites, ou les mots (volontairement) mal orthographiés.

Alors à quoi bon mettre en place des systèmes aux performances finalement ridicules au regard du niveau stratégique de l’objectif ? Et quel peut être l’objectif d’imprimantes allergiques à certains mots ?

Tout d’abord, déployer un système à l’efficacité embryonnaire c’est toujours faire un premier pas, ça finance la génération suivante et ça piège les non avertis… [1] Ensuite dans le cas présent, on peut pallier les manques du système en contraignant le reste de l’environnement, et si on trouve une application admise par les contrôleurs et les contrôlés ça pourrait même rendre service.

Mais pourquoi empêcher d’imprimer ? Pour pallier, d’une certaine manière, au « trou analogique ». Le trou analogique c’est le nom donné à un phénomène simple : aussi sophistiqué que puisse être le système de protection d’un fichier (chiffrement, DRM), pour qu’il soit lu il faut bien à un moment le rendre présentable pour un humain. Et à partir de là, il est toujours possible de renumériser les données… Un MP3, même plombé par un DRM, quand il finit par être lu, rien ne m’empêche de l’enregistrer avec un dictaphone, si j’ai peur de ne pas m’en souvenir tout seul. Dans notre cas, l’intérêt est donc de combler en partie le trou analogique, en évitant que des copies papiers de documents identifiés comme « secrets » ne soient créées.

Toutefois, ça peut vite devenir comique, si une entreprise empêche l’impression de documents contenant le nom de ses clients par exemple, espérons qu’ils ne traitent pas avec Apple, Orange ou même Canon, sinon ils vont vite finir par ne plus pouvoir imprimer grand chose.

Néanmoins, après les imprimantes qui mentent sur leur niveau d’encre et les imprimantes qui laissent des micro-traces pour s’identifier sur toutes leurs copies, Canon invente aujourd’hui les imprimantes qui choisissent ce qu’elles impriment… [2]

Canon promet une sécurisation à base de mots-clés pour ses scanners et imprimantes

Canon promises keyword-based document scanning and printing security

Alan Lu – 12 octobre 2010 – ITPro.co.uk
Traduction Framalang : Siltaar, Julien R., KooToX, Daria

Canon a fait une démonstration d’Uniflow 5, la dernière version de son système de gestion de documents, capable d’empêcher les utilisateurs d’imprimer ou de copier des documents contenant certains mots, grâce à un système de sécurité intelligent basé sur des mots-clés.

Uniflow est un système de gestion de documents qui permet, depuis longtemps, de contrôler imprimantes, scanners et photocopieurs de manière centralisée. Cela permet de conserver le compte des impressions de chaque utilisateur à des fins de facturation. C’est indispensable dans les professions qui facturent les clients à l’heure ou à la quantité de travail, comme les avocats et les architectes. Le système requiert à la fois un serveur Uniflow sur votre réseau et des périphériques d’imagerie Canon, compatibles Uniflow.

La dernière version d’Uniflow possède un système de sécurité intelligent, basé sur des mots-clés. Une fois configuré par un administrateur, le système peut empêcher un utilisateur d’imprimer, scanner, copier ou faxer un document contenant un des mots-clés prohibés, tel que le nom d’un client ou le nom de code d’un projet.

Le serveur enverra alors par courriel à l’administrateur une copie PDF du document en question, au cas où un utilisateur s’y essaie. Le système peut aussi optionnellement informer l’utilisateur par courriel que sa tentative a été bloquée, mais sans identifier le mot-clé responsable, maintenant ainsi la sécurité du système.

La détection des mot-clés d’Uniflow 5 se base sur un système de reconnaissance optique de caractères (OCR), dont la licence est détenue par la firme belge Iris. Cette technologie est plus communément utilisé pour retranscrire des documents scannés en textes éditable sur ordinateur. Canon Angleterre a confirmé qu’un utilisateur éclairé et déterminé ayant repéré un des mots-clés peut contourner le système en remplaçant une lettre par une autre ou un chiffre ressemblant comme avec « z00 » au lieu de « zoo ».

Néanmoins, l’intérêt de cette fonctionnalité est immédiatement perceptible pour les secteurs traitant des documents sensibles, que se soit pour des raisons légales, concurrentielles ou commerciales. Les représentants de Canon n’ont pu avancer de date quant à la commercialisation des produits Uniflow 5.

Notes

[1] Toute ressemblance avec une loi visant à contrôler les usages sur Internet serait fortuite.

[2] Crédit photo : Timshell (Creative Commons Attribution NoDerivs).




Facebook, petite analyse anthropologique avec YourOpenBook.org

Mohd Shazni - CC by L’équipe Framalang s’est dernièrement attelée à la traduction d’un court article de Gene Weingarten, au sujet de ce grand site de réseautage social sur le web. Derrière une apparente naïveté, l’auteur se targue de réaliser une étude anthropologique à partir des données personnelles des millions d’utilisateurs de Facebook, qu’il collecte via YourOpenBook.org, un moteur de recherche dédié aux messages courts de statut de ce qui n’était à l’origine qu’un trombinoscope universitaire en-ligne. Or, si jusque-là la fonctionnalité pouvait sembler manquer au site officiel, c’est aussi qu’elle met en évidence le faible degré de protection des données personnelles de ses utilisateurs que Facebook offre, au moins par défaut.[1].

Ironie du sort, la semaine de sortie de l’article en question, Facebook fut secoué d’une quinte de toux numérique le rendant injoignable pendant plus d’une heure, ce qui anima de grandes conversations sur les autres grands réseaux sociaux, principalement à coup de gazouillis d’ailleurs…

Pas de quoi fouetter un chat me direz-vous, des sites web qui tombent en panne ça arrive, et même au plus gros. Par contre, dans le cas d’un site qui se propose de gérer vos albums photos, votre carnet d’adresses en fouillant dans vos boîtes à lettres électroniques (pour finalement proposer de les remplacer par son service de messagerie interne) et jusqu’à vos connexions aux autres sites web via un service doublon d’OpenID, l’incident peut être révélateur et s’avérer pédagogique. Pour ma part, j’ai ouvert un compte Facebook sans grande conviction en 2006, parce que c’était de bon ton dans l’entreprise où j’étais en stage à l’époque, mais je ne prévoyais pas un plus grand avenir à ce compte qu’à mes comptes Orkut[2] ou CopainsDAvant[3]. Or, si pour ma part j’ai tenu parole, n’alimentant pas vraiment un réseau plus que les autres, force est de constater que l’un d’eux a pris au fil des ans de plus en plus de place sur le web. Et à vrai dire, chaque fois qu’une connaissance s’ajoute à mes contacts, j’ai l’indolence de ne pas aller chercher son adresse de courriel dans son profil pour la noter dans un fichier chez moi. Or, il s’avère que pendant cette fameuse interruption de service, je me suis retrouvé à devoir envoyer un message « urgent » à un ami dont je n’avais jamais noté l’adresse ailleurs… et je n’ai pas pu.

Finalement il apparaît que Facebook, l’utiliser c’est se piéger, même en étant renseigné et modéré. Au moins, les mails stockés sur mon disque dur par Thunderbird[4] me restent accessibles, même hors ligne. Quel qu’en soit le parcours, je conserve ainsi mon courrier numérique sous mon toit (et j’en fais régulièrement des sauvegardes).

Cette anecdote me rappelle une petite phrase, innocemment lancée par Eben Moglen au milieu de son discours en plénière de clôture de la 1ère journée de l’OpenWorldForum la semaine dernière, et qui fut spontanément applaudie par le public, avec 3 secondes de décalage :

“For the moment, what we see is people that chose to put their pictures and personnal informations, their day-to-day emotional and friendships connexions all together in the computers of a single for-profit compagny, run by a fool.”

« Ce que nous voyons pour le moment, se sont des gens qui choisissent de mettre leurs photos et leurs informations personnelles, leurs amitiés et états d’âme au quotidien tous ensemble dans les ordinateurs d’une seule et même entreprise commerciale, menée par un fou. »

Cette fois c’est décidé, dès que j’ai un Diaspora, un GNU/Social ou une Nobox qui tourne chez moi, je ferme mon compte Facebook.

Gene Weingarten: Pourquoi je déteste énoooooooooorrrmément Facebook…

Gene Weingarten: I hate Facebook sooooooooooooooooooooooooooooooo much…

Gene Weingarten – 17 septembre 2009 – WashingtonPost.com
(Traduction Framalang : Julien Reitzel, Goofy, Siltaar)

Les critiques affirment que je suis injuste à l’égard de Facebook simplement parce que je l’ai décrit comme un océan de banalités partagées entre des gens avec une vie aussi vide à laquelle ils font écho. Je défends ma thèse mais admets que mon témoignage n’était pas basé sur des preuves scientifiques — totalement anecdotique — , mais basé sur mes plongeons occasionnels dans ce lagon tiède et morne de conversations fadasses.

Mais cela a changé. Je trouve qu’il est désormais possible de quantifier mathématiquement l’ennui, grâce à un nouveau site web. Openbook, accessible à l’adresse YourOpenBook.org, est un moteur de recherche pour les « messages de statut » de Facebook, le moyen principal utilisé par le « Facebookeur » pour communiquer avec ses amis. Avec Openbook, il est possible de rechercher un mot ou une phrase et de trouver non seulement combien de fois il a été utilisé dans des alertes de statut, mais aussi quand et par qui.

Les créateurs de ce site le présentent comme un outil de mise en garde, pour alerter les gens que le média social ne protège pas leur vie privée de façon adéquate. Mais entre les mains d’un chercheur objectif comme moi-même, Openbook peut être un précieux outil d’interprétation. À travers lui, on peut analyser Facebook anthropologiquement.

C’est d’ailleurs ce que j’ai fait, et voilà ce que ça donne :

  • Quand les gens estiment nécessaire de faire savoir à leurs amis à quel point leur vie est insupportablement aride et abrutissante — ce qu’ils font à une fréquence d’environ 2 000 mises à jour de statut par heure — le mot qu’ils choisissent le plus souvent est « boring » (ennuyeux). Ils ont tendance à l’écrire avec des « o » ou des « r » en plus, pour en accentuer l’effet. Si vous cherchez « boooring » et continuez à rechercher en ajoutant à chaque fois un « o », vous trouverez à chaque fois au moins un résultat, jusqu’à obtenir 31 « o » consécutifs. Quand vous essayez « borrrring » et continuez à ajouter des « r », vous arrivez jusqu’à 47. Juste pour info, la personne qui, par cette méthode, souffre de l’ennui le plus invalidant sur la planète, « boring » avec 51 « r », est Heather S. de Waterloo, dans l’Ontario.
  • Au cours des 16 derniers jours, 130 personnes ont alerté leurs amis du fait qu’ils « ont un bouton ». L’emplacement de l’imperfection est généralement spécifié, tout comme la taille. L’endroit le plus fréquent est le front, étroitement suivi par le lobe de l’oreille puis par la fesse, le plus souvent du côté gauche. La tomate a été la comparaison la plus colorée, tandis que la plus grosse était « Jupiter ». M. Mandel de New York a nommé son bouton Steve (elle est aussi fan de Justin Bieber ET des Jonas brothers, et, dans la rubrique livres favoris, écrit : « j’aime pas lirre »).
  • Des milliers de gens envoient des communiqués décrivant leurs impératifs excrétoires. Souvent, ils contiennent la phrase « je dois aller aux WC ». Il serait incorrect et inique de conclure que toutes les personnes utilisant cette phrase sont vulgaires et/ou rustres. Le chercheur rigoureux a découvert, par exemple John Paul Weisinger de Lufkin, au Texas, qui n’était pas du tout en train de discuter de sa propre biologie. Il était simplement en train de partager avec ses amis une blague qu’il trouve drôle : « Un cochon rentre dans un bar et commande verre après verre après verre sans jamais aller aux toilettes. Le barman demande : “Tu n’as jamais besoin de te soulager ?”, et le cochon répond : “Non, c’est déjà fait, je fais pipi au fur et à mesure que je bois” »
  • Il est possible de jauger mathématiquement la force de l’amour que se portent les gens en observant le nombre de « o » (dans le mot « love ») qu’ils utilisent dans l’expression « I love you so much » (« je t’aime tant »). Par exemple, Baker-Hernandez de Lakewood, Colorado, aime davantage son chat (57 « o ») que Lorne D. Stevens de Detroit aime Jolly Ranchers (10 « o »). Il ne semble pas y avoir de limite supérieure à l’amour que peuvent se porter les gens.
  • Les utilisateurs de Facebook peuvent s’ennuyer, mais, paradoxalement, ils sont aussi facilement amusés. On sait cela, parce qu’ils sont toujours morts de rire. Les « LOL » et autres « MDR » surviennent avec une telle fréquence qu’ils sont littéralement impossibles à compter : des dizaines apparaissent à chaque seconde. Un sous-ensemble de ces rieurs sont en même temps en train de se rouler par terre — mais toujours en trop grand nombre pour en faire le pointage. C’est seulement avec un troisième critère — ceux qui sont à la fois pétés de rire et entrain de se rouler par terre — que le nombre devient palpable : 390 par jour.
  • Dans un intervalle de 5 jours, 266 personnes ont fait référence au dirigeant des États-Unis en l’appelant Président « Oboma ». Soixante-sept autres l’ont appelé Président « Obamma ». Presque tous ces gens faisaient le constat qu’il est un stupide incompétent.

Notes

[1] Crédit photo : Mohd Shazni (Creative Commons By)

[2] Orkut.com, vous connaissez ? C’est l’un des véritables échecs de Google 🙂 Avec les Google Waves ou encore le Google Buzz…

[3] J’ai toujours été très curieux.

[4] En fait j’suis même passé à du mutt + fdm désormais…




L’échec des DRM illustré par les « Livres numériques » de Fnac.com

Cher Framablog,
En raison de l’absence du maître de céans,
Les lutins qui veillent à ton bon fonctionnement,
Ont œuvré pour publier le billet suivant,
Par votre serviteur, introduit longuement.

Témoignage d’un lecteur loin d’être débutant,
Il retrace un épique parcours du combattant,
Pour un livre « gratuit » en téléchargement,
Que sur son site web, la Fnac, propose au chaland.[1]

xverges - CC by Récemment[2] sur rue89.com, on pouvait lire : « Nothomb, Despentes : la rentrée littéraire se numérise un peu ». Et pour un fan de technologie comme je suis, ce titre résonnait plutôt comme « la rentrée littéraire se modernise un peu ». En effet, des livres numériques il en existait déjà au siècle dernier…

Côté libre, il faut avouer qu’on est plutôt bien servi. Citons par exemple cette excellente trilogie de Florent (Warly) Villard « le Patriarche » débutée en 2002, à l’occasion de son « pourcentage de temps réservé aux projets libres personnels » chez MandrakeSoft à l’époque. Citons encore la collection Framabook et ses 7 ouvrages[3], citons aussi la forge littéraire en-ligne InLibroVeritas.net et ses 13500 œuvres sous licence libre[4], ou encore le projet Gutenberg et ses 33 000 œuvres élevées au domaine public, Wikisource.org et ses 90 000 œuvres réparties sur plus de 10 langues et pour finir le portail Gallica de la BnF donnant accès à plus d’1,2 millions d’œuvres numérisées[5]… Ces livres, on peut les télécharger en un clic depuis son navigateur, les transférer dans son téléphone portable[6] en un glissé-déposé, et les lire tranquillement dans le métro, même là où ça ne capte pas[7].

Dans ces conditions, que demander de plus que de faire sa rentrée littéraire sur un écran d’ordinateur ? Pourtant, ces conditions, elles ne sont pas évidentes à rassembler. Évacuons tout de suite la question du matériel. Alors que la plupart des téléphones de dernière génération sont dotés d’un navigateur web, tous ne sont pas utilisables comme de simple clé USB, et y transférer des fichiers peut s’avérer impossible pour certains ! Je n’insisterai pas non plus sur les autres équipements proposés spécifiquement pour cet usage, et qui se révèlent le plus souvent considérablement limités. Après tout, n’importe quel ordinateur devrait pouvoir faire l’affaire.

Mais concernant l’œuvre elle même, il faut qu’elle soit libre, ou librement téléchargeable, ou au moins librement « lisible » pour que ça marche. Et pour le coup, on s’attaque à une pelote de laine particulièrement épineuse à dérouler. Avant qu’on les propose sous forme numérique, pour lire les livres d’Amélie Nothomb il fallait en acheter une copie papier, un objet physique qui coûte à produire, transporter, stocker et présenter dans des rayons. Il fallait donc payer pour obtenir un feuilleté de cellulose, qui s’use, se perd, se brûle… et se prête aussi. Et de cette somme d’argent, après avoir largement rémunéré les intermédiaires, une petite portion était finalement reversée à l’auteur. Et ça, la rémunération de l’auteur, c’est le petit détail qui manque au tableau dépeint quelques paragraphes plus haut. Si je lis « Le Prince » de Nicolas Machiavel, mort en 1527 à Florence, l’ouvrage s’est élevé au domaine public depuis fort longtemps maintenant, et la question ne se pose pas. L’auteur n’aurait plus l’usage d’une rémunération aujourd’hui. Par contre, après avoir lu « Le Patriarche » de Florent Villard, j’ai tellement aimé le bouquin que j’ai spontanément envoyé un chèque à l’auteur, pour l’encourager à écrire la suite[8]. Mais dans le cas d’Amélie malheureusement, sa maison d’édition n’a pas voulu parier sur la philanthropie des futurs lecteurs.

Les autres maisons d’éditions non plus d’ailleurs, et cette question de la rémunération des auteurs, elle se pose en France et partout dans le monde depuis des années, depuis l’arrivée du numérique. Il y a eu des hauts et débats (selon la formule consacrée) pour y répondre, mais il y a malheureusement aussi eu des bas, comme les lois DADVSI et HADOPI 1 et 2…

Les lois HADOPI, on peut les évacuer rapidement : pas une ligne de leur texte ne porte sur la rémunération des auteurs, contrairement à ce qui a pu être clamé. Avec cette initiative législative, les représentant des ayants droit et de la distribution tentèrent juste une fois de plus de plier l’économie numérique de l’abondance aux lois qui régissent l’économie des biens physiques, basée sur le contrôle matériel de l’accès aux œuvres. Au lieu de s’adapter à un marché qui évolue, les moines copistes de DVD[9] tentent encore et toujours de retenir le progrès des technologies de diffusion pour rester rentiers.

Manu_le_manu - CC by nc sa

La loi DADVSI était elle encore plus simple à comprendre. Elle avait déjà pour objectif, 4 ans plus tôt, d’essayer d’imposer une forme de contrôle à la distribution d’œuvres sur Internet, via l’utilisation de verrous numériques aussi nommés DRM. Un procédé saugrenu, consistant à couper les ailes de l’innovation, en tentant de limiter les possibilités des ordinateurs et l’usage de certains fichiers, de telle sorte qu’on ait à considérer ces fichiers comme autant d’objets unitaires et non comme une simple suite d’octets duplicables plusieurs millions de fois par secondes, d’un bout à l’autre de la planète[10], ce qu’ils sont pourtant. En permettant à chaque distributeur de restreindre le nombre de copies possibles pour un fichier, on nous promettait le décollage des offres légales de contenus numériques. Ce fut un échec assez cuisant, rien n’a décollé et encore moins côté bouquin. C’est pourtant pas faute d’avoir expliqué, déjà à l’époque, que mettre des bâtons dans les roues de ses clients n’est pas un plan d’affaires viable.[11]

Ce fut un échec mémorable, chaque distributeur ayant adopté son propre système de « complication d’usage », tenu secret et dont l’étude était punie d’emprisonnement[12], et donc bien évidement incompatible avec ceux des autres distributeurs. Des systèmes à la fois contournables en s’en donnant la peine, et compliqués à mettre en œuvre dans le cadre d’une « consommation » courante… Microsoft à même réussi la prouesse de commercialiser à l’époque des lecteurs incompatibles avec son propre système de verrous numériques[13].

Du côté « pas libre » donc, la situation des livres numériques a souffert d’une orientation stratégique contraire à l’intérêt général, d’une mise en œuvre partielle et désorganisée et globalement d’une incompréhension des technologies numériques. Des caractéristiques qui ne sont pas sans rappeler le fiasco des porte-monnaie Monéo, lancés en 1999. Vous vous souvenez sûrement de ce nouveau moyen de paiement qui devait permettre aux banques de gérer votre monnaie en plus de votre épargne (au lieu de la laisser dormir dans un fourre tout près de la porte d’entrée), et qui fut conçu de manière à coûter moins cher aux banques qu’une carte de crédit classique. Il n’était donc pas sécurisé (pas de code à taper), mais surtout, il rendait l’argent de votre compte en banque « physique », dans la carte. Si elle tombait dans une flaque d’eau, vous perdiez le montant de son rechargement. Sans parler du fait que la carte se mettait dès lors à intéresser des voleurs potentiels, attirés par les 100€ que son porte monnaie intégré (de gré ou de force) pouvait contenir. Évidemment, ce système n’a pas, non plus, rencontré le succès escompté par ses créateurs.

Et pourtant, ces deux fantômes du début de la décennie, DRM et Monéo, reviennent hanter notre univers dématérialisé ces jours-ci. Le premier dans les offres de livres numériques de cette rentrée littéraire, le second imposé dans les restaurants universitaires. Et il ne serait pas étonnant de voir bientôt à la Fnac des bornes de distribution de livres numériques infestés de DRM, et imposant (comme dans les restaurants universitaires) les paiements par Monéo.

Aujourd’hui, alors que des systèmes alternatifs et innovant se mettent en place pour permettre la rémunération des auteurs dans une économie numérique, nous avons testé pour vous l’enfer dans lequel s’entêtent les entreprises « majeures » de la distribution de culture.

Livre numérique sur Fnac.com : le parcours du vieux con battant

D’après l’expérience de Fredchat – 13 septembre 2010

J’ai testé pour vous (avec un succès modéré) le service « Livres numériques » de la Fnac.

Cherchant sur le site de cet important distributeur français un livre de Maupassant, je suis tombé sur une annonce pour un « ebook » en téléchargement gratuit. L’offre a l’air honnête et puis c’est le livre que je cherchais, alors je me dis :

« Essayons voir ce service épatant que tout le monde marketing nous pousse à consommer : le livre électronique. »

Aussi simple que télécharger un fichier ?

Je me lance donc dans l’aventure et il faut, pour commencer, valider une commande sur le site Fnac.com, pour débloquer le téléchargement d’un fichier gratuit. Ça commence donc bien, il faut avoir un compte à la Fnac. Bon, ce n’est plus vraiment gratuit, mais c’est presque de bonne guerre.

Une fois passé ce premier écueil, et une fois la commande validée, le site me donne un lien vers une page de téléchargement. À ce point-là, moi qui aime faire les choses simplement quand c’est possible, je découvre avec désarroi que ce n’est pas le livre qu’on me propose de télécharger sur cette page. Point de fichier PDF, ePub ou d’un quelqu’autre format standard et reconnaissable (voire normalisé), comme les petites icônes vantaient dans les rayons du site. Au lieu de cela, on me propose un tout petit fichier, affublé de l’extension exotique .amsc et qui se révèle ne contenir que quelques lignes de XML. Ce fichier ne contient en fait pas grand chose de plus que l’URL d’un autre fichier à télécharger, un PDF cette fois. J’ai alors l’impression d’avancer vers le but, même si je m’embête rarement autant, dans la vie, pour télécharger un simple fichier, gratuit qui plus est. Seulement voilà, on ne peut pas le télécharger directement ce PDF ! Ils sont très forts à la Fnac, leur fichier gratuit m’a déjà coûté plus de vingt minutes… et je suis toujours bredouille.

Je me renseigne plus avant sur la procédure à suivre, et au cours de cette petite séance de lecture j’apprend qu’il faut obligatoirement passer par un logiciel Adobe, lui-même tout aussi gratuit mais uniquement disponible sous Microsoft Windows et Mac OS X… Linuxiens passez votre chemin.

Mais ce n’est pas tout…

Le logiciel Adobe en question interprète le XML, détecte les informations qui vont bien et, alors que le suspens est à son comble et que l’on croit toucher au but, surprise, le texte qui apparaît enfin n’est pas celui du livre. À la place, on tombe sur un charabia composé d’explications toutes aussi surprenantes que liberticides, avec un bouton « Accepter » en bas de l’écran. Pour un téléchargement gratuit, je me retrouve donc à vendre une deuxième fois mon âme au diable.

En substance, on m’explique que pour avoir accès au livre il me faut en autoriser la lecture sur l’ordinateur en cours d’utilisation, et pour cela, je dois obligatoirement avoir un identifiant Adobe. Cet identifiant, on l’ obtient en s’inscrivant à un « club » géré par l’éditeur du logiciel et qui requiert pour son inscription toute une bordée d’informations personnelles que l’on ne m’a jamais demandées pour acheter un livre… (qui devait être gratuit, excusez-moi d’insister).

Cela fait maintenant près de 40 minutes que je m’acharne sur ma commande Fnac.com d’un livre gratuit et à ce stade, je me surprends moi-même d’avoir trouvé à franchir tous les obstacles. Mais ça y est, je le vois le livre et il commence à en avoir de la valeur à mes yeux ce fichier PDF vu le temps que j’y ai consacré. Toutefois, téléchargeable et lisible uniquement via un logiciel propriétaire Adobe, ce n’est plus vraiment un fichier PDF…

D’ailleurs, alors que je m’apprête à copier ledit fichier vers un périphérique plus adéquat à sa lecture, une petite voix me prévient que je ne peux en autoriser la lecture, via le logiciel propriétaire, que sur un maximum de 6 périphériques, et qu’il faut donc que je m’assure de vouloir vraiment le copier quelque part et entamer le décompte. Je ne suis plus à ça près.

Conclusion

Résultat des courses, je suis fiché chez deux grandes entreprises (avec les dérives d’exploitation de mes données personnelles que cela permet), je ne peux pas lire le livre sous Linux. J’ai perdu mon après-midi et je ne peux pas partager le fichier gratuit, d’une œuvre libre de droits, avec mes amis pour leur épargner l’improbable et complexe procédure de téléchargement que j’ai subie. C’est sûr, avec Fnac.com on comprend vraiment la différence entre gratuit, et libre.

Toutefois, si vous êtes séduit, vous pourrez bientôt acheter le Petit Prince dans cet alléchant format, pour la modique somme de 18€…

Épilogue

Finalement, je crois que je vais rester un vieux con et garder mes livres papier. Au moins, dans ce format je peux les lire où je veux (dans un fauteuil, dans mon lit, sur les toilettes, au bord d’une piscine, etc.), quand je veux, que je sois en-ligne ou pas, et les prêter à mes amis.

Sinon, quand je serai remis de cette mésaventure, j’irai jeter un œil sur Wikisource ou sur le projet Gutenberg, il paraît qu’on y trouve des livres numériques libres, téléchargeables en un clic et dans des formats ouverts et normalisés…

Notes

[1] Crédit photo : xverges (Creative Commons By)

[2] Introduction rédigée le 23 septembre 2010.

[3] Attention, ce qui suit dévoile des moments clés de l’intrigue : bientôt 10 😉

[4] Libres à divers degrés suivant les variations permises par les licences Creative Commons, rendant l’œuvre modifiable ou non et commercialisable ou non.

[5] Pour la plupart du domaine public, librement lisibles, mais pas librement réutilisables. Il faut en effet s’acquitter d’une licence auprès de la Bibliothèque nationale de France pour pouvoir faire un usage commercial des fichiers obtenus depuis le portail. Ça fait quand même une sacrée bibliothèque… Merci à Christophe de l’avoir rappelé dans les commentaires.

[6] Par exemple sous la forme de pages webs, débitées en tranches de 450ko, sinon le téléphone en question sature sa mémoire vive s’il s’agit d’un N95…

[7] Ou encore, en réponse anticipée à un bout de la conclusion du texte présenté, partout où un chargeur solaire parviendra à maintenir l’engin allumé…

[8] Pour la petite histoire, j’ai même envoyés deux chèques, un après la lecture du 1er tome, et un autre à la fin de la 1ère trilogie (c’est prévu pour être une longue histoire). Or, l’auteur se sentant coupable de délaisser son ouvrage n’a encaissé que le 1er chèque, et c’était il y a plus d’un an maintenant. Toutefois, de récentes mises à jour sur le site du livre laissent espérer que la suite pourrait venir sous peu.

[9] Pour reprendre l’expression de Nicolas Dupont-Aignan.

[10] Oui, je sais qu’une sphère n’a pas à proprement parler de bouts, mais elle n’a pas non plus de côtés, et … revenons à nos moutons.

[11] Crédit photo : Manu_le_manu (Creative Commons By NC SA)

[12] Peine disproportionnée que les juges n’appliquèrent pas, et qui fut limitée par le Conseil d’État deux ans plus tard, interrogé par l’April sur le sujet

[13] Comme l’analysaient Formats-Ouverts.org, PCINpact.com, Clubic.com, Numerama.com




Quand le hacker se découvre parasite !

Genista - CC by-saPour peu qu’on ne le confonde pas avec le cracker et qu’il ne perde pas en route sa pureté originelle, la figure du hacker a bonne presse actuellement.

Tellement bonne presse que certains n’hésitent pas à en faire une sorte de nouvel héros des temps modernes.

Sauf si l’on rejette en bloc cette modernité.

Attention les yeux, l’article que nous vous proposons reproduit ci-dessous est une très virulente critique d’un livre souvent cité en référence sur ce blog: L’Éthique hacker de Pekka Himanen. Mais précisons d’emblée qu’il n’est pas nécessaire de l’avoir lu pour suivre le propos.

Il émane des courants anti-industriels qui se caractérisent par une critique radicale de toutes les technologies issues des révolutions industrielles de ces deux derniers siècles[1].

Dans ce cadre-là, le problème n’est pas de défendre les libertés menacées d’Internet, le problème c’est Internet lui-même. La posture du hacker est alors au mieux inutile et au pire complice voire idiot utile du système.

Ici notre hacker tombe bruyamment de son piédestal et ne s’en relève pas.

Il va de soi que nous ne partageons pas le point de vue de l’auteur. Mais il nous semble cependant intéressant d’offrir de temps en temps un espace à nos contradicteurs. Ne serait-ce que pour ne pas s’enfermer dans une sorte de discours « librement correct » redondant et ronronnant.

Les hackers et l’esprit du parasitisme

URL d’origine du document

Los Amigos de Ludd – août 2009 – Pièces et Main d’Oeuvre

Nous incluons dans cette livraison un commentaire de l’ouvrage L’Éthique hacker et l’esprit de l’ère de l’information, appelé à devenir la profession de foi d’une nouvelle génération de technoconvaincus partageant la certitude que les décennies à venir leur appartiennent. Son auteur, Pekka Himanen, est le nouvel hérétique de cette éthique du travail coopératif et passionné, à mille lieues des éthiques protestantes et catholiques fondées sur le travail esclave et la mortification rétribués dans l’Au-delà.

Notre époque, qui plus que tout autre récompense l’irresponsabilité, favorise l’apparition de doctrines ahurissantes concoctées dans les laboratoires insonorisés des universités et des entreprises d’un monde qui s’écroule de toutes parts. Des volumes considérables de matière grise sont mobilisés pour nous montrer les voies d’accès à la vie radieuse que nous sommes tous invités à embrasser si nous ne voulons pas rater le coche de l’émancipatrice modernité. C’est ainsi qu’il y a quelques années déjà, nous avions eu vent de l’existence de ces hackers qui aujourd’hui brandissent l’étendard de leur nouvelle éthique.

Disons d’emblée que le pastiche du ci-devant Himanen n’aurait pas attiré notre attention une seule seconde, n’était le relatif intérêt qu’il a suscité chez ceux qui appartiennent à ce que nous pourrions nommer pieusement les « milieux radicaux ». Ce qui fait problème ce n’est pas que le livre d’Himanen soit une compilation de banalités et d’envolées lyriques, mais qu’il ait été possible de rêver, ne serait-ce qu’un seul instant, que ce livre puisse être mis en perspective avec la pensée critique. D’où vient ce malentendu ?

Nous ne nous engagerons pas ici, une fois de plus, dans une critique de la société technicisée, une réalité qui, au bout du compte, fournit le seul argument tangible plaidant en faveur du fait que les thèses des hackers ont pu s’imposer dans certains milieux avec autant de force. Néanmoins, nous n’allons pas nous priver de mettre en évidence quelques-unes des incongruités qui nous ont sauté aux yeux à la lecture du livre d’Himanen.

Ce que Pekka Himanen a nommé de manière ambitieuse « éthique hacker » – le seul fait de pousser l’ambition jusqu’à s’auto-décerner une éthique est en soi quelque chose d’assez suspect –, n’est rien d’autre que la sauce idéologique grâce à laquelle les hackers souhaitent donner un certain prestige à leur vie de néocréateurs, de néosavants voire de néoleaders spirituels. Si jamais ces gens-là réussissent à créer un véritable mouvement de masse, et à y tenir leur place, ils seront parvenus une fois de plus à démontrer l’inusable élasticité du système actuel, où l’ambition technique collective n’entre pas nécessairement en conflit avec l’ambition économique privée, les deux s’accordant bien pour diffuser la propagande en faveur du progrès et de ses réseaux technologiques aux quatre coins de la planète. C’est un fait avéré que, dans les années 1980, 1990, se sont développées des technologies qui ont débordé du cadre traditionnel de leur appropriation capitaliste. Dans la société totale des réseaux planétaires, les technologies de l’information passent par-dessus le contrôle des entreprises privées, et l’impératif technique s’est à ce point emparé de la société qu’il requiert à présent la collaboration de tous et de chacun : pour être en mesure de maintenir le contrôle sur tout ce qui se sait, il faut bien que chacun soit informé un minimum de tout ce qui a trait à l’exercice du contrôle. C’est ainsi que la « société en réseau » est devenue un sujet d’orgueil démocratique pour les nouvelles masses, satisfaites de leur collaboration à l’informatisation des peuples et des nations. Littéralement, tout le monde participe, tout le monde y arrive, personne ne reste à la traîne. Les envahis sont les envahisseurs.

La société en réseau est l’exemple le plus évident de la façon dont la société occidentale parachève l’extension planétaire de son mode de vie. D’un côté, la guerre économique et la violence du marché, de l’autre, la propagande d’un monde interconnecté dont tout le monde peut faire usage au même titre. Et, au beau milieu, une mythologie futuriste fondée sur le jeu et le délire collectif qui font entrer en scène les Ulysse de la nouvelle odyssée informatique, ces hackers qui se présentent comme l’élite aventurière des générations futures.

Quand Himanen critique les éthiques chrétiennes et protestantes du travail, il pose les premières pierres de son analyse fragmentaire. Son intention est de présenter le travail du hacker comme une activité fondée sur la créativité et le jeu passionné (bien supérieure aux activés productives de survie ou aux liens sociaux typiques du travail). D’après lui, l’activité du hacker est un jeu, au sens noble du terme. Pour Himanen, le hacker s’est affranchi de tout ce qui relève de la survie, un chapitre vulgaire de sa vie qu’il doit traverser le plus rapidement possible. Ce présupposé admis, il va de soi que tout ce qui adviendra par la suite sera totalement gratuit, puisque, en somme, l’éthique hacker se doit de considérer comme naturellement constitué le monde matériel qui l’entoure. La vie du hacker commence à ce moment précis : il existe une société à l’état brut qui, pour des raisons qui restent mystérieuses, garantit la survie et le fonctionnement des échanges économiques, simples bagatelles auxquelles le hacker, essentiellement absorbé par les échanges symboliques et scientifiques, n’a aucune de ses précieuses minutes à consacrer.

Par ailleurs, le hacker mène son activité librement et inconditionnellement. Sorte de mélange entre le bohémien du XIXe siècle et le penseur oisif de l’Athènes classique, il a besoin de liberté d’action et de temps libre pour s’organiser à son aise.

Himanen écrit :

Un autre élément important dans la façon particulière des hackers d’aborder le travail est leur relation au temps. Linux, Internet et l’ordinateur personnel n’ont pas été conçus pendant les heures de bureau. Quand Torvalds a écrit ses premières versions de Linux, il travaillait tard dans la nuit et se levait en début d’après-midi pour poursuivre sa tâche. Parfois, il abandonnait son code pour jouer avec son ordinateur ou pour faire complètement autre chose. Ce rapport libre au temps est depuis toujours un élément caractéristique des hackers qui apprécient un rythme de vie à leur mesure (p. 37).

Une déclaration spécialement irritante, qui fait irrésistiblement penser à ce que disent les étudiants boursiers récemment débarqués sur les campus lorsqu’ils se targuent de prendre du bon temps tout en se gaussant de la vie bêtement routinière du monde des employés. De telles attitudes sont le propre d’individus chéris de la société, jouissant du privilège de rayonner dans tous les sens et considérant leurs concitoyens comme des bêtes curieuses condamnées à faire des allers et retours dans leur cage. Mais il y a plus. En digne représentant qu’il est de notre époque artificielle, Himanen va jusqu’à négliger les limites du monde naturel où, jusqu’à nouvel ordre, l’activité humaine doit s’inscrire, ne serait-ce que parce qu’elle reste tributaire d’une contrainte énergétique et pratique incontournable : la lumière du jour. Par où l’on voit que le travail des hackers est à ce point séparé du monde de la production, dont ils ne laissent pourtant pas de dépendre pour le moindre de leur geste, qu’ils ont oublié jusqu’à l’existence d’une nature avec ses rythmes à respecter, parce que c’est sur eux que se fonde l’activité des sociétés humaines. Ces vérités de toujours, croulant sous le fardeau de décennies de technicisation, finiront bien par éclater un jour, quand bien même il sera alors trop tard.

Par-delà sa défense et son illustration du mode de vie hacker en tant que style personnel caractérisé par le rejet des éthiques chrétiennes et protestantes, Himanen présente, dirons-nous, trois autres piliers du hackerisme : un modèle de connaissance, un modèle de communication et un modèle de société responsable.

En ce qui concerne le premier, Himanen voit d’un bon oeil la « société en réseau » ou « académie en réseau » en forme de gigantesque communauté scientifique accouchant de nouveaux paradigmes de la connaissance dans une ambiance coopérative et antihiérarchique, l’élève n’étant plus un simple récepteur des savoirs mais un sujet actif impliqué dans leur création. Au passage, Himanen commet l’erreur grossière d’attribuer à la technologie une qualité qui lui est absolument étrangère, celle d’avoir des effets bénéfiques sur la diffusion et le développement des connaissances, alors que l’inverse est notoire : l’augmentation des moyens technologiques s’est en réalité traduite par une chute abyssale du niveau des connaissances, mais aussi par un recul dans leur appropriation réelle et par l’apparition dans la société de pans entiers de gens devenus incapables d’acquérir par eux-mêmes un savoir autonome. La confiance placée dans le progrès technique a été une des causes d’effritement majeure de la confiance en soi et de l’autonomie intellectuelle, et la pensée de ceux qui pensent encore a perdu en vivacité et en capacité de se remettre en question (l’opuscule d’Himanen en est une preuve). On peut toujours parler, effectivement, de développement fantastique du savoir scientifique, de cohésion sans précédent entre les différentes sphères de la connaissance, mais aucun de ceux qui tiennent ce discours ne parlera de ce qu’il y a derrière – ou devant, c’est selon – toutes ces merveilles : l’appui du pouvoir industriel et financier et le profit qu’il en tire. Et tandis que la science se corrompt en se mettant au service de l’exploitation généralisée, tandis que les thèses universitaires, les articles et les communications scientifiques s’entassent dans les banques de données, il devient impossible de trouver au sein de cette masse gigantesque de savoirs et d’opinions la moindre parcelle d’indépendance intellectuelle. Cela, Himanen semble l’ignorer.

Selon lui :

II va sans dire que l’académie était très influente bien avant les hackers du monde informatique. Par exemple, depuis le XIXe siècle chaque technologie industrielle (électricité, téléphone, télévision, etc.) aurait été impensable sans le soutien des théories scientifiques (p. 8l)

Un exemple parfait des tours de passe-passe intellectuels dont notre époque regorge ! Comment ne pas voir que ce qu’Himanen appelle « théorie scientifique » ne s’était pas encore, à cette époque comme c’est le cas aujourd’hui, tout entière mise à la remorque des applications technologiques et industrielles qui lui imposaient leur rythme et leurs demandes ?

Himanen ajoute :

La dernière révolution industrielle a déjà marqué une transition vers une société qui dépend beaucoup des résultats scientifiques. Les hackers rappellent qu’à l’ère de l’information, c’est le modèle académique ouvert qui permet la création de ces résultats plus que les travaux scientifiques individuels.

Cela signifie tout simplement, que loin de se traduire par une montée en puissance du savoir indépendant, cette université ouverte a au contraire apporté dans son sillage la servitude aujourd’hui omniprésente sur tous les campus, dans tous les laboratoires, les bureaux, les colloques et revues scientifiques de la planète. L’« Académie en réseau » d’Himanen est une tour de Babel où tout le monde est tenu de parler la même langue, où tout le monde est d’accord avec tout le monde et où personne ne peut conquérir un espace qui lui soit propre – ce que nombre de chercheurs lucides seraient prêts à reconnaître si leurs voix trouvaient des occasions de se faire entendre au milieu du vacarme des autoroutes de l’information.

Dès l’instant où nous posons la question de la valeur d’usage pour la société du savoir produit sur le réseau, nous devons saisir à la racine le modèle du savoir hacker comme construction collective, et nous demander quelle place il peut bien occuper dans une société qui s’active en vue de son émancipation. Il ne suffit pas, loin de là, de libérer l’information si on ne livre pas simultanément à un examen radical le contenu et les fins de cette information ; l’utopie hacker pourrait bien être en train de faire miroiter un monde merveilleux d’échanges immatériels sur fond d’une société ravagée par l’exploitation et les catastrophes environnementales (ce qui est le cas).

Les arguments auxquels recourt Himanen pour défendre l’usage émancipateur et collectif du réseau touchent des sommets dans l’art de la tergiversation quand il aborde la question du modèle de communication dans une société ouverte. C’est là qu’Himanen ébauche en quelques lignes le synopsis du totalitarisme technologique du monde libre dans son irrésistible marche vers le progrès. Sa pensée peut être ainsi résumée :

  1. La société en réseau est une forme techniquement évoluée de la société ouverte et libérale née il y a plus de deux siècles. C’est dire que la société en réseau intègre les valeurs de défense des droits de l’individu et de ses libertés civiles, pour leur fournir des moyens toujours plus perfectionnés grâce auxquels elles puissent se répandre et se développer.
  2. La preuve la plus récente de l’accroissement des possibilités techniques du processus de civilisation est le rôle joué par les technologies de l’information lors du conflit yougoslave de 1999.

Voici ce qu’Himanen écrit à ce sujet :

Pendant les attaques aériennes de l’Otan destinées à mettre fin aux massacres (c’est nous qui soulignons), les médias traditionnels étaient pratiquement aux mains du gouvernement (p. 109).

À travers l’organisme Witness, qui dénonçait la violence et les agressions, la technologie a servi de relais pour révéler le massacre au grand jour et désobstruer les canaux de la vérité.

Vers la fin du conflit, l’organisation Witness a formé quatre Kosovars pour qu’ils collectent sur support numérique les preuves visuelles de violation des droits de l’homme. Le matériel était ensuite transmis hors du pays via Internet grâce à un ordinateur portable et un téléphone satellite. Ces éléments ont été remis au Tribunal pénal international (p. 99).

Derrière ces paroles on perçoit la silhouette des héros médaillés de la fin de l’histoire. Dans le monde libre où les hackers prennent leurs aises, la vérité est un facteur qui dépend de l’intervention sur les canaux d’information. Et la vérité suffit à elle seule à démasquer le mal. Pour Himanen, la technologie est le seul moyen objectif d’obtenir la transparence pour une société qui ne tolère plus les tyrans cruels du style Milosevic.

Mais pour pouvoir accepter tout cela, il faut au préalable avoir accepté comme bonnes toutes les valeurs de la société de marché planétaire, de ses stratégies de conquête et d’évacuation de zones habitées. Il faut avoir abandonné toute velléité de résistance aux mensonges des groupes tout-puissants qui gèrent la paix, l’ordre et la pauvreté en suivant les caprices de l’économie politique moderne. Il faut avoir déchargé les masses en Occident de toutes leurs responsabilités et compter sur leur acceptation passive d’un mode de vie destructeur. Croire dans ces conditions que la technologie peut être mise au service d’une fin bénéfique signifie qu’on prend pour argent comptant la farce humanitaire qui sert de vitrine aux systèmes en charge de la servitude contemporaine, et les mensonges de leurs leaders élus.

Au fond, cela n’a rien de surprenant venant de la doctrine hacker. Chaque fois qu’il met l’accent sur la confidentialité, sur l’information et la vie privée, Himanen nous donne une preuve de ses origines bourgeoises. Tout cela, ce sont des valeurs qui appartiennent à la société libérale, qui toutes virent le jour pour former le socle de l’économie d’entreprise en cours de formation.

La défense de la vie privée, qui obsède Himanen, est le cheval de bataille des hackers, qui sont cependant très attentifs à maintenir la séparation artificielle d’origine bourgeoise entre la sphère publique et la sphère privée. Les fanatiques de la démocratie formelle sont tout prêts à brandir l’anathème du goulag à la seconde même où la discussion s’aventure sur ce terrain. Comme on le sait, la construction de l’enceinte privée a été la pierre de touche de l’idéologie forgée par la bourgeoisie pour légitimer le nouveau pillage fondé sur l’individualisme et la concurrence effrénée. Ce qui était en jeu, c’était la fameuse liberté négative, socle du droit libéral, autrement dit la liberté de ne pas être dérangé dans ses propres affaires. Jamais maffia ne trouva meilleur moyen de protéger ses affaires, à un moment où elle s’était ostensiblement rendue maîtresse de la quasi-totalité des richesses. Les phraséologies parlementaire, journalistique, légaliste, civique, etc., ont servi aux couches socioprofessionnelles compromises avec cette maffia à rendre crédible la farce d’une société unie. La leçon n’a pas été perdue pour Himanen, qui, en bon progressiste qu’il est, transpose cette phraséologie à la défense des droits individuels et au droit à une information véridique.

Si la doctrine hacker et son combat contre l’ingérence de l’État et des entreprises dans la sphère privée ont pu être assimilés aux pratiques de contre-information si prisées des milieux gauchistes, c’est justement parce que ces derniers en sont graduellement venus à adopter une position purement réactive face au monde de l’information monopolisé par les grandes agences et les grands groupes d’intérêts. La leçon à tirer de tout cela est qu’il faut tenir ferme sur la critique unitaire de ce que produit le monde de la marchandise, seule manière d’éviter la fétichisation galopante des droits formels qui encadrent l’assignation permanente de l’individu dans le monde marchand[2].

Le discours d’Himanen sur la technologie et la guerre ne va pas sans l’acceptation d’un monde chosifié par les techniques et par l’économie politique. Dès l’instant où il sépare le monde de la production à la fois de ses conséquences sur les modes de vie et de l’idéologie technique qui réclame toujours plus de moyens pour renforcer son autarcie, il est normal qu’il fasse preuve de partialité dans son analyse des moyens techniques : voyant en eux des instruments qui peuvent servir à faire tomber les tyrans, il méconnaît qu’ils sont en fait la forme achevée sous laquelle chaque tyrannie économique d’aujourd’hui a besoin de se montrer – en construisant de toutes pièces la vie dépendante de la marchandise hypostasiée.

Pour finir, l’utopie technolibérale d’Himanen verse fatalement dans l’humanitarisme assistanciel. C’est ce que lui-même nomme sans vergogne « la préoccupation responsable ». Se référant à quelques hackers assez connus, il montre qu’ils sont tous au top niveau de l’engagement social :

Par exemple, Mitch Kapor soutient un programme global de protection de l’environnement et de la santé destiné à régler les problèmes sanitaires engendrés par les activités des entreprises. Sandy Lerner, qui a quitté Cisco Systems en compagnie de Léo Bosach avec 170 millions de dollars en actions, a utilisé cet argent pour créer une fondation consacrée à la lutte contre les mauvais traitements infligés aux animaux (p. 132).

Une philanthropie informatique qui mérite sûrement d’être vantée ! Les idées d’Himanen sur la communauté et la solidarité font bien voir quel bonimenteur il est :

Par exemple, je peux annoncer sur le Net les moments de la semaine où je peux donner un coup de main à une personne âgée pour ses tâches domestiques ; je peux annoncer que je mets ma maison à disposition des enfants pour qu’ils puissent venir y jouer après l’école ; je peux dire que je serais enchanté de promener un des chiens du voisinage le week-end. L’efficacité de ce modèle pourrait sans doute être renforcée en lui ajoutant la condition que la personne aidée s’engage à son tour à aider quelqu’un d’autre. Internet peut être utilisé comme un moyen d’organiser des ressources locales. Graduellement, d’autres apporteront leur contribution à la production de grandes idées sociales, et cela en engendrera de plus grandes encore. Il y aurait un effet d’autoalimentation, comme cela se passe avec le modèle hacker au niveau informatique (p. 87).

Ce « modèle social » est l’ébauche parfaite d’une société totalitaire peuplée de voisins aimables et de tondeuses à gazon, tous connectés à Internet pour s’échanger perpétuellement de menus services, pendant que les mégamachines militaires de leurs États, manipulées par les grands groupes industriels, se chargent du pillage de la planète et de ses habitants.

On entend souvent dire que les hackers ont introduit une nouvelle forme de communauté, où les savoirs et les outils sont partagés dans un esprit de coopération entièrement désintéressé.

De notre point de vue, les hackers sont les enfants d’un monde totalement réifié par la technologie et la marchandise, d’un monde qui a fermé toutes les issues aux manières traditionnelles de produire ses moyens de survie. Ce qu’on appelle le web est de ce point de vue la plus fabuleuse des mégamachines jamais rêvée, dans la mesure exacte où il se présente comme une structure intellectuelle superposée au vieux et difficile monde de la production matérielle – déjà si lointain aux yeux des générations actuelles. En outre, le réseau se nourrit de la contribution intelligente de millions d’individus à son perfectionnement, à la différence des anciennes mégamachines dont la conception était le domaine réservé des élites. Le réseau est le point d’aboutissement de deux cents ans de modernisation : c’est le phantasme hyperindustriel des catégories socioprofessionnelles totalement séparées de leurs moyens de production, urbanisées, consommatrices et se consacrant à la gestion de la culture aujourd’hui nécessaire au maintien de la domination. La sphère tout entière de l’économie de production et d’élimination des déchets est masquée par cette fantastique mégamachine qui semble flotter dans le vide et qui a toutes les apparences d’une excroissance intellectuelle et passionnelle à l’état pur.

La critique fugace qu’Himanen fait de la survie rend à elle seule manifeste le peu de consistance du mode de vie proposé par les hackers : l’esprit ludique, altruiste et de coopération est une guigne dont ne se fichent pourtant pas les minorités privilégiées de « l’ère de l’accès ». Au milieu de tout cela… Qui ou quoi assure le fonctionnement du système ?

La croissance de l’idéologie informationaliste va de pair avec le développement à toutva de la société capitaliste industrielle, dont la base matérielle est assurée par la production technicisée de marchandises, par la destruction des économies locales et par une intensification de la prolétarisation de populations entières et de leur environnement. Au bout du compte, l’idéologie informationaliste est le propre d’une caste privilégiée qui veut croire que les limites de la production pour la survie ont été surmontées, et tous les problèmes qu’elle posait avec, sans voir que le prix à payer a été un retour de la planète entière en deçà des limites de la survie. Une chose est sûre : le programme économique libéral, adossé au développement des marchés soutenus par les valeurs informatiques et par leur commercialisation, ne rencontrera pas d’obstacles insurmontables du côté des techniciens de la veine d’Himanen, qui rêvent d’un réseau humanitaire de services et de bonnes oeuvres.

Le combat mené de nos jours au sein du réseau informatique pour maintenir une « coopération volontaire » est emblématique de la résignation du plus grand nombre face à une société entièrement soumise aux ordres de la technologie capitaliste. Voilà pourquoi les entreprises n’ont plus qu’à laisser faire cette coopération collective spontanée et à en tirer tout le profit qu’elles peuvent, soit, comme elles le font déjà, en la capitalisant en partie, soit tout simplement en la laissant se développer, certaines qu’elles sont que chaque création technique finit tôt ou tard par contribuer à la croissance des besoins techniques du système. À l’intérieur du réseau, le seul progrès est l’accroissement de la dépendance envers la société en réseau, que seul un faible d’esprit pourrait identifier avec la totalité sociale et ses besoins.

Le cas du gourou du logiciel libre, Richard Stallman, en dit long sur le cercle vicieux dans lequel s’est enfermée l’économie en réseau (net economy), qui revendique pour le réseau une liberté antimonopolistique et anti-accapareurs au nom d’un monde où seule la marchandise a voix au chapitre, et où jamais la maintenance des supports techniques du système n’est remise en question[3]. Le libre accès aux codes sources, la possibilité d’utiliser et de modifier les programmes sans avoir à se soucier des droits d’auteur, la défense d’une conception libre et collective des logiciels, les échanges désintéressés de savoirs et d’outils, toutes ces émouvantes revendications reflètent le drame collectif d’une génération coincée entre son intelligence pragmatique et ses illusions technologiques, les seules qu’elle a reçues en guise de transmission effective.

L’obsession qu’ont les hackers de supprimer les droits d’auteurs et de propriété sur les programmes, les livres, les oeuvres d’art, etc. est typique de l’obsession productiviste de tous ceux qui sont disposés à cohabiter pour toujours avec l’inflation des informations médiatiques et des savoirs séparés. Les hackers ont peut-être trouvé très subversif d’attaquer la notion d’auteur, mais ils auraient mieux fait de s’interroger en priorité sur le sens et la valeur d’usage des créations d’auteurs, et sur leurs finalités sociales. On ne nous fera pas croire que les logiciels sont de simples intermédiaires entre l’intelligence collective et ses réalisations pratiques. Le software est devenu en lui-même un médium, qui se reproduit à l’infini sans que personne ne se pose plus la question de la nature et de la finalité du médium technique qu’il implique[4].

Étant donné qu’elle n’a cure ni des besoins sociaux et de leur nature exacte, ni de la question de la division du travail et du caractère totalitaire de la technologie en régime capitaliste[5], l’« éthique hacker » ne peut être qu’une éthique du nouvel esprit parasitaire qui s’accroche au monde pour profiter au maximum de l’instant présent, gaspiller toujours plus d’énergie, et bousiller un nombre toujours plus grand de populations et leurs territoires. Par sa méconnaissance totale, au niveau pratique et quotidien, des rudiments de la survie collective, le hacker se transforme en une sorte d’indolent hyperactif. Par leur méconnaissance des problèmes techniques et du pillage de tout ce qui fait vivre la planète, les hackers se révèlent à nous pour ce qu’ils sont : des fanatiques de l’artificialisation dont le projet n’ajoute qu’un maillon de plus à la chaîne des irresponsabilités qui pèse sur la société humaine de tout son poids destructeur.

Pour toutes ces raisons, l’assimilation fréquemment faite entre, d’une part, les luttes contre les droits d’auteur dans le monde du software, et, d’autre part, les luttes contre les brevets sur les semences et sur les organismes vivants en général, ne peut que résulter d’une confusion volontairement entretenue. Les premières cherchent à se mettre à l’abri sous le voile de dignité des secondes[6]. Dans le premier cas, nous avons affaire à une exigence qui se félicite de l’irréversibilité d’un monde technicisé avec lequel il convient même de collaborer, y compris de façon altruiste et désintéressée, tant que la survie dorée de ces collaborateurs – les hackers – peut être assurée par l’existence des structures techniques antisociales et par la circulation sans encombre des marchandises. Dans le second cas, nous avons affaire à un combat contre la technicisation forcée, les privilèges, le monde de la marchandise, la collaboration avec le pouvoir, et qui prône un retour à des schémas traditionnels d’exploitation de la nature dans un cadre collectif. Dans le premier cas, nous avons affaire à la communauté en réseau jaillie du terreau à jamais incritiqué de l’« abondance empoisonnée » de la société du capital ; dans le second cas, au projet d’une communauté dont tous les membres partagent la responsabilité d’une production à échelle humaine et qui se refuse à tirer des chèques en blanc sur l’avenir d’une technique dont les effets s’annoncent si dévastateurs que personne ne pourra en assumer le coût. Dans le premier cas, nous avons des gens hyperadaptés aux formes modernes de séparation ; dans le second des gens qui défendent avec obstination les ultimes vestiges d’un monde faisant place à des formes autonomes de production. Seule une passion immodérée pour la confusion peut conduire à mettre sur un même plan deux combats aussi radicalement opposés dans leurs motivations fondamentales[7].

Aucune éthique du travail libéré grâce aux machines ne peut déboucher sur un combat en faveur d’une activité humaine libérée des chaînes de la dévastation capitaliste. En croissant et en se multipliant allègrement dans l’atmosphère conditionnée de la société technicisée, les hackers ne peuvent que contribuer à la destruction de tout ce qui reste de réalité extérieure à cette société.

Extrait de : « Les amis de Ludd. Bulletin d’information anti-industriel », tome 2 (titre original : « Los amigos de Ludd. Boletín de información anti-industrial »), numéros cinq et six), publié en 2009 aux éditions La Lenteur (Paris), p. 61-76.

Notes

[1] Crédit photo : Genista (Creative Commons By-Sa)

[2] Milosz écrit très justement : « Ce que l’homme de l’Est dénomme “formalisme inerte de la bourgeoisie” est par ailleurs l’assurance pour un père de famille de retourner chez lui le soir pour dîner et de ne pas partir en voyage dans une région plus propice à accueillir les ours polaires que les êtres humains. » Mais l’objet de la critique est désormais le pouvoir totalitaire d’une modernisation qui est l’héritière aussi bien du socialisme scientifique que du capitalisme démocratique.

[3] Pour en apprendre davantage sur le point de vue réactionnaire de Stallman, on peut lire son détestable article « Qui surveille les surveillants ? » publié au début de l’année 2002 par le tabloïd aujourd’hui disparu Désobéissance globale.

[4] Voilà ce que peut donner une interview de Stallman à propos du Logiciel libre : « - Ce système ne risque-t-il pas selon vous de favoriser une croissance exponentielle des programmes informatiques ? C’est vrai ! C’est un effet collatéral d’importance négligeable comparée aux effets de la promotion de la liberté. »

[5] Le fait que les hackers et les gauchistes soient deux populations qui se recoupent en partie en dit long sur l’incapacité de ces derniers à analyser de manière rigoureuse la technologie.

[6] Cf. l’article de Stallman, « Biopirates ou biocorsaires ? » Archipiélago n°55, où il formule de nouveau cet amalgame pernicieux.

[7] Bien évidemment, il existe au sein des luttes contre les OGM et autres délices de l’industrie moderne des tendances qui profitent de l’occasion pour réaffirmer leur credo citoyenniste et réformiste, et mènent ces luttes à l’impasse à coups de petits calculs arrivistes. Mais cela n’entame pas les présupposés fondamentaux partagés par d’autres tendances, même s’ils sont affirmés de manière partielle.