Où est le bouton « J’aime pas » Facebook ?

ZuckRépondons sans attendre à la question du titre. Vous trouverez la version française du bouton « J’aime pas » Facebook, ci-dessous, sur le Framablog ! Explications…

Il aurait pu faire comme Le Monde et désigner Julian Assange mais non, le célèbre hebdomadaire américain Time Magazine a choisi le fondateur de Facebook Mark Zuckerberg comme Personnalité de l’année 2010.

Et cette décision est restée un peu en travers de la gorge de la Free Software Foundation, qui du coup vous propose une contre-offensive en détournant ce pernicieux espion traceur que représente le bouton Facebook « J’aime », qui pullule déjà sur d’aussi naïfs que nombreux sites.

Bouton que notre ami Poupoul2 s’est fait un plaisir d’adapter à notre langue et que vous trouverez en pièce-jointe (au format .SVG) à la fin de la traduction du billet de la FSF expliquant et justifiant cette action.

À partager et diffuser sans modération si affinités dans la démarche.

J'aime pas Facebook

Mark Zuckerberg, personnalité de l’année selon TIME Magazine ? Où est le bouton « J’aime pas » ?

Mark Zuckerberg is TIME Magazine’s Person of the Year? Where’s the “dislike” button?

Matt Lee et John Sullivan – 4 janvier 2011 – FSF.org
(Traduction Framalang : Julien et Antistress)

TIME Magazine fait l’éloge de Mark Zuckenberg pour avoir créé un système qui a interconnecté les gens du monde entier.

Malheureusement, les conditions sous lesquelles il prétend avoir réalisé cela a créé un épouvantable précédent pour notre avenir — s’agissant de la maîtrise des logiciels que nous utilisons pour interagir avec les autres, du contrôle de nos données et de notre vie privée. Les dégâts ne sont pas limités aux utilisateurs de Facebook. Parce que tant de sites — y Compris TIME — utilisent le bouton Facebook « J’aime » de traçage des internautes, Zuckerberg, est capable de collecter des informations sur des personnes qui ne sont même pas utilisatrices de son site. Ce sont des précédents qui entravent notre capacité à nous connecter librement les uns aux autres. Il a créé un réseau qui est avant tout une mine d’or pour la surveillance gouvernementale et les annonceurs publicitaires.

Tout cela est bien connu s’agissant du comportement du site Facebook lui-même et de ses relations avec l’extérieur — mais les choses pourraient s’avérer en fait bien pires. Les utilisateurs de Facebook ne se connectent pas directement entre eux. Ils parlent à M. Zuckenberg qui commence par enregistrer et stocker tout ce qui est dit, et, alors seulement, le transmet éventuellement à l’utilisateur destinataire, si ce qui est dit lui convient. Dans certains cas, il ne le fait pas — comme en sont témoins les récents comptes-rendus montrant que le service de messagerie de Facebook bloque des messages en se basant sur les mots et liens qu’ils contiennent, parce que ces liens pointent vers des services que Facebook préférerait que l’on évite de mentionner.

Heureusement, il y a de nombreux efforts en cours pour fournir des services distribués, contrôlés par l’utilisateur, permettant de faciliter la mise en relation entre les gens, dont GNU social, status.net, Crabgrass, Appleseed et Diaspora. Ces services n’auront pas les mêmes types de problèmes parce qu’à la fois le code permettant le fonctionnement du réseau et les données échangées seront entre les mains des gens qui communiquent.

Ces efforts finiront par être couronnés de succès. Nous espérons que, lorsque ce sera le cas, TIME réparera son erreur d’appréciation en décernant le titre de la Personnalité de l’année avec plus de discernement.

Not Facebooked Me - FSF

Copiez et collez ce code dans votre propre site :

<a href="http://www.fsf.org/fb"><img src="http://static.fsf.org/nosvn/no-facebook-me.png" alt="Not f'd — you won't find me on Facebook" /></a>

En attendant, vous pouvez encourager les gens à ne pas se connecter à Zuckenberg lorsqu’ils croient qu’ils se mettent en rapport avec vous, en plaçant ce bouton sur votre blogue ou site web, avec un lien vers la méthode que vous préférez qu’ils utilisent pour vous contacter directement — peut-être votre compte sur identi.ca ou tout autre serveur status.net.

Sinon, vous pouvez faire pointer un lien vers ce billet ou tout autre article qui souligne les problèmes avec Facebook, tel que « Des amis tels que ceux-ci… » (NdT : dont il existe une traduction en français) de Tom Hodgkinson, ou les ressources disponibles sur http://autonomo.us — en particulier la « Déclaration sur la Liberté et les Services Réseaux de Franklin Street » (NdT : nommée d’après l’adresse des bureaux de la FSF à Boston).

Notre bouton n’est évidemment pas relié à une quelconque base de données de surveillance ou autre système de traçage.

Téléchargez notre bouton « J’aime pas » et ajoutez le à votre site web, ou imprimez vos propres autocollants.

Tous les boutons sont mis à disposition sous la licence Creative Commons Paternité – Partage des Conditions Initiales à l’Identique (CC BY SA).

Vous êtes libre de modifier les boutons, mais veuillez garder la mention des créateurs originaux intacte, et assurez-vous que vos boutons soient sous la même licence.

Vous ne me trouverez pas sur Facebook




Longue vie au Web, par Tim Berners-Lee

Neal Fowler - CC By « Sir » Tim Berners-Lee, le père du Web, a livré ce week-end au magazine Scientific American, une analyse complète lucide et accessible des menaces qui pèsent aujourd’hui sur ce curieux phénomène qui depuis vingt ans a changé la face du monde : Internet.

En termes simples, Berners-Lee revient sur l’universalité de ce réseau, qui n’a pu se développer que grâces à des conditions initiales propices :

  • Une technique simple et libre, donc bidouillable par chacun dans son coin;
  • Une conception décentralisée, permettant une croissance tous azimuts;
  • Le principe de neutralité du réseau, qui permet à tous de proposer du contenu.

Or, force est de constater que ces conditions, qui ont démarqué ce que nous appelons aujourd’hui « Internet » des autres tentatives de mise en réseau à grande échelle d’ordinateurs de par le monde, sont attaquées et mises en péril par de grandes entreprises, et, presque comme une conséquence par de nombreux gouvernements. [1]

À la lecture de ce texte, on peut également se rendre compte que la France est malheureusement en bonne position parmi les gouvernements les plus hostiles au réseau, et que la HADOPI, comme un pavé jeté dans la mare, éclabousse effectivement de honte le pays des droits de l’Homme face à ses voisins. Contrastant par exemple clairement avec le droit au haut débit pour tous mis en place par la Finlande et lui aussi mentionné par Berners-Lee.

Toutefois, la principale qualité de cette riche synthèse est son ton résolument grand public, qui a mobilisé l’équipe Framalang tout un week-end pour venir à bout de la traduction des 6 pages de l’article original en moins de 48h.

Longue vie au Web ! Un appel pour le maintien des standards ouverts et de la neutralité

Long Live the Web, A Call for Continued Open Standards and Neutrality

Tim Berners-Lee – lundi 22 novembre – ScientificAmerican.com
Traduction Framalang : Goofy, Pablo, Seb seb, Misc, Siltaar

Le Web est un enjeu crucial non seulement pour la révolution numérique mais aussi pour notre prospérité — et même pour notre liberté. Comme la démocratie elle-même, il doit être défendu.

Le world wide web est venu au monde, concrètement, sur mon ordinateur de bureau à Genève en Suisse en décembre 1990. Il était composé d’un site Web et d’un navigateur, qui d’ailleurs se trouvaient sur la même machine. Ce dispositif très simple faisait la démonstration d’une idée fondamentale : n’importe qui pouvait partager des informations avec n’importe qui d’autre, n’importe où. Dans cet esprit, le Web s’est étendu rapidement à partir de ces fondations. Aujourd’hui, à son 20ème anniversaire, le Web est intimement mêlé à notre vie de tous les jours. Nous considérons qu’il va de soi, nous nous attendons à ce qu’il soit disponible à chaque instant, comme l’électricité.

Le Web est devenu un outil puissant et omniprésent parce qu’il a été conçu suivant des principes égalitaires et parce que des milliers d’individus, d’universités et d’entreprises ont travaillé, à la fois indépendamment et ensemble en tant que membres du World Wide Web Consortium, pour étendre ses possibilités en se fondant sur ces principes.

Le Web tel que nous le connaissons, cependant, est menacé de diverses façons. Certains de ses plus fameux locataires ont commencé à rogner sur ses principes. D’énormes sites de réseaux sociaux retiennent captives les informations postées par leurs utilisateurs, à l’écart du reste du Web. Les fournisseurs d’accés à Internet sans fil sont tentés de ralentir le trafic des sites avec lesquels ils n’ont pas d’accords commerciaux. Les gouvernements — qu’ils soient totalitaires ou démocratiques — surveillent les habitudes en ligne des citoyens, mettant en danger d’importants droits de l’Homme.

Si nous, les utilisateurs du Web, nous permettons à ces tendances et à d’autres encore de se développer sans les contrôler, le Web pourrait bien se retrouver fragmenté en archipel. Nous pourrions perdre la liberté de nous connecter aux sites Web de notre choix. Les effets néfastes pourraient s’étendre aux smartphones et aux tablettes, qui sont aussi des portails vers les nombreuses informations fournies par le Web.

Pourquoi est-ce votre affaire ? Parce que le Web est à vous. C’est une ressource publique dont vous, vos affaires, votre communauté et votre gouvernement dépendent. Le Web est également vital pour la démocratie, en tant que canal de communication qui rend possible une conversation globale permanente. Le Web est désormais plus crucial pour la liberté d’expression que tout autre média. Il transpose à l’âge numérique les principes établis dans la constitution des États-Unis, dans la Magna Carta britannique et d’autres textes fondateurs : la liberté de ne pas être surveillée, filtrée, censurée ni déconnectée.

Pourtant les gens semblent penser que le Web est en quelque sorte un élément naturel, et que s’il commence à dépérir, eh bien, c’est une de ces choses malheureuses contre lesquelles on ne peut rien faire. Or il n’en est rien. Nous créons le Web, en concevant les protocoles pour les ordinateurs et les logiciels. Ce processus est entièrement entre nos mains. C’est nous qui choisissons quelles caractéristiques nous voulons qu’il ait ou non. Il n’est absolument pas achevé (et certainement pas mort). Si nous voulons contrôler ce que fait le gouvernement, ce que font les entreprises, comprendre dans quel état exact se trouve la planète, trouver un traitement à la maladie d’Alzheimer, sans parler de partager nos photos avec nos amis, nous le public, la communauté scientifique et la presse, nous devons nous assurer que les principes du Web demeurent intacts — pas seulement pour préserver ce que nous avons acquis mais aussi pour tirer profit des grandes avancées qui sont encore à venir.

L’universalité est le principe fondateur

Il existe des principes-clés pour s’assurer que le Web devienne toujours plus précieux. Le premier principe de conception qui sous-tend l’utilité du Web et son développement, c’est l’universalité. Lorsque vous créez un lien, vous pouvez le diriger vers n’importe quoi. Cela signifie que chacun doit être capable de mettre tout ce qu’il veut sur le Web, quel que soit l’ordinateur, le logiciel utilisé ou la langue parlée, peu importe qu’on ait une connexion avec ou sans wifi. Le Web devrait être utilisable par des personnes handicapées. Il doit fonctionner avec n’importe quelle information, que ce soit un document ou un fragment de données, quelle que soit la qualité de l’information — du tweet crétin à la thèse universitaire. Et il devrait être accessible avec n’importe quel type de matériel connectable à Internet : ordinateur fixe ou appareil mobile, petit ou grand écran.

Ces caractéristiques peuvent paraître évidentes, allant de soi ou simplement sans importance, mais ce sont grâce à elles que vous pourrez voir apparaître sur le Web, sans aucune difficulté, le site du prochain film à succès ou la nouvelle page d’accueil de l’équipe locale de foot de votre gamin. L’universalité est une exigence gigantesque pour tout système.

La décentralisation est un autre principe important de conception. Vous n’avez nul besoin de l’approbation d’une quelconque autorité centrale pour ajouter une page ou faire un lien. Il vous suffit d’utiliser trois protocoles simples et standards : écrire une page en HTML (langage de balisage hypertextuel), de la nommer selon une norme d’URI (identifiant uniforme de ressource), et de la publier sur Internet en utilisant le protocole HTTP (protocole de transfert hypertexte). La décentralisation a rendu possible l’innovation à grande échelle et continuera de le faire à l’avenir.

L’URI est la clé de l’universalité (à l’origine j’ai appelé le procédé de nommage URI, Universal Resource Identifier – Identifiant Universel de Ressource ; par la suite il est devenu URL, Uniform Resource Locator – Localisateur Uniforme de Ressource). L’URI vous permet de suivre n’importe quel lien, indépendamment du contenu vers lequel il pointe ou de qui publie ce contenu. Les liens transforment le contenu du Web en quelque chose de plus grande valeur : un espace d’information inter-connecté.

Plusieurs menaces à l’encontre de l’universalité du Web sont apparues récemment. Les compagnies de télévision par câble qui vendent l’accès à Internet se demandent s’il faut pour leurs clients limiter le téléchargement à leurs seuls contenus de divertissement. Les sites de réseaux sociaux présentent un problème différent. Facebook, LinkedIn, Friendster et d’autres apportent essentiellement une valeur en s’emparant des informations quand vous les saisissez : votre date de naissance, votre adresse de courriel, vos centres d’intérêts, et les liens qui indiquent qui est ami avec qui et qui est sur quelle photo. Les sites rassemblent ces données éparses dans d’ingénieuses bases de données et réutilisent les informations pour fournir un service à valeur ajoutée — mais uniquement sur leurs sites. Une fois que vous avez saisi vos données sur un de ces services, vous ne pouvez pas facilement les utiliser sur un autre site. Chaque site est un silo, séparé des autres par une cloison hermétique. Oui, vos pages sur ces sites sont sur le Web, mais vos données n’y sont pas. Vous pouvez accéder à une page Web contenant une liste de gens que vous avez rassemblée au même endroit, mais vous ne pouvez pas envoyer tout ou partie de cette liste vers un autre site.

Cette compartimentation se produit parce que chaque élément d’information est dépourvu d’URI. L’interconnexion des données existe uniquement à l’intérieur d’un même site. Ce qui signifie que plus vous entrez de données, et plus vous vous enfermez dans une impasse. Votre site de réseau social devient une plateforme centrale — un silo de données fermé, qui ne vous donne pas le plein contrôle sur les informations qu’il contient. Plus ce genre d’architecture se répand, plus le Web se fragmente, et moins nous profitons d’un unique espace d’information universel.

Un effet pervers possible est qu’un site de réseau social — ou un moteur de recherche, ou un navigateur — prenne une telle ampleur qu’il devienne hégémonique, ce qui a tendance à limiter l’innovation. Comme cela s’est produit plusieurs fois depuis les débuts du Web, l’innovation permanente du plus grand nombre peut être la meilleure réponse pour contrer une entreprise ou un gouvernement quelconque qui voudrait saper le principe d’universalité. GnuSocial et Diaspora sont des projets sur le Web qui permettront à chacun de créer son propre réseau social sur son propre serveur, et de se connecter à d’autres sur leur site. Le projet Status.net, qui fait tourner des sites comme Identi.ca, vous permet de monter votre propre réseau de micro-blogage à la manière de Twitter mais sans la centralisation induite par Twitter.

Les standards ouverts sont le moteur de l’innovation

Permettre à chaque site d’être lié à n’importe quel autre est nécessaire mais pas suffisant pour que le Web ait une armature solide. Les technologies de base du Web, dont les particuliers et les entreprises ont besoin pour développer des services avancés, doivent être gratuites et sans redevance. Amazon.com, par exemple, est devenu une gigantesque librairie en ligne, puis un disquaire, puis un immense entrepôt de toutes sortes de produits, parce que l’entreprise avait un accès libre et gratuit aux standards techniques qui sous-tendent le Web. Amazon, comme tout usager du Web, a pu utiliser le HTML, l’URI et le HTTP sans avoir à en demander l’autorisation à quiconque et sans avoir à payer pour cela. La firme a pu également bénéficier des améliorations de ces standards développées par le World Wide Web Consortium, qui permettent aux clients de remplir un bon de commande virtuel, de payer en ligne, d’évaluer les marchandises achetées et ainsi de suite.

Par « standards ouverts » je veux dire des standards à l’élaboration desquels peuvent participer tous les spécialistes, pourvu que leur contribution soit largement reconnue et validée comme acceptable, qu’elle soit librement disponible sur le Web et qu’elle soit gratuite (sans droits à payer) pour les développeurs et les utilisateurs. Des standards ouverts, libres de droits et faciles à utiliser génèrent l’extraordinaire diversité des sites Web, depuis les grands noms tels qu’Amazon, Craigslist et Wikipédia jusqu’aux blogs obscurs maintenus par des passionnés, en passant par les vidéos bricolées à la maison et postées par des ados.

La transparence signifie aussi que vous pouvez créer votre site Web ou votre entreprise sans l’accord de qui que ce soit. Au début du Web, je ne devais pas demander de permission ni payer de droits d’auteur pour utiliser les standards ouverts propres à Internet, tels que le célèbre protocole de contrôle de transmission (TCP) et le protocole Internet (IP). De même, la politique de brevets libres de droits du W3C (World Wide Web Consortium) dit que les entreprises, les universités et les individus qui contribuent au développement d’un standard doivent convenir qu’ils ne feront pas payer de droits d’auteur aux personnes qui pourraient l’utiliser.

Les standards libres de droits et ouverts ne signifient pas qu’une entreprise ou un individu ne peut pas concevoir un blog ou un programme de partage de photos et vous faire payer son utilisation. Ils le peuvent. Et vous pourriez avoir envie de payer pour ça, si vous pensez que c’est « mieux » que le reste. L’important est que les standards ouverts permettent un grand nombre d’options, gratuites ou non.

En effet, de nombreuses entreprises dépensent de l’argent pour mettre au point des applications extraordinaires précisément parce qu’elles sont sûres que ces applications vont fonctionner pour tout le monde, sans considération pour le matériel, le système d’exploitation ou le fournisseur d’accés internet (FAI) que les gens utilisent — tout ceci est rendu possible par les standards ouverts du Web. La même confiance encourage les scientifiques à passer des centaines d’heures à créer des bases de données incroyables sur lesquelles ils pourront partager des informations sur, par exemple, des protéines en vue de mettre au point des remèdes contre certaines maladies. Cette confiance encourage les gouvernements des USA ou du Royaume-Uni à mettre de plus en plus de données sur le réseau pour que les citoyens puissent les inspecter, rendant le gouvernement de plus en plus transparent. Les standards ouverts favorisent les découvertes fortuites : quelqu’un peut les utiliser d’une façon que personne n’a imaginée avant. Nous le voyons tous les jours sur le Web.

Au contraire, ne pas utiliser les standards ouverts crée des univers fermés. Par exemple, le systéme iTunes d’Apple identifie les chansons et les vidéos par des URI que l’on ouvre. Mais au lieu d’« http: », les adresses commencent par « itunes: » qui est propriétaire. Vous ne pouvez accéder à un lien « itunes: » qu’en utilisant le logiciel propriétaire iTunes d’Apple. Vous ne pouvez pas faire un lien vers une information dans l’univers iTunes, comme une chanson ou une information sur un groupe. L’univers iTunes est centralisé et emmuré. Vous êtes piégés dans un seul magasin, au lieu d’être sur une place ouverte. Malgré toutes les fonctionnalités merveilleuses du magasin, leurs évolutions sont limitées par ce qu’une seule entreprise décide.

D’autres entreprises créent aussi des univers fermés. La tendance des magazines, par exemple, de produire des « applis » pour smartphone plutôt que des applications Web est inquiétante, parce que ce contenu ne fait pas partie du Web. Vous ne pouvez pas le mettre dans vos signets, ni envoyer par email un lien vers une page pointant dessus. Vous ne pouvez pas le « tweeter ». Il est préférable de créer une application Web qui fonctionnera aussi sur les navigateurs des smartphones et les techniques permettant de le faire s’améliorent en permanence.

Certaines personnes pourraient penser que les univers fermés ne sont pas un problème. Ces univers sont faciles à utiliser et peuvent donner l’impression de leur apporter tout ce dont elles ont besoin. Mais comme on l’a vu dans les années 1990 avec le système informatique bas débit d’AOL, qui vous donnait un accès restreint à un sous-ensemble du Web, ces « jardins emmurés », qu’importe qu’ils soient agréables, ne peuvent rivaliser en diversité, en profusion et en innovation avec l’agitation démente du Web à l’extérieur de leurs portes. Toutefois, si un « clôt » a une emprise trop importante sur un marché cela peut différer sa croissance extérieure.

Garder la séparation entre le Web et l’Internet

Conserver l’universalité du Web et garder ses standards ouverts aide tout le monde à inventer de nouveaux services. Mais un troisième principe — la séparation des couches — distingue la conception du Web de celle de l’Internet.

Cette séparation est fondamentale. Le Web est une application tournant sur Internet, qui n’est autre qu’un réseau électronique transmettant des paquets d’information entre des millions d’ordinateurs en suivant quelques protocoles ouverts. Pour faire une analogie, le Web est comme un appareil électroménager qui fonctionne grâce au réseau électrique. Un réfrigérateur ou une imprimante peut fonctionner tant qu’il utilise quelques protocoles standards — aux États-Unis, on fonctionne sur du 120 volts à 60 hertz. De la même façon, chaque application — parmi lesquelles le Web, les courriels ou la messagerie instantanée — peut fonctionner sur Internet tant qu’elle suit quelques protocoles standards d’Internet, tels que le TCP et l’IP.

Les fabricants peuvent améliorer les réfrigérateurs et les imprimantes sans transformer le fonctionnement de l’électricité, et les services publics peuvent améliorer le réseau électrique sans modifier le fonctionnement des appareils électriques. Les deux couches de technologie fonctionnent en même temps mais peuvent évoluer indépendamment. C’est aussi valable pour le Web et Internet. La séparation des couches est cruciale pour l’innovation. En 1990 le Web se déploie sur Internet sans le modifier, tout comme toutes les améliorations qui ont été faites depuis. À cette période, les connexions Internet se sont accélérées de 300 bits par seconde à 300 millions de bits par seconde (Mbps) sans qu’il ait été nécessaire de repenser la conception du Web pour tirer profit de ces améliorations.

Les droits de l’homme à l’âge électronique

Bien qu’Internet et les principes du Web soient distincts, un utilisateur du Web est aussi un utilisateur d’Internet et par conséquent il compte sur un réseau dépourvu d’interférences. Dans les temps héroïques du Web, il était techniquement trop difficile pour une entreprise ou un pays de manipuler le Web pour interférer avec un utilisateur individuel. La technologie nécessaire a fait des bonds énormes, depuis. En 2007, BitTorrent, une entreprise dont le protocole de réseau « peer to peer » permet de partager les musiques, les vidéos et d’autres fichiers directement sur Internet, a déposé une plainte auprès de la FCC (commission fédérale des communications) contre le géant des fournisseurs d’accès Comcast qui bloquait ou ralentissait le trafic de ceux qui utilisaient l’application BitTorrent. La FCC a demandé à Comcast de cesser ces pratiques, mais en avril 2010 la cour fédérale a décidé que la FCC n’avait pas le droit de contraindre Comcast. Un bon FAI (Fournisseur d’Accès Internet) qui manque de bande passante s’arrangera souvent pour délester son trafic de moindre importance de façon transparente, de sorte que les utilisateurs soient au courant. Il existe une différence importante entre cette disposition et l’usage du même moyen pour faire une discrimination.

Cette différence met en lumière le principe de la neutralité du réseau. La neutralité du réseau garantit que si j’ai payé pour une connexion d’une certaine qualité, mettons 300 Mbps, et que vous aussi vous avez payé autant, alors nos communications doivent s’établir à ce niveau de qualité. Défendre ce principe empêcherait un gros FAI de vous transmettre à 300 Mbps une vidéo venant d’une société de média qu’il posséderait, tandis qu’il ne vous enverrait la vidéo d’une société concurrente qu’à une vitesse réduite. Cela revient à pratiquer une discrimination commerciale. D’autres situations complexes peuvent survenir. Que se passe-t-il si votre FAI vous rend plus facile l’accès à une certaine boutique en ligne de chaussures et plus difficile l’accès à d’autres ? Ce serait un moyen de contrôle puissant. Et que se passerait-il si votre FAI vous rendait difficile l’accès à des sites Web de certains partis politiques, de groupes à caractère religieux, à des sites parlant de l’évolution ?

Hélas, en août Google et Verizon ont suggéré pour diverses raisons que la neutralité ne doit pas s’appliquer aux connexions des téléphones portables. De nombreuses personnes dans des zones rurales aussi bien dans l’Utah qu’en Ouganda n’ont accés à l’Internet que par leur téléphone mobile. Exclure les accès sans fil du principe de neutralité laisserait ces utilisateurs à la merci de discriminations de service. Il est également bizarre d’imaginer que mon droit fondamental d’accés à la source d’information de mon choix s’applique quand je suis sur mon ordinateur en WiFi à la maison, mais pas quand j’utilise mon téléphone mobile.

Un moyen de communication neutre est la base d’une économie de marché juste et compétitive, de la démocratie et de la science. La polémique est revenue à l’ordre du jour l’année dernière pour savoir s’il est nécessaire qu’une législation gouvernementale protège la neutralité du réseau. C’est bien le cas. Même si généralement Internet et le Web se développent grâce à une absence de régulation, quelques principes fondamentaux doivent être protégés légalement.

Halte à l’espionnage

D’autres menaces envers le web résultent d’indiscrétions touchant Internet, ce qui inclut l’espionnage. En 2008, une entreprise du nom de Phorm a mis au point un moyen pour un FAI de fouiner dans les paquets d’informations qu’il envoie. Le fournisseur peut alors déterminer chaque URI sur laquelle un de ses clients a surfé, et ensuite créer un profil des sites que l’utilisateur a visités afin de produire des publicités ciblées.

Accéder à l’information contenue dans un paquet Internet est équivalent à mettre un téléphone sur écoute ou ouvrir le courrier postal. Les URI que les gens utilisent révèlent beaucoup de choses sur eux. Une entreprise ayant acheté les profils URI de demandeurs d’emploi pourrait les utiliser pour faire de la discrimination à l’embauche sur les idées politiques des candidats par exemple. Les compagnies d’assurance-vie pourraient faire de la discrimination contre les personnes qui ont fait des recherches concernant des symptômes cardiaques sur le Web. Des personnes mal intentionnées pourraient utiliser les profils pour traquer des individus. Nous utiliserions tous le Web de façon très différente si nous savions que nos clics pouvaient être surveillés et les données ainsi obtenues partagées avec des tierces personnes.

La liberté d’expression devrait être elle aussi protégée. Le Web devrait être semblable à une feuille de papier blanche : disponible pour y écrire, sans qu’on puisse contrôler ce qui y est écrit. Au début de cette année Google a accusé le gouvernement chinois d’avoir piraté ses bases de données pour récupérer les courriels des dissidents. Ces intrusions supposées ont fait suite au refus de Google d’obéir aux exigences du gouvernement, qui demandait à l’entreprise de censurer certains documents sur son moteur de recherche en langue chinoise.

Les régimes totalitaires ne sont pas les seuls qui violent les droits du réseau de leurs citoyens. En France une loi créée en 2009, appelée HADOPI, autorise une administration du même nom à déconnecter un foyer pendant un an si quelqu’un dans la maison est accusé par une compagnie de distribution de médias d’avoir téléchargé de la musique ou des vidéos. Suite à une forte opposition, en octobre le Conseil constitutionnel français a demandé qu’un juge soit saisi du dossier avant que l’accès à Internet ne soit coupé, mais si le juge l’accepte, le foyer familial pourra être déconnecté sans procédure légale digne de ce nom. Au Royaume-Uni, le Digital Economy Act, hâtivement voté en avril, autorise le gouvernement à demander à un FAI (Fournisseur d’Accès Internet) d’interrompre la connexion de quiconque figure dans une liste d’individus soupçonnés de violation de copyright. En septembre, le Sénat des États-Unis a introduit le Combating Online Infringement and Counterfeits Act (loi pour lutter contre la délinquance en ligne et la contrefaçon), qui devrait permettre au gouvernement de créer une liste noire de sites Web — qu’ils soient ou non hébergés aux USA — accusés d’enfreindre la loi, et d’obliger tous les FAI à bloquer l’accès des-dits sites.

Dans de tels cas de figure, aucune procédure légale digne de ce nom ne protège les gens avant qu’ils ne soient déconnectés ou que leurs sites soient bloqués. Compte-tenu des multiples façons dont le Web s’avère essentiel pour notre vie privée et notre travail, la déconnexion est une forme de privation de notre liberté. En s’inspirant de la Magna Carta, nous pourrions maintenant proclamer :

« Aucun individu ni organisation ne pourra être privé de la possibilité de se connecter aux autres sans une procédure légale en bonne et due forme qui tienne compte de la présomption d’innocence. »

Lorsque nos droits d’accès au réseau sont violés, un tollé général est déterminant. Les citoyens du monde entier se sont opposés aux exigences de la Chine envers Google, à tel point que la Secrétaire d’état Hillary Clinton a déclaré que le gouvernement des États-Unis soutenait la résistance de Google et que la liberté de l’Internet — et avec elle celle du Web — allait devenir une pièce maîtresse de la politique étrangère américaine. En octobre, la Finlande a fait une loi qui donne le droit à chaque citoyen d’avoir une connexion à haut débit de 1 Mbps.

Connexion vers l’avenir

Tant que les principes fondamentaux du Web seront maintenus, son évolution ultérieure ne dépendra d’aucun individu ni d’aucune organisation particulière — ni de moi, ni de personne d’autre. Si nous pouvons en préserver les principes, le Web est promis à un avenir extraordinaire.

La dernière version du HTML par exemple, intitulée HTML5, n’est pas simplement un langage de balisage mais une plateforme de programmation qui va rendre les applications Web encore plus puissantes qu’elles ne le sont aujourd’hui. La prolifération des smartphones va mettre le Web encore plus au cœur de nos vies. L’accès sans fil donnera un avantage précieux aux pays en développement, où beaucoup de gens n’ont aucune connexion filaire ou par câble mais peuvent en avoir sans fil. Il reste encore beaucoup à faire, bien sûr, y compris en termes d’accessibilité pour les personnes handicapées, et pour concevoir des pages qui s’afficheront aussi bien sur tous les écrans, depuis le mur d’images géantes en 3D jusqu’à la taille d’un cadran de montre.

Un excellent exemple de futur prometteur, qui exploite la puissance conjuguée de tous ces principes, c’est l’interconnexion des données. Le Web d’aujourd’hui est relativement efficace pour aider les gens à publier et découvrir des documents, mais nos programmes informatiques ne savent pas lire ni manipuler les données elles-mêmes au sein de ces documents. Quand le problème sera résolu, le Web sera bien plus utile, parce que les données concernant presque chaque aspect de nos vies sont générées à une vitesse stupéfiante. Enfermées au sein de toutes ces données se trouvent les connaissances qui permettent de guérir des maladies, de développer les richesses d’un pays et de gouverner le monde de façon plus efficace.

Les scientifiques sont véritablement aux avants-postes et font des efforts considérables pour inter-connecter les données sur le Web. Les chercheurs, par exemple, ont pris conscience que dans de nombreux cas un unique laboratoire ou un seul dépôt de données en ligne s’avèrent insuffisants pour découvrir de nouveaux traitements. Les informations nécessaires pour comprendre les interactions complexes entre les pathologies, les processus biologiques à l’œuvre dans le corps humain, et la gamme étendue des agents chimiques sont dispersées dans le monde entier à travers une myriade de bases de données, de feuilles de calcul et autres documents.

Un expérience réussie est liée à la recherche d’un traitement contre la maladie d’Alzheimer. Un grand nombre de laboratoires privés ou d’état ont renoncé à leur habitude de garder secrètes leurs données et ont créé le projet Alzheimer’s Disease Neuroimaging. Ils ont mis en ligne une quantité phénoménale d’informations inter-connectées sur les patients, ainsi que des scanners cérébraux, une base dans laquelle ils ont puisé à maintes reprises pour faire progresser leurs recherches. Au cours d’une démonstration dont j’ai été témoin, un scientifique a demandé : « quelles protéines sont impliquées dans la transduction des signaux et sont liées aux neurones pyramidaux ? ». En posant la question avec Google, on obtenait 233 000 résultats — mais pas une seule réponse. En demandant aux bases de données inter-connectées du monde entier pourtant, on obtenait un petit nombre de protéines qui répondaient à ces critères.

Les secteurs de l’investissement et de la finance peuvent bénéficier eux aussi des données inter-connectées. Les profits sont générés, pour une grande part, par la découverte de modèles de recherche dans des sources d’informations incroyablement diversifiées. Les données sont également toutes liées à notre vie personnelle. Lorsque vous allez sur le site de votre réseau social et que vous indiquez qu’un nouveau venu est votre ami, vous établissez une relation. Et cette relation est une donnée.

Les données inter-connectées suscitent un certains nombre de difficultés que nous devrons affronter. Les nouvelles possibilités d’intégration des données, par exemple, pourraient poser des problèmes de respect de la vie privée qui ne sont pratiquement pas abordés par les lois existantes sur le sujet. Nous devrions examiner les possibilités légales, culturelles et techniques qui préserveront le mieux la vie privée sans nuire aux possibilités de bénéfices que procure le partage de données.

Nous sommes aujourd’hui dans une période enthousiasmante. Les développeurs Web, les entreprises, les gouvernements et les citoyens devraient travailler ensemble de façon collaborative et ouverte, comme nous l’avons fait jusqu’ici, pour préserver les principes fondamentaux du Web tout comme ceux de l’Internet, en nous assurant que les processus techniques et les conventions sociales que nous avons élaborés respectent les valeurs humaines fondamentales. Le but du Web est de servir l’humanité. Nous le bâtissons aujourd’hui pour que ceux qui le découvriront plus tard puissent créer des choses que nous ne pouvons pas même imaginer.

Notes

[1] Crédit photo : Neal Fowler – Creative Commons By




Rap News sur WikiLeaks, une improbable conscience ?

TheJuiceMedia CC-By-NC-SALes jours fériés, on les consacre à ses passions non ? Alors après le rap militant de Dan Bull contre ACTA, laissez moi vous présenter Rap News [1], ce journal vidéo reprenant les codes du JT pour diffuser, en rythme et en rimes, de l’actualité comme on en voit rarement à la télé.

En effet, pour accompagner les deux dernières publications massives de télégrammes américains des guerres en Afghanistan et en Irak par WikiLeaks, le collectif TheJuiceMedia, un média australien indépendant, a réalisé deux vidéos pertinentes et humoristiques, plantant le décor politique de ces fuites, sur fond de défense de la neutralité du net [2].

Bourrées de références [3], ces vidéos valent autant par les prouesses de l’acteur que la finesse des textes, et c’est pourquoi, avec l’ami Koolfy de la Nurpa.be, croisé sur le canal IRC de La Quadrature du Net [4], nous avons souhaité offrir une version sous-titrée de ces vidéos pour les francophones de tous pays (même la Belgique !).

Après plusieurs heures de temps libre [5] bien employé, nous proposions donc nos sous-titres à l’adresse de contact du collectif TheJuiceMedia qui les accueillit avec enthousiasme et les ajouta directement aux vidéos « officielles », déjà visionnées respectivement plus de 80 000 et 100 000 fois sur YouTube [6].

Toutefois, les voici reproduites ici pour vous avec l’accord des auteurs, servies et sous-titrées librement, stockées dans Framatube, et passées à travers Universal Subtitles. Ne manquez pas l’invité de prestige dans la deuxième vidéo.

Rap News contre le Pentagon

Rap News vs The Pentagon

—> La vidéo au format webm
—> Le fichier de sous-titres

Rap News contre Nouvelles Ordre Mondial

Rap News vs News World Order

—> La vidéo au format webm
—> Le fichier de sous-titres

Notes

[1] Travail copyrighté pour l’instant, mais sûrement dû à un « choix » par défaut. Je viens d’écrire aux auteurs sur ce sujet et vous tiendrai informés. Édition le 12/11/2010 à 1:52 : Leur réponse est à la hauteur de leur travail, ils me prient de considérer leur travail comme étant couvert par une CC-By-NC-SA. Seul le design du site web de thejuicemedia.com est sous Copyright de la conceptrice graphique.

[2] Rien à voir, dans ce contexte, avec le FDNN que vous avez croisé si vous soutenez, comme moi, la Quadrature du Net 😉

[3] Notamment cet extrait de JT présenté par Bill O’Reilly sur les télé. américaines.

[4] Et cet été à Bordeaux aux RMLL 2010.

[5] C’est une notion assez vague pour un Framaslave 🙂

[6] Et nous sommes fiers de constater que des collègues allemands, brésiliens et grecs nous ont rejoint dans cette initiative.




TF1 réclame (sans rien risquer) Google censure (sans vérifier)

Vidberg © LeMonde.fr Sur le Framablog, on ne manque pas une occasion d’agir contre la censure, ou de publier le témoignage d’un citoyen s’élevant contre les menaces et restrictions faites à nos libertés fondamentales [1]. Parce qu’après tout, et comme me le fit un soir remarquer Benjamin Bayart, qu’est-ce qui nous motive tous dans le mouvement du Logiciel Libre ? Et dans la défense de la neutralité du réseau qui lui est indispensable ? Qu’est-ce qui nous réunit, si ce n’est la liberté d’expression ? Cette petite flamme fragile et dangereuse qui vacille au souffle du pouvoir et nécessite, pour être entretenue, notre attention constante.

Le témoignage que nous vous proposons aujourd’hui est celui de Theocrite, un « administrateur système » engagé pour le Logiciel Libre, qui nous explique comment TF1 [2] a silencieusement fait censurer par Google un extrait vidéo de débat à l’Assemblée Nationale.

On savait déjà que certains n’hésitent pas à attaquer, en vertu du Copyright de sa bande son, une vidéo compromettante, au mépris du « fair-use » largement accordé aux vidéos de lolcats. Mais cet extrait, posté par La Quadrature du Net, n’a lui pour seule bande son que le discours à l’Assemblée des députés de la République. Cela n’a pourtant pas arrêté TF1 [3] dans son coup de poker, son nouveau coup de poignard dans le dos de l’éthique et de notre liberté d’information.

Cette vidéo, c’est celle du rejet intégral par l’Assemblée Nationale du projet de loi HADOPI 1 le 9 avril 2009, et, pour illustrer le principe selon lequel une tentative de censure s’avère toujours contre-productive pour le censeur, la voici, archivée dans notre collection Framatube :

—> La vidéo au format webm

TF1 censure des vidéos HADOPI sur YouTube

Et Google ne vérifie pas la véracité des accusations

Theocrite – 1er novembre 2010

En me promenant sur le compte YouTube de la Quadrature du Net, j’ai découvert récemment dans les paramètres du compte que certaines vidéos étaient listées comme pouvant « comporter un contenu appartenant à un tiers ».

Theocrite - CC By Sa

Hm, c’est possible… Intrigué, je clique sur le lien proposé et je m’aperçois que la vidéo en question est la vidéo du rejet de la loi HADOPI l’Assemblée Nationale.

Theocrite - CC By Sa

Bigre ! Voilà que des vidéos contenant des discours « prononcés dans les assemblées politiques » serait en contradiction avec le droit d’auteur. Voilà qui est bien étrange.

Pour en savoir plus, je clique sur « Afficher les informations sur les droits d’auteur ».

Theocrite - CC By Sa

On y apprend des choses très intéressantes… Comme le fait que les vidéos produites dans l’hémicycle seraient la propriété de « lgl_tf1 ». Un peu présomptueux de la part de la vieille chaîne qui descend.

Bon, portons réclamation. Après avoir lu une page chiante à mourir, on accède à un formulaire de réclamation, fortement limité, mais je suis décidé à faire avec.

Theocrite - CC By Sa

Theocrite - CC By Sa

Je fais alors subtilement remarquer que dans la législation française, les débats politiques sont publics… Puis je valide l’envoi du formulaire.

Theocrite - CC By Sa

Le lendemain, je constate que j’ai obtenu gain de cause : la vidéo est débloquée. Mais pour combien de temps ? Google n’a pas pris la peine de nous notifier que la vidéo était à nouveau disponible. On pouvait toujours attendre en relevant notre boîte mail.

Theocrite - CC By Sa

Bilan

Google est réactif, mais pas spécialement poli. Pas de notifications lors du blocage de la vidéo, ni lors du déblocage.

La vidéo a été bloquée pendant un certain temps. Combien de temps ? Aucune idée. Mais TF1 a tenté et a réussi à faire censurer la vidéo, peu importe combien de temps, et ce sans rien risquer. C’est un jeu permanent dans lequel les plaignants ne peuvent pas perdre et les internautes ne peuvent pas gagner.

Ce n’est pas une nouvelle, pour TF1 quand il s’agit d’HADOPI, tous les moyens sont bons pour supporter la loi. Que ce soit en inventant un plébiscite lors d’un vote, en censurant son rejet comme nous venons de le voir ou encore en s’occupant des « salariés qui, manifestement, aiment tirer contre leur camp. »

Mais sur YouTube, TF1 ne s’arrête pas à HADOPI. TF1 sort le bulldozer. Je vous invite à rechercher lgl_tf1 dans un moteur de recherche. Celui de nos amis possesseurs de YouTube par exemple, ou bien sur un moteur de recherche libre, vous y trouverez des réactions unanimes d’Internautes énervés, soit parce que lgl_tf1 a bloqué des vidéos de France 2. Soit parce que TF1 a bloqué des vidéos sur lesquelles elle a acquis les droits de diffusions pour une certaine partie du monde, et se passe de demander aux auteurs s’ils autorisent cette rediffusion.

Notes

[1] Telles que garanties par la déclaration des droits de l’Homme et du citoyen, et rappelées par le « considérant n°12 » de la décision n°2009-580 DC du 10 juin 2009 du Conseil Constitutionnel concernant HADOPI 1 par exemple.

[2] Crédit première illustration : Vidberg © LeMonde.fr, reproduite avec l’aimable autorisation de l’auteur. Licence équivalente à une CC-By-NC-ND avec autorisation préalable requise.

[3] Ou peut-être un imposteur, que le chaîne laisserait agir « en son nom » depuis plus de deux ans.




Le contrôle des redirections

Kudumomo - CC BySi les redirections [1] sont à peu prêt aussi vieilles que le web, elles n’étaient, jusqu’à l’apparition des micro-blogs, que rarement utilisées, mises en place par les connaisseurs, lors du déménagement d’un document important.

Dans ce contexte, quand Kevin Gilbertson proposa en 2002 le premier service en-ligne de rétrécissement d’URL (TinyURL.com), permettant de créer à la demande, une redirection depuis une une adresse courte vers l’adresse de son choix, il n’eut qu’un succès modéré. L’initiative tomba presque dans l’oubli, et ce n’est qu’une demi-décennie plus tard, avec l’essor de Twitter que ce service rencontra d’un coup un large public. En effet, le principe de Twitter étant de proposer un blog dont les billets sont plus courts que des SMS, pouvoir réduire une URL devint un enjeu de taille, si j’ose dire. En effet, d’une part certaines URL sont simplement trop longues pour être gazouillées, et d’autre part, une fois l’adresse collée dans un micro-billet il ne reste plus beaucoup de place pour en expliquer l’intérêt.

TinyURL.com fut donc dans un premier temps directement proposé depuis l’interface du site de microblogage pour aider à la rédaction des messages. Puis devant le succès rencontré par cet intermédiaire, de nombreux concurrents vinrent occuper leurs parts de marché, tel que Bit.ly, qui se démarqua par les statistiques offertes sur l’utilisation des liens courts qu’il produit.

Et progressivement, chaque gros acteur du web se mit à proposer son propre service de rétrécissement, pour faire plaisir à ses utilisateurs avec un service techniquement trivial, ne pas dépendre d’un tiers et enfin pour mettre la main, chacun, sur sa parcelle de statistiques d’usage !

Car utiliser un raccourcisseur d’URL revient en fait à ajouter une barrière de péage d’autoroute entre les personnes auxquelles vous communiquez le lien court, et le document que vous souhaitiez porter à leur attention. Bien sûr, c’est une barrière pour laquelle tout le monde est abonné (pour l’instant), et elle ne fait que ralentir un peu le trafic, mais surtout, elle identifie au passage qui l’a franchi, quand et combien de fois.

Or, si cette information était jusque là collectée par l’émetteur du document de destination seulement, elle n’était pas aussi facilement recoupable et monnayable que si c’est un acteur central qui collecte toutes les visites effectuées suivant les recommandations des millions d’utilisateurs de Twitter, de Facebook ou de Google…

Et puis, d’un point de vue pragmatique, au-delà de la seconde d’attente ajoutée après le clic, ou du respect de la vie privée, un autre problème se pose, celui de la pérennité de ces étapes intermédiaires. Aujourd’hui, TinyURL.com se vante de servir des milliards de redirections par mois, mais ce service, qui n’est pas géré par une entreprise, est voué à disparaître, car son nom (qui avait besoin d’être explicite au début) est trop long pour être efficace aujourd’hui. Or, quand les serveurs de TinyURL seront éteints, c’est plus d’un milliard d’adresses qui, d’un coup, ne mèneront plus à rien.

Alors, quand on voit avec quel empressement les entreprises se sont mises à proposer ce gadget en apparence anodin, on peut avoir envie de ne pas se laisser enfermer nous non plus par une compagnie particulière, de suivre cet exemple en s’installant chacun son raccourcisseur d’URL à soi. Après tout, ça ne sera qu’une corde de plus à mettre à l’arc de la NoBox.

Toutefois, la question de la pérennité des redirections mises en place reste posée… En ce premier novembre, il est presque de bon ton de se demander ce qu’on fera du serveur personnel d’un défunt.

Mais pour l’heure, place au détail de l’enfer des redirections vers lequel on nous mène, et qui transforme progressivement le web en maison qui rend fou des 12 travaux d’Astérix… [2]

Le web se dirige-t-il vers un cauchemar de redirections ?

Is the Web heading toward redirect Hell?

22 septembre 2010 – Royal.Pingdom.com
(Traduction Framalang : Zitor, Barbidule, Daria, Goofy, Siltaar)

Google le fait. Facebook le fait. Yahoo le fait. Microsoft le fait. Et bientôt, Twitter le fera.

Nous parlons de la manie qu’ont tous les services web d’ajouter une étape intermédiaire pour échantillonner ce sur quoi nous cliquons avant de nous envoyer vers notre vraie destination. Ça dure déjà depuis un certain temps, et c’est progressivement en train de devenir un enfer de redirections. Cela a un coût.

Du trafic déjà en trop

Il y a déjà beaucoup de redirections en place, auxquelles vous ne songez pas forcément. Par exemple :

  • Chaque fois que vous cliquez sur un résultat de recherche dans Google ou Bing, il y a un passage obligé par les serveurs du moteur de recherche pour analyse avant d’être redirigé vers le site réellement ciblé;
  • Chaque fois que vous cliquez sur un titre dans un flux RSS Feedburner, vous êtes aussi redirigé avant d’arriver à la véritable cible;
  • Chaque fois que vous cliquez sur un lien sortant de Facebook, il y a une étape intermédiaire passant par un serveur de Facebook avant de vous rediriger vers où vous voulez aller.

Et ainsi de suite, et ainsi de suite, et ainsi de suite. C’est, bien sûr, parce que Google, Facebook et les autres sociétés en ligne aiment suivre les clics et le comportement de leurs utilisateurs. Vous connaître est une vraie ressource pour ces sociétés. Cela peut les aider à améliorer leur service, à le monétiser plus efficacement et dans de nombreux cas, ces données elles-mêmes valent de l’argent. Au final ce suivi de clic peut aussi être bon pour les utilisateurs finaux, en particulier s’il permet à un service d’améliorer sa qualité.

Mais…

Les choses sont en train de déraper

S’il ne s’agissait que d’une seule étape supplémentaire, cela pourrait aller. Mais si vous regardez autour, vous vous rendrez compte que ces redirections sont en train de s’empiler, chaque service interceptant des informations sur le clic lors du cheminement vers la destination finale. Vous savez, celle que l’utilisateur a vraiment demandée.

Cela peut vite devenir incontrôlable. Nous avons vu des scénarios où les liens sortants de Facebook, par exemple, vous redirigent d’abord vers un serveur Facebook, puis vers un racourcisseur d’URL (par exemple bit.ly), qui à son tour vous redirige vers une URL plus longue qui elle-même génère plusieurs redirections avant que FINALEMENT vous parveniez à la cible. Il n’est pas rare qu’il y ait plus de trois redirections vers différents sites qui, du point de vue de l’utilisateur, sont du trafic superflu.

Le problème, c’est que ce trafic supplémentaire n’est pas gratuit. Cela rallonge le temps nécessaire pour atteindre l’objectif, et cela rajoute d’autres liens (au sens propre !) dans la chaîne, ce qui peut la briser ou la ralentir. Cela peut même faire apparaitre des sites comme indisponibles alors qu’ils ne le sont pas, simplement parce que quelque chose sur le chemin est tombé en panne.

Et il semble que cette pratique soit de plus en plus répandue sur le Web.

Un exemple récent de cette « mode de la redirection » : Twitter

Vous souvenez-vous de cette vague de raccourcisseurs d’URL qui est venue quand Twitter a commencé à devenir populaire? C’est là que commence notre histoire.

Twitter a d’abord utilisé le déjà établi TinyURL.com comme raccourcisseur d’URL par défaut. C’était un partenaire idéal pour Twitter et sa limite de 140 caractères par message.

Puis vinrent Bit.ly et une pléthore d’autres raccourcisseurs d’URL, qui voulaient eux aussi surfer sur le succès grandissant de Twitter. Bit.ly a rapidement réussi à remplacer TinyURL comme réducteur d’URL par défaut pour Twitter. Grâce à cela, Bit.ly a mis la main sur une foule de données : la liste d’une bonne partie des liens postés sur Twitter, et de leur popularité, chaque clic pouvant être tracé.

Ce n’était qu’une question de temps avant que Twitter ne veuille garder ces données pour lui seul. Pourquoi s’en priverait-il ? Cela lui permet d’avoir le contrôle total de l’infrastructure nécessaire à son fonctionnement, tout en récupérant des informations sur ce que les utilisateurs aiment s’échanger, et ainsi de suite. Twitter a donc créé récemment son propre raccourcisseur d’URL, t.co. Dans le cas de Twitter, cela peut parfaitement se comprendre.

Cela est bel et bon, mais voici maintenant la partie la plus intéressante qui est la plus pertinente pour cet article : d’ici la fin de l’année, Twitter va rediriger TOUS les liens vers son raccourcisseur d’URL, y compris les liens déjà raccourcis par d’autres services comme Bit.ly ou Goo.gl, le raccourcisseur de Google. En canalisant tous les clics vers ses propres serveurs, Twitter va acquérir une connaissance précise de la façon dont son service est utilisé, et de ses utilisateurs. Cela lui donne le contrôle total sur la qualité de son service. C’est une bonne chose pour Twitter.

Mais qu’arrive-t-il quand tout le monde veut un morceau du gâteau ? Redirection après redirection après redirection avant d’arriver à notre destination ? Oui, c’est exactement ce qui se passe, et vous aurez à vivre avec ce trafic supplémentaire.

Voici ce à quoi le partage de liens pourrait ressembler une fois que Twitter aura commencé à soumettre tous les clics à son propre service :

  1. Quelqu’un partage un lien goo.gl sur Twitter, il est alors transformé en un lien t.co.
  2. En cliquant sur le lien t.co, l’utilisateur est alors redirigé vers les serveurs de Twitter pour convertir le lien t.co en lien goo.gl et se voit réorienté dessus.
  3. Le lien goo.gl dirige l’utilisateur vers les serveurs de Google pour y être résolu et ré-orienter enfin l’utilisateur vers la cible qu’il souhaitais atteindre.
  4. Rien n’empêche cette cible de n’être à son tour qu’une nouvelle redirection…

Vous en avez la tête qui tourne, hein ?

Encore plus de niveaux de redirection ?

Il y a un an, nous avons écrit un article sur les inconvénients potentiels des raccourcisseurs d’URL, et il s’applique parfaitement à ce scénario plus général avec de multiples redirections entre les sites. Les conséquences de ces redirections sur les performances, la sécurité et la confidentialité sont les mêmes.

Nous soupçonnons fortement que le chemin pris par Twitter (échantillonner et enregistrer les clics avant expédition vers la cible, avec ou sans raccourcisseurs d’URL) laisse présager des pratiques à venir chez les autres services Web qui ne le font pas déjà.

Et même quand les services principaux ne le font pas, de plus en plus d’intermédiaires et d’applications tierces, comme les raccourcisseurs d’URL, apparaissent tous les jours. L’autre jour, le fabricant d’antivirus McAfee a annoncé la version-bêta de McAf.ee, un raccourcisseur d’URL « sécurisé ». C’est peut-être super, qui sait, mais à la lumière de ce que nous vous avons dit dans cet article, il est difficile de ne pas penser : quoi, encore une autre niveau de redirection ? Est-ce vraiment vers cela que le Web évolue ? Est-ce vraiment ce que nous voulons ?

Notes

[1] Ce mécanisme du protocole HTTP permettant de faire rebondir la navigation vers une autre page au chargement d’une URL.

[2] Crédit photo : Kudumomo (Creative Commons Parternité)




Seabird : Un concept communautaire de téléphone portable

Mozilla CC-byEt si, en se regroupant pour partager nos rêves, nous tentions de faire émerger de cette tornade d’idées un nouveau concept de téléphone ? C’est l’expérience quelque peu décalée et pour le moins surprenante qu’a tentée Mozilla [1], au travers de ses Mozilla Labs.

Et qu’ont-ils inventés tous ensemble, un téléphone à glissière qui claque comme dans Matrix ? Un frigo satellitaire à antenne comme dans les séries américaines ? Un netbook avec clé 3G, webcam et Ekiga pour la voix sur IP ? Un N900 qui téléphone ? Un autre iPhone dépassé qui emprisonne ?

Quel serait le mieux que l’on puisse produire aujourd’hui ? Quelque chose à la fois contemporain dans sa plausibilité technique et avant-gardiste dans les fonctionnalités qu’il offre…

Et bien si l’OPLC a révolutionné le marché des ordinateurs portables en provocant la déferlante des netbooks, il nous reste à espérer que le Mozilla Seabird fera autant de vagues dans le secteur des téléphones mobiles !

À n’en pas douter, lire des livres libres sur cette incroyable (mais crédible) machine serait un plaisir, partageable !

C’est pourquoi, en tant que technophile, je n’ai pu résister au plaisir de partager avec vous mon enthousiasme pour ce petit concentré de bonnes idées, qui a suscité plus d’un millier de commentaires (au moment de la rédaction de ce billet) sur le blog original, et fut salué par plus de 25 journaux et sites en langue anglaise spécialisés dans les hautes technologies [2].

Concept Series : Seabird – Un concept communautaire de téléphone portable

Concept Series: Seabird – A Community-driven Mobile Phone Concept

Pascal Finette – 23 septembre 2010 – MozillaLabs.com
Traduction Framalang : Cheval_Boiteux, DonRico, @PierreTravers, Goofy, Siltaar et Zitor

Depuis que les Mozilla Labs ont lancé les Concept Series avec un appel à participation, des milliers de personnes nous ont rejoints, ont partagé leurs idées et développé des concepts autour de Firefox, des projets Mozilla et du Web ouvert dans son ensemble.

En réponse à notre appel ouvert du début 2009, Billy May a produit un concept de « Téléphone conçu pour le Web ouvert ». En travaillant directement à partir des retours de la communauté, Billy a depuis terminé son exploration avec son concept « Seabird ».

Le compte rendu suivant a été rédigé par Billy May et explore ce à quoi un téléphone Web ouvert pourrait ressembler :

Description générale

Le Mozilla Seabird, qui fait partie des Concept Series des Mozilla Labs, est une expérimentation portant sur les manières dont les utilisateurs pourraient interagir avec les contenus de leur téléphone mobile à mesure que les appareils et la technologie gagnent en performances. S’appuyant sur des idées fournies par la communauté Mozilla via le blog du projet, l’accent a rapidement été mis sur les limitations des interactions physiques. Alors que la connectivité, la puissance des processeurs mobiles et le développement des plateformes rattrapent ceux des ordinateurs de bureau, le manque de moyens disponibles pour saisir efficacement du contenu se fait de plus en plus sentir.

Mozilla CC-by

Interaction

Le Seabird présente donc quelques façons dont l’interaction utilisateur/appareil pourrait évoluer grâce aux innovations que connaît le secteur, conduites par les avancées en matière de projecteurs et de capture de mouvements. Premièrement, le Seabird montre comment une clé (un dongle) à usage multiple pourrait améliorer l’interface tactile encombrée en offrant plus de précision et une manipulation directe du contenu dans un espace en 3D.

Mozilla CC-by

Pico Projecteur

Avec des fabricants de téléphones portables comme Samsung, LG et Motorola qui se dirigent vers des applications d’affichage conçues pour les projecteurs, la technologie laisse le champ libre à l’extension de la surface offerte à l’utilisateur pour l’interaction et la saisie. Sur une surface plane, le Seabird permet une interaction d’une qualité équivalente à celle d’un netbook, en utilisant la distortion angulaire du projecteur pour fournir une interface plutôt que du contenu. Avec une station d’accueil, chaque projecteur peut travailler indépendamment et fournir ainsi un confort d’utilisation égal à celui d’un ordinateur portable.

Mozilla CC-by

Design

La conception de l’aspect visuel s’appuie sur des formes aérodynamiques, aviaires et résolument féminines. En position debout, le Seabird renvoie une impression d’équilibre, tandis que sa façon d’épouser les courbes de la main rend celui-ci compatible avec le désir qu’a l’utilisateur de maîtriser l’objet numérique. La courbure du dos joue également un rôle fonctionnel, car elle surélève les éléments de la lentille du projecteur quand le Seabird est posé à plat.

Mozilla CC-by

Seabird est une expérimentation gérée par la communauté et ne signifie pas que Mozilla envisage la production d’un système d’exploitation ou de matériel.

Mozilla CC-by

FAQ

Qui est à l’origine du projet ?

Seabird a été créé par Billy May, un membre de la communauté Mozilla Labs qui, au début de l’année 2009, a jeté une première ébauche de ce à quoi pourrait ressembler un téléphone mobile pour le Web Ouvert. Seabird est la suite du projet initial de Billy, auquel il a intégré les retours de la communauté étendue. Pour en apprendre plus sur Billy May, visitez sa page personnelle.

En quoi cela est-il lié à Mozilla et Mozilla Labs ?

Billy est un membre de la communauté Mozilla Labs et a créé Seabird sur son temps libre. Seabird n’est pas un projet de Mozilla Labs mais appartient aux Concept Series de Mozilla Labs. Les Concept Series fournissent à la communauté un espace pour créer et collaborer à des projets qui repoussent les frontières du Web et du navigateur.

La société Mozilla a-t-elle le projet de produire un téléphone portable ?

Non. Mozilla produit Firefox Mobile, le célèbre navigateur pour les systèmes de téléphonie mobile comme Nokia Maemo et Android. Vous pouvez en apprendre davantage sur Mozilla Firefox Mobile à cette adresse [3].

Notes

[1] Crédit photo : Mozilla Creative Commons Paternité

[2] En attendant que nous maîtrisions Universal Subtitles, je vous encourage également à visionner la vidéo en anglais présente sur le blog d’origine, elle sera très bien agrémentée par les textes traduits ici même.

[3] Le lien d’origine sans version française : http://www.mozilla.com/en-US/mobile/




Logiciel libre et développement durable, même combat ?

416style - CC-byAu détour d’une conférence sur les tendances 2010 de l’Open Source à l’OpenWorldForum, j’ai assisté à la présentation, captivante, des enjeux croisés de l’écologie et du logiciel libre, résumé en « FreenIT » par un duo peu ordinaire. En effet, l’un s’annonce comme journaliste et passionné d’environnement et l’autre (respectivement) comme ingénieur expert en « innovation ouverte et logiciel libre ». Leur présentation s’attachait à mettre en valeur les avantages intrinsèques des logiciels libres dans la quête d’une informatique écologiquement responsable vers laquelle l’industrie et les grandes entreprises se tournent enfin [1].

Enthousiasmé par leur démonstration, je pris contact avec eux à l’issue de la présentation, pour évoquer la possibilité de faire passer leur message jusqu’à vous chers lecteurs, dans la droite lignée de nos explorations de la société, à la recherche des applications de la culture du libre. Après les « AMAP », qui mettent de l’écologie dans les assiettes de collectifs qui s’auto-organisent pour échapper aux injonctions des grandes surfaces, voici donc le « Green IT » qui met de l’écologie derrière nos écrans.

On retrouve, dans ce texte de synthèse rédigé pour le Framablog, les notions clés du succès en matière de développement durable, tel que le fameux « penser global, agir local », que l’on retrouve dans le logiciel libre sous la forme d’un « bidouiller dans son coin, et penser aux autres », ou encore une évocation du « leadership par l’exemple » qui prévalut dès le début en matière politique sur Internet, cet espèce de laisser-faire, un peu utopique, sans laisser-aller. Enfin, je citerai encore la notion d’énergie grise, qui vient malheureusement contrebalancer les discours commerciaux des fabriquants en matière de décroissance de la consommation énergétique des nouvelles générations de composants informatiques.

Logiciel libre et Green IT : même combat ?

Frédéric Bordage et François Letellier – GreenIT.fr

Les connaissances des communautés open source et les principales caractéristiques des logiciels libres sont particulièrement bien adaptées à la profondeur et à l’urgence des enjeux du développement durable. Démonstration.

L’humanité fait face à trois problèmes environnementaux majeurs : le dérèglement climatique, l’écroulement de la biodiversité et l’épuisement des stocks de ressources non renouvelables. La prise de conscience a été (trop) longue, et l’urgence aujourd’hui est réelle : nous n’avons qu’une génération pour trouver et mettre en œuvre les solutions à ces défis. Quel rapport entre ce constat, iconifié par des personnages tels que le Commandant Cousteau, Al Gore ou Nicolas Hulot, et notre quotidien d’informaticiens ? Que peuvent les geeks face à ces enjeux planétaires ?

Toujours poussés plus loin vers les mondes virtuels, nous avons tendance à oublier qu’octets et instructions consomment substrats et énergie. Une consommation qui se traduit par des nuisances que notre écosystème ne peut pas absorber indéfiniment. Les informaticiens peuvent, s’ils le souhaitent, réduire rapidement l’empreinte de l’informatique sur l’environnement. Mais plus encore, la communauté du logiciel libre détient des savoirs transversaux qui font défaut aux acteurs du développement durable. Explication.

Freen IT as in Free & Green IT

Le courant de pensée du « Green IT » cherche à réduire l’empreinte écologique des Technologies de l’Information et de la Communication (TIC). Pour réduire l’empreinte des TIC, il faut se concentrer sur l’essentiel. Contrairement au discours marketing des éditeurs et des constructeurs, les phases de fabrication et de fin de vie d’un ordinateur consomment plus d’énergie et génèrent nettement plus de nuisances environnementales que la phase d’utilisation. En clair : si vous décidez de remiser tous vos serveurs et postes de travail, encore fonctionnels, pour les remplacer par d’autres nettement moins énergivores… vous faites fausse route. Les constructeurs vous remercieront, pas la planète. En effet, l’énergie grise liée aux équipements informatique ne cesse de croître, quand leur consommation en fonctionnement s’affiche à la baisse.

Les deux grands défis du « Green IT » consistent à :

  • prolonger la durée d’utilisation des matériels existants;
  • et à réduire les besoins, en termes d’énergie et de ressources, sur la phase d’utilisation.

Ce qui signifie mettre le holà à la gloutonnerie des logiciels. Microsoft Office 2010 sous Windows Vista nécessite par exemple 70 fois plus de ressources qu’Office 97 sous Windows 98… Les documents produits sont-ils 70 fois plus percutants ou créés 70 fois plus vite ? Non. La gabegie logicielle est indéfendable.

Le logiciel libre à la rescousse

C’est la couche logicielle qui pilote les besoins en ressources matérielles d’un ordinateur. Or, d’un point de vue technique, les logiciels libres sont architecturés autour d’un noyau qui répond à 80% des besoins essentiels. Autour de ce noyau viennent se connecter des extensions qui répondent aux besoins moins répandus. Cet écosystème évolue. Si une fonction devient incontournable, elle est intégrée au noyau. Cette architecture modulaire et évolutive minimise les ressources matérielles (puissance processeur, mémoire vive, etc.) nécessaires. On obtient donc des logiciels performants même sur des matériels modestes ou anciens, ce qui permet d’allonger la durée d’utilisation du matériel… ou de redonner une seconde vie à un matériel d’occasion.

Généralement alliée à une gratuité d’accès, la parcimonie des logiciels libres (systèmes d’exploitation en tête) rend viable la filière du reconditionnement des équipements d’occasion. Le « Libre » apporte une réponse pragmatique, ici et maintenant, aux deux premiers défis du « Green IT » : faire durer le matériel, économiser les ressources. En outre, le découplage entre logiciel et support technique (qui peut être fourni par différents acteurs de la communauté) évite l’obsolescence programmée imposée par des éditeurs propriétaires et monopolistiques. En raccourcissant la durée de leur support technique, ces derniers poussent en effet à la consommation de nouvelles versions de logiciels plus gourmands, et donc de matériels plus puissants pour les faire tourner.

Au delà des aspects techniques, les communautés du libre reposent sur une organisation pyramidale dont les processus sont transparents. Ces deux propriétés garantissent un travail rapide et efficace qui pousse les chefs de projet et les développeurs à bien faire leur travail (un code efficace par exemple) et à prendre leurs responsabilités. Le pouvoir du créateur du logiciel est contrecarré par le pouvoir des utilisateurs. Les utilisateurs peuvent « forker » un projet du jour au lendemain. On ne peut donc pas verrouiller les utilisateurs et leur imposer un rythme de mise à jour.

D’autre part, le modèle économique du libre est quantitatif. Seule l’adhésion du plus grand nombre garantit au créateur du logiciel des revenus confortables et pérennes. Les communautés open source ont dissocié les revenus liés au service d’une part, de ceux potentiels liés à la vente de copies du logiciel d’autre part. Ainsi distribué gratuitement, et facilement localisé, les logiciels open-source peuvent toucher rapidement le plus grand nombre. Ouverture et gratuité facilitent une adoption large et rapide.

Des principes valables pour le développement durable ?

A-t-on intérêt à appliquer ces principes – architecture modulaire, méritocratie éclairée par le contre-pouvoir des utilisateurs, standardisation, découplage des revenus directs du produit, etc. – aux problématiques du développement durable ? Tout porte à le croire.

D’une part, nous n’avons qu’une génération pour diviser notre empreinte écologique par un facteur 4 [2]. Jamais l’humanité n’a fait face à un défi d’une telle ampleur. Pour tenir ce pari, nous devons aller plus vite que jamais auparavant dans l’histoire humaine. Le modèle d’adoption – très rapide – des logiciels libres doit donc être une source d’inspiration pour les acteurs du développement durable.

Que nous apprennent les communautés open source ? Sans standard, point de salut. La (presque) totalité des logiciels libres s’appuient sur des standards reconnus (qu’ils ont contribué à faire émerger et / ou à forger) pour s’assurer de la pérennité des développements. On touche ici au caractère « durable » des développements. Pour s’imposer dans le temps, les solutions du développement durable devront s’appuyer sur la même approche de standards ouverts. Et ce d’autant plus que les problématiques sont mondiales. Par exemple, pour être efficaces (c’est à dire économiser de l’énergie), les compteurs électriques intelligents devront tous parler le même protocole. Or, seul un protocole normalisé et ouvert sera adopté rapidement.

D’autre part, pour aboutir rapidement, ces standards devront être forgés par une méritocratie éclairée. L’échec de Copenhague l’a démontré, la recherche d’un consensus mondial est impossible en l’état. En revanche, rien n’empêche un ensemble de pays de proposer une solution pertinente, dont l’évolution sera dictée par toutes les parties prenantes.

Enfin, d’un point de vue plus philosophique, l’architecture technique d’un logiciel libre montre que ses créateurs sont « près de leurs ressources ». Ces « décroissants du logiciel » montrent à leur façon qu’une débauche de moyens n’est pas toujours nécessaire pour atteindre un objectif. En d’autres termes, le développement ne sera réellement durable que s’il ponctionne le strict minimum des ressources disponibles. Cette ascèse est déjà une règle fondamentale d’un grand nombre de projets open source.

Pour conclure, il nous semble évident que :

  • les logiciels libres constituent une réponse pertinente pour réduire l’empreinte environnementale des TIC;
  • que les modes d’organisations des communautés correspondent bien aux enjeux mondiaux du développement durable;
  • et que les principes fondamentaux des projets open source garantissent une adoption rapide et durable des solutions, un point clé des enjeux du développement durable.

Votre avis ?

Frédéric Bordage et François Letellier contribuent au blog collectif GreenIT.fr qui fédère la communauté francophone des acteurs du Green IT.

Notes

[1] Crédit photo : 416style – Creative Commons Paternité

[2] Voir « Facteur 4 » dans le glossaire pointé.




Prix unique du livre, même numérique ?

Michael Mandiberg - CC-by-sa Nouvel exemple du refus des tenants d’industries du siècle dernier de considérer l’ère du numérique (ouverte par l’informatique et Internet [1]) comme une opportunité nouvelle et non comme une menace passagère, les sénateurs examineront bientôt une proposition de loi visant à imposer une recette sociale adaptée à l’économie matérielle d’objets, au commerce que l’on qualifiait encore il y a peu de « virtuel », des œuvres numériques, disponibles en-ligne et à volonté.

Tel est en effet l’objectif de cette proposition de loi : appliquer le prix-unique du livre également sur Internet. Si, naïvement, l’idée peut sembler bonne de prime abord, puisqu’elle a sûrement contribué à sauver les petites librairies françaises, elle dénote surtout une incompréhension chronique par la classe politique et les marchants de culture, de la notion de fichier d’ordinateur, ce support numérique réplicable en un instant et sans véritable coût à l’échelle de la population mondiale.

Sans en arriver aux extrémités répressives qu’instaure la loi HADOPI II, ce nouveau mouvement législatif se traduit par une énième tentative de limitation des fantastiques possibilités d’une économie nouvelle, dans le but de la faire entrer dans le moule rassurant des précédents modèles. Ici encore, au lieu d’explorer et d’exploiter au mieux ce qu’Internet rend possible, le législateur s’entête à refuser le potentiel d’un réseau numérique mondial, en s’entêtant aveuglément à transposer avec le minimum de réflexion possible ce qui marchait bien avant. D’autres pays plus pragmatiques vivent avec le Net, s’y adaptent et connaissent (est-ce lié ?) les plus forts taux de croissance de la planète depuis ces dix dernières années, mais pendant ce temps, nos sénateurs ont à cœur de préserver les recettes du passé, quitte à gâcher, pour un temps, celles du futur.

Si le Framablog parle rarement d’économie, nous vous parlons plus régulièrement d’œuvres libres, partagées par leurs auteurs à grande échelle via Internet. Or, cette loi ignore tout simplement la question et entre en contradiction avec l’essence même des licences libres, confirmant pour le moins que si la voie est libre, la route semble encore bien longue avant que les paradigmes du libre ne soient connus, compris et reconnus en haut lieu.

À l’heure de la sortie imminente de deux nouveaux Framabooks, Framasoft se joint donc aux inquiétudes soulevées par ses partenaires Adullact et AFUL dans leur dernier communiqué commun :

Le prix unique du livre numérique doit-il s’opposer à la création libre ?

14/10/2010 – URL d’origine

L’ADULLACT et l’AFUL s’inquiètent de la proposition sénatoriale de loi sur le prix [unique] du livre numérique, dont la rédaction actuelle menace sans nécessité la création sous licence libre. Leurs représentants au CSPLA s’en expliquent dans ce communiqué.

Nous avons eu récemment connaissance de la proposition de loi faite au Sénat par Mme Catherine DUMAS et M. Jacques LEGENDRE [2] relative au prix [unique] du livre numérique.

Nous comprenons le souci de la représentation nationale de préserver la filière du livre dans le monde numérique [3], en reprenant une formule qui s’est montrée efficace pour le livre imprimé traditionnel [4].

Cependant le monde numérique n’est pas le monde des supports matériels traditionnels et, s’il pose les problèmes que nous connaissons depuis plusieurs années, notamment en ce qui concerne la multiplication des copies illicites, c’est précisément parce qu’il obéit à des lois économiques nouvelles. En un mot : une fois l’œuvre créée, la production de copies peut se faire à un coût essentiellement nul.

Cela n’implique nullement qu’il soit légitime de faire ces copies sans l’accord des titulaires des droits, mais cela implique la possibilité et, de fait, l’existence de nouveaux modèles de création et d’exploitation des œuvres, modèles qui sont tout aussi légitimes que les modèles traditionnels issus du monde de l’imprimé.

Pour ne citer qu’un exemple, l’association Sésamath produit des livres numériques "homothétiques" (selon la terminologie de l’exposé des motifs), disponibles sous licence Creative Commons By-Sa. Cette licence implique que ces livres peuvent être exploités commercialement par quiconque, quelle que soit la forme que pourrait prendre cette exploitation, mais que les livres sont toujours cédés avec cette même licence sans contrainte nouvelle. Cela exclut en particulier toute contrainte de prix, ce qui est essentiel à la dynamique de création mutualisée et de maximisation du public recherchée par les auteurs.

Il ne s’agit nullement d’un phénomène marginal, même s’il est ignoré par certains rapports officiels [5]. Les versions imprimées des livres de Sésamath représentent environ 15% du marché qui les concerne, ce qui est loin d’être négligeable. Ces œuvres participent déjà au rayonnement de la France dans plusieurs pays francophones. C’est manifestement un modèle de création qui se développe : il a d’ailleurs fait l’objet des travaux d’une Commission Spécialisée [6] du Conseil Supérieur de la Propriété Littéraire et Artistique (CSPLA) où nous siégeons tous deux.

Il y a donc tout lieu de s’inquiéter de la compatibilité de la proposition de loi avec ces nouveaux modèles.

Ainsi l’article 2 prévoit la fixation d’un prix par le diffuseur commercial. Certes, les licences ouvertes – par exemple Creative Commons By-Sa – tout en permettant la diffusion gratuite et non commerciale, n’excluent nullement la diffusion commerciale, qu’elle soit le fait des créateurs initiaux ou de tiers. Mais le principe même de ces licences est par nature exclusif de toute fixation de prix puisqu’elles sont choisies par l’auteur précisément pour donner la liberté d’en décider, sans contrôle amont de l’aval de la chaîne de diffusion.

Cette loi n’a pas l’intention, on peut l’espérer, de tuer dans l’œuf ces nouveaux modes de création et d’exploitation, ce qui ne serait guère dans l’intérêt de notre pays, des créateurs concernés ou du public. Il faut donc préciser que la fixation du prix du livre numérique ne s’applique pas aux œuvres numériques libres ou ouvertes. Cela peut être réalisé très simplement par un amendement à l’article 2.3 qui prévoit déjà quelques cas d’exemption, sans aucunement porter atteinte aux modes d’exploitation commerciale que la loi vise à encadrer, au bénéfice des titulaires de droit qui souhaitent une telle protection.

Le monde du numérique et les modèles économiques associés sont complexes et mouvants, et la prudence doit probablement prévaloir avant d’y figer quoi que ce soit. Du moins faut-il préciser avec soin quels objets sont visés par le législateur. Il nous semble important que les nouveaux modèles de création et d’exploitation aient le droit de se faire entendre au même titre que les modèles traditionnels. Il y va de la compétitivité économique et culturelle de notre pays dans un univers bouleversé par le numérique. Le meilleur témoin de l’intérêt économique et social de ces modèles est le soutien que leur apportent les collectivités territoriales par leur adhésion à l’association ADULLACT présidée par l’un de nous.

Le rapport Patino préconise [7] de "mettre en place des dispositifs permettant aux détenteurs de droits d’avoir un rôle central dans la détermination des prix". Nous ne demandons rien d’autre.

Bernard LANG
Membre titulaire du CSPLA
Vice-président de l’AFUL
bernard.lang@aful.org, +33 6 62 06 16 93

François ELIE Membre suppléant au CSPLA
Président de l’ADULLACT
Vice-Président de l’AFUL
francois@elie.org, +33 6 22 73 34 96

Notes

[1] Crédit photo : Michael Mandiberg – Creative Commons Paternité Partage à conditions initiales

[2] http://www.senat.fr/leg/ppl09-695.html

[3] Le rapport de M. Bruno Patino, sur le livre numérique http://www.culture.gouv.fr/culture/actualites/conferen/albanel/rapportpatino.pdf s’inquiéte du moyen d’étendre la loi Lang au numérique (page 45).

[4] Sur ce point, discutable, voir Mathieu Perona et Jérôme Pouyet : Le prix unique du livre à l’heure du numérique http://www.cepremap.ens.fr/depot/opus/OPUS19.pdf

[5] C’est d’autant plus regrettable que les modèles explorés par Sésamath sont cités dans le monde entier comme précurseurs et innovants.

[6] http://www.cspla.culture.gouv.fr/travauxcommissions.html, Commission sur la mise à disposition ouverte des œuvres.

[7] C’est sa quatrième recommandation.