Une journée aux HackWeeks de l’EPPLUG

EPPLUG - CC by-sa Alors, à quoi ressemblait cette fameuse semaine aux HackWeeks « automne 2010 » finalement ?

Avant de faire un bilan de cette semaine particulière et riche en échanges, consacrons déjà un billet au déroulement type d’une journées standard, au cours de cet évènement qui réunit en un même lieu 25 participants de 4 projets de développement de logiciel libre, logés, nourris et bichonnés par une bonne douzaine de bénévoles de l’association des Éleveurs de Pingouins Picards, le LUG local, célèbre pour son organisation des Rencontres Mondiales du Logiciel Libres en 2007.

D’un certain point de vue, les journées aux HackWeeks commençaient comme ça (petit clin d’œil au passage aux équipes de Seeks et Domogik, ainsi qu’au magnifique soleil matinal amiénois) :

EPPLUG - CC by-sa

Et elles se terminaient de la manière suivante :

EPPLUG - CC by-sa

Mais rassurez-vous, je suis là pour témoigner du fait qu’on était bien traités entre les deux.

D’ailleurs, pour être honnête, les journées commençaient plutôt comme ça :

EPPLUG - CC by-sa

Par un réveil matinal dans les confortables chambres individuelles (à 2 ou 4 lits), situées juste en face du CREPS d’Amiens où se déroulait l’évènement, et que l’on pouvait joindre en deux pas [1] après une bonne douche [2].

Des matinées studieuses

EPPLUG - CC by-sa

Dès 8 h 30, les premiers développeurs acharnés, d’un naturel calme et tranquille [3] se rassemblaient dans la grande salle de travail, où quatre groupes de tables avaient été aménagés pour accueillir les participants de chaque projet.

Toutefois, les développeurs étant visiblement en majorité des « couche-tard », c’est seulement vers 10 h 30 que le gros des troupes en avait fini avec le petit déjeuné, servi sous forme de buffet à volonté dans une salle à part, réservée aux repas, conviviale mais située à l’autre extrémité du long bâtiment ! Bon, objectivement c’est à peu près le seul exercice physique qu’on ait fait de la semaine, mis à part les balades rafraîchissantes pour aller du lieu de travail (le CREPS) aux lieux de rencontres avec le public (des bars en ville).

Sur place, les styles variaient beaucoup d’une table à l’autre, mais on retrouvait partout la même détermination à avancer dans le travail. Pour ce faire, l’équipement était optimal : tables, chaises, multi-prises et câbles ethernets. En creusant un peu plus, on se rendait compte, au fur et à mesure des besoins, qu’il y avait également : bloc-note et stylos à volonté, et même un tableau papier par projet. Un frêle WiFi venait dépanner lors des quelques toussotements du réseautiers du début, lorsque différentes configurations étaient appliquées à la fibre optique mise en place sur-mesure pour l’évènement et ses éditions futures.

Calme et appliquée, l’équipe Domogik qui me prêtait un coin de table a rapidement recouvert son espace de travail d’équipement domotique divers, variés et encombrants. Un nouveau dans l’équipe apprenait les rouages du logiciel, largement guidé par ses deux collègues qui avançaient sur les fonctionnalités attendues. À cette table, le silence était de mise, pour aider à la concentration et surtout pour entendre les petits claquements de relais dans les équipements branchés et en cours de test.

Un peu plus extravertie, l’équipe Seeks débattait au tableau, se répartissait les tâches et s’échangeait quelques blagues sur IRC. L’effet est d’ailleurs toujours aussi surprenant… Tout ce petit monde pianote avec l’air sérieux, et d’un coup les rires fusent, chacun s’empressant d’en rajouter une ligne au clavier 🙂

Du côté de Dolibarr, le standing n’est pas le même. On passe des chercheurs hirsutes aux auto-entrepreneurs dynamiques. Ils étaient 12, discutant, débattant de manière animée et répondant au téléphone à leurs clients. À la table Dolibarr, pour coder il fallait se concentrer. Mais justement, il n’était pas rare d’y trouver des développeurs en pleine action, intensément concentrés sur leur code, parfois même avec des écouteurs sur les oreilles et qui sursautaient si on leur posait une question.

Enfin, les NObjets étaient nettement plus discrets [4], mais tout aussi productifs.

Des déjeuners conviviaux

EPPLUG - CC by-sa

Tous les jours à partir de 12 h 30, une fois les repas du traiteurs livrés avec l’aide des bénévoles de l’EPPLUG, des volées de développeurs gagnaient la salle à manger en traversant joyeusement les couloirs du CREPS. Les repas étaient à la fois bons et légers (sauf le colombo de porc du début, qui servit de leçon pour tout le monde : pour coder efficacement toute la journée, manger léger). Ils étaient aussi très bons et nous sommes tous repartis avec quelques kilos en plus en fin de semaine.

Des après-midi efficaces

EPPLUG - CC by-sa

Sans moment de flottement le travail reprenait rapidement après le repas, avec autant de passion que le matin. Les après-midi, monotones pour un observateur, crépitaient de claviotages dans une ambiance à mi chemin entre une LAN-Party sérieuse et un open-space convivial. De temps à autre, un évènement particulier vient animer l’après midi : une séance avec vidéo-projecteur chez Dolibarr, une lampe qui s’allume enfin chez Domogik, le montage d’un studio radio sur place, la subtile reprise « scientifique », au tableau papier d’un groupe dont je tairai le nom, de la fameuse pub pour le Tonyglandil des Nuls…

Des soirées chaleureuses

Tout ce petit monde s’agitait à nouveau le soir, quelques heures après la tombée de la nuit [5], lorsque les repas arrivaient. Suivant les activités prévues par l’organisation (présentations de projet, projection de court-métrages libres, repas au restaurant…) chacun se motivait pour suivre le programme, les équipes jouant le jeu quitte à manger en avance pour arriver « à l’heure » au bon endroit. Les déplacements s’improvisaient joyeusement, mais il faut bien reconnaître à la décharge des valeureux bénévoles de l’EPPLUG qu’il n’est pas aisé de décoller un geek de son écran, alors pour réussir à en mobiliser plusieurs d’un coup pour espérer faire une navette en voiture, il faut bien du talent…

EPPLUG - CC by-sa

Les lieux de rencontre avec le public étaient spécialement décorés pour l’évènement et l’ambiance y était donc festive. Bien qu’objectivement les présentations de projet n’attirèrent pas les foules, les équipes furent bons publics les unes envers les autres, créant des moments privilégiés d’échange entre les développeurs.

Puis, la nuit avançant les effectifs s’éparpillaient pour entreprendre diverses activités, plus ou moins saines pour le lendemain, avant de finalement rejoindre les chambres du dortoir en briques par petits groupes.

EPPLUG - CC by-sa

Notes

[1] C’est une expression, il en fallait 63 par beau temps et 75 les matins de givre.

[2] Les chambres en sont équipées.

[3] Qu’on appelle aussi geeks.

[4] Enfin discrets, sauf quand la musique d’un casque poussait l’un des artistes à retranscrire avec les index un solo de batterie endiablé, porté par la force du passage, sous le regard médusé de l’assistance…

[5] Qui arrive d’un coup à 16 h en cette saison.




Dan Bull, la vérité vous rendra libre

Dan Bull CC-By-SAPlus que jamais d’actualité suite à l’annonce par WikiLeaks du début de la publication de 250 000 câbles diplomatiques américains, voici une (relativement) nouvelle chanson de Dan Bull, sous-titrée comme pour les précédents morceaux par la fine équipe : Koolfy plus Framalang.

Dan Bull – WikiLeaks et le besoin de liberté d’expression

Dan Bull – WikiLeaks and the Need for Free Speech

—> La vidéo au format webm
—> Le fichier de sous-titres




Longue vie au Web, par Tim Berners-Lee

Neal Fowler - CC By « Sir » Tim Berners-Lee, le père du Web, a livré ce week-end au magazine Scientific American, une analyse complète lucide et accessible des menaces qui pèsent aujourd’hui sur ce curieux phénomène qui depuis vingt ans a changé la face du monde : Internet.

En termes simples, Berners-Lee revient sur l’universalité de ce réseau, qui n’a pu se développer que grâces à des conditions initiales propices :

  • Une technique simple et libre, donc bidouillable par chacun dans son coin;
  • Une conception décentralisée, permettant une croissance tous azimuts;
  • Le principe de neutralité du réseau, qui permet à tous de proposer du contenu.

Or, force est de constater que ces conditions, qui ont démarqué ce que nous appelons aujourd’hui « Internet » des autres tentatives de mise en réseau à grande échelle d’ordinateurs de par le monde, sont attaquées et mises en péril par de grandes entreprises, et, presque comme une conséquence par de nombreux gouvernements. [1]

À la lecture de ce texte, on peut également se rendre compte que la France est malheureusement en bonne position parmi les gouvernements les plus hostiles au réseau, et que la HADOPI, comme un pavé jeté dans la mare, éclabousse effectivement de honte le pays des droits de l’Homme face à ses voisins. Contrastant par exemple clairement avec le droit au haut débit pour tous mis en place par la Finlande et lui aussi mentionné par Berners-Lee.

Toutefois, la principale qualité de cette riche synthèse est son ton résolument grand public, qui a mobilisé l’équipe Framalang tout un week-end pour venir à bout de la traduction des 6 pages de l’article original en moins de 48h.

Longue vie au Web ! Un appel pour le maintien des standards ouverts et de la neutralité

Long Live the Web, A Call for Continued Open Standards and Neutrality

Tim Berners-Lee – lundi 22 novembre – ScientificAmerican.com
Traduction Framalang : Goofy, Pablo, Seb seb, Misc, Siltaar

Le Web est un enjeu crucial non seulement pour la révolution numérique mais aussi pour notre prospérité — et même pour notre liberté. Comme la démocratie elle-même, il doit être défendu.

Le world wide web est venu au monde, concrètement, sur mon ordinateur de bureau à Genève en Suisse en décembre 1990. Il était composé d’un site Web et d’un navigateur, qui d’ailleurs se trouvaient sur la même machine. Ce dispositif très simple faisait la démonstration d’une idée fondamentale : n’importe qui pouvait partager des informations avec n’importe qui d’autre, n’importe où. Dans cet esprit, le Web s’est étendu rapidement à partir de ces fondations. Aujourd’hui, à son 20ème anniversaire, le Web est intimement mêlé à notre vie de tous les jours. Nous considérons qu’il va de soi, nous nous attendons à ce qu’il soit disponible à chaque instant, comme l’électricité.

Le Web est devenu un outil puissant et omniprésent parce qu’il a été conçu suivant des principes égalitaires et parce que des milliers d’individus, d’universités et d’entreprises ont travaillé, à la fois indépendamment et ensemble en tant que membres du World Wide Web Consortium, pour étendre ses possibilités en se fondant sur ces principes.

Le Web tel que nous le connaissons, cependant, est menacé de diverses façons. Certains de ses plus fameux locataires ont commencé à rogner sur ses principes. D’énormes sites de réseaux sociaux retiennent captives les informations postées par leurs utilisateurs, à l’écart du reste du Web. Les fournisseurs d’accés à Internet sans fil sont tentés de ralentir le trafic des sites avec lesquels ils n’ont pas d’accords commerciaux. Les gouvernements — qu’ils soient totalitaires ou démocratiques — surveillent les habitudes en ligne des citoyens, mettant en danger d’importants droits de l’Homme.

Si nous, les utilisateurs du Web, nous permettons à ces tendances et à d’autres encore de se développer sans les contrôler, le Web pourrait bien se retrouver fragmenté en archipel. Nous pourrions perdre la liberté de nous connecter aux sites Web de notre choix. Les effets néfastes pourraient s’étendre aux smartphones et aux tablettes, qui sont aussi des portails vers les nombreuses informations fournies par le Web.

Pourquoi est-ce votre affaire ? Parce que le Web est à vous. C’est une ressource publique dont vous, vos affaires, votre communauté et votre gouvernement dépendent. Le Web est également vital pour la démocratie, en tant que canal de communication qui rend possible une conversation globale permanente. Le Web est désormais plus crucial pour la liberté d’expression que tout autre média. Il transpose à l’âge numérique les principes établis dans la constitution des États-Unis, dans la Magna Carta britannique et d’autres textes fondateurs : la liberté de ne pas être surveillée, filtrée, censurée ni déconnectée.

Pourtant les gens semblent penser que le Web est en quelque sorte un élément naturel, et que s’il commence à dépérir, eh bien, c’est une de ces choses malheureuses contre lesquelles on ne peut rien faire. Or il n’en est rien. Nous créons le Web, en concevant les protocoles pour les ordinateurs et les logiciels. Ce processus est entièrement entre nos mains. C’est nous qui choisissons quelles caractéristiques nous voulons qu’il ait ou non. Il n’est absolument pas achevé (et certainement pas mort). Si nous voulons contrôler ce que fait le gouvernement, ce que font les entreprises, comprendre dans quel état exact se trouve la planète, trouver un traitement à la maladie d’Alzheimer, sans parler de partager nos photos avec nos amis, nous le public, la communauté scientifique et la presse, nous devons nous assurer que les principes du Web demeurent intacts — pas seulement pour préserver ce que nous avons acquis mais aussi pour tirer profit des grandes avancées qui sont encore à venir.

L’universalité est le principe fondateur

Il existe des principes-clés pour s’assurer que le Web devienne toujours plus précieux. Le premier principe de conception qui sous-tend l’utilité du Web et son développement, c’est l’universalité. Lorsque vous créez un lien, vous pouvez le diriger vers n’importe quoi. Cela signifie que chacun doit être capable de mettre tout ce qu’il veut sur le Web, quel que soit l’ordinateur, le logiciel utilisé ou la langue parlée, peu importe qu’on ait une connexion avec ou sans wifi. Le Web devrait être utilisable par des personnes handicapées. Il doit fonctionner avec n’importe quelle information, que ce soit un document ou un fragment de données, quelle que soit la qualité de l’information — du tweet crétin à la thèse universitaire. Et il devrait être accessible avec n’importe quel type de matériel connectable à Internet : ordinateur fixe ou appareil mobile, petit ou grand écran.

Ces caractéristiques peuvent paraître évidentes, allant de soi ou simplement sans importance, mais ce sont grâce à elles que vous pourrez voir apparaître sur le Web, sans aucune difficulté, le site du prochain film à succès ou la nouvelle page d’accueil de l’équipe locale de foot de votre gamin. L’universalité est une exigence gigantesque pour tout système.

La décentralisation est un autre principe important de conception. Vous n’avez nul besoin de l’approbation d’une quelconque autorité centrale pour ajouter une page ou faire un lien. Il vous suffit d’utiliser trois protocoles simples et standards : écrire une page en HTML (langage de balisage hypertextuel), de la nommer selon une norme d’URI (identifiant uniforme de ressource), et de la publier sur Internet en utilisant le protocole HTTP (protocole de transfert hypertexte). La décentralisation a rendu possible l’innovation à grande échelle et continuera de le faire à l’avenir.

L’URI est la clé de l’universalité (à l’origine j’ai appelé le procédé de nommage URI, Universal Resource Identifier – Identifiant Universel de Ressource ; par la suite il est devenu URL, Uniform Resource Locator – Localisateur Uniforme de Ressource). L’URI vous permet de suivre n’importe quel lien, indépendamment du contenu vers lequel il pointe ou de qui publie ce contenu. Les liens transforment le contenu du Web en quelque chose de plus grande valeur : un espace d’information inter-connecté.

Plusieurs menaces à l’encontre de l’universalité du Web sont apparues récemment. Les compagnies de télévision par câble qui vendent l’accès à Internet se demandent s’il faut pour leurs clients limiter le téléchargement à leurs seuls contenus de divertissement. Les sites de réseaux sociaux présentent un problème différent. Facebook, LinkedIn, Friendster et d’autres apportent essentiellement une valeur en s’emparant des informations quand vous les saisissez : votre date de naissance, votre adresse de courriel, vos centres d’intérêts, et les liens qui indiquent qui est ami avec qui et qui est sur quelle photo. Les sites rassemblent ces données éparses dans d’ingénieuses bases de données et réutilisent les informations pour fournir un service à valeur ajoutée — mais uniquement sur leurs sites. Une fois que vous avez saisi vos données sur un de ces services, vous ne pouvez pas facilement les utiliser sur un autre site. Chaque site est un silo, séparé des autres par une cloison hermétique. Oui, vos pages sur ces sites sont sur le Web, mais vos données n’y sont pas. Vous pouvez accéder à une page Web contenant une liste de gens que vous avez rassemblée au même endroit, mais vous ne pouvez pas envoyer tout ou partie de cette liste vers un autre site.

Cette compartimentation se produit parce que chaque élément d’information est dépourvu d’URI. L’interconnexion des données existe uniquement à l’intérieur d’un même site. Ce qui signifie que plus vous entrez de données, et plus vous vous enfermez dans une impasse. Votre site de réseau social devient une plateforme centrale — un silo de données fermé, qui ne vous donne pas le plein contrôle sur les informations qu’il contient. Plus ce genre d’architecture se répand, plus le Web se fragmente, et moins nous profitons d’un unique espace d’information universel.

Un effet pervers possible est qu’un site de réseau social — ou un moteur de recherche, ou un navigateur — prenne une telle ampleur qu’il devienne hégémonique, ce qui a tendance à limiter l’innovation. Comme cela s’est produit plusieurs fois depuis les débuts du Web, l’innovation permanente du plus grand nombre peut être la meilleure réponse pour contrer une entreprise ou un gouvernement quelconque qui voudrait saper le principe d’universalité. GnuSocial et Diaspora sont des projets sur le Web qui permettront à chacun de créer son propre réseau social sur son propre serveur, et de se connecter à d’autres sur leur site. Le projet Status.net, qui fait tourner des sites comme Identi.ca, vous permet de monter votre propre réseau de micro-blogage à la manière de Twitter mais sans la centralisation induite par Twitter.

Les standards ouverts sont le moteur de l’innovation

Permettre à chaque site d’être lié à n’importe quel autre est nécessaire mais pas suffisant pour que le Web ait une armature solide. Les technologies de base du Web, dont les particuliers et les entreprises ont besoin pour développer des services avancés, doivent être gratuites et sans redevance. Amazon.com, par exemple, est devenu une gigantesque librairie en ligne, puis un disquaire, puis un immense entrepôt de toutes sortes de produits, parce que l’entreprise avait un accès libre et gratuit aux standards techniques qui sous-tendent le Web. Amazon, comme tout usager du Web, a pu utiliser le HTML, l’URI et le HTTP sans avoir à en demander l’autorisation à quiconque et sans avoir à payer pour cela. La firme a pu également bénéficier des améliorations de ces standards développées par le World Wide Web Consortium, qui permettent aux clients de remplir un bon de commande virtuel, de payer en ligne, d’évaluer les marchandises achetées et ainsi de suite.

Par « standards ouverts » je veux dire des standards à l’élaboration desquels peuvent participer tous les spécialistes, pourvu que leur contribution soit largement reconnue et validée comme acceptable, qu’elle soit librement disponible sur le Web et qu’elle soit gratuite (sans droits à payer) pour les développeurs et les utilisateurs. Des standards ouverts, libres de droits et faciles à utiliser génèrent l’extraordinaire diversité des sites Web, depuis les grands noms tels qu’Amazon, Craigslist et Wikipédia jusqu’aux blogs obscurs maintenus par des passionnés, en passant par les vidéos bricolées à la maison et postées par des ados.

La transparence signifie aussi que vous pouvez créer votre site Web ou votre entreprise sans l’accord de qui que ce soit. Au début du Web, je ne devais pas demander de permission ni payer de droits d’auteur pour utiliser les standards ouverts propres à Internet, tels que le célèbre protocole de contrôle de transmission (TCP) et le protocole Internet (IP). De même, la politique de brevets libres de droits du W3C (World Wide Web Consortium) dit que les entreprises, les universités et les individus qui contribuent au développement d’un standard doivent convenir qu’ils ne feront pas payer de droits d’auteur aux personnes qui pourraient l’utiliser.

Les standards libres de droits et ouverts ne signifient pas qu’une entreprise ou un individu ne peut pas concevoir un blog ou un programme de partage de photos et vous faire payer son utilisation. Ils le peuvent. Et vous pourriez avoir envie de payer pour ça, si vous pensez que c’est « mieux » que le reste. L’important est que les standards ouverts permettent un grand nombre d’options, gratuites ou non.

En effet, de nombreuses entreprises dépensent de l’argent pour mettre au point des applications extraordinaires précisément parce qu’elles sont sûres que ces applications vont fonctionner pour tout le monde, sans considération pour le matériel, le système d’exploitation ou le fournisseur d’accés internet (FAI) que les gens utilisent — tout ceci est rendu possible par les standards ouverts du Web. La même confiance encourage les scientifiques à passer des centaines d’heures à créer des bases de données incroyables sur lesquelles ils pourront partager des informations sur, par exemple, des protéines en vue de mettre au point des remèdes contre certaines maladies. Cette confiance encourage les gouvernements des USA ou du Royaume-Uni à mettre de plus en plus de données sur le réseau pour que les citoyens puissent les inspecter, rendant le gouvernement de plus en plus transparent. Les standards ouverts favorisent les découvertes fortuites : quelqu’un peut les utiliser d’une façon que personne n’a imaginée avant. Nous le voyons tous les jours sur le Web.

Au contraire, ne pas utiliser les standards ouverts crée des univers fermés. Par exemple, le systéme iTunes d’Apple identifie les chansons et les vidéos par des URI que l’on ouvre. Mais au lieu d’« http: », les adresses commencent par « itunes: » qui est propriétaire. Vous ne pouvez accéder à un lien « itunes: » qu’en utilisant le logiciel propriétaire iTunes d’Apple. Vous ne pouvez pas faire un lien vers une information dans l’univers iTunes, comme une chanson ou une information sur un groupe. L’univers iTunes est centralisé et emmuré. Vous êtes piégés dans un seul magasin, au lieu d’être sur une place ouverte. Malgré toutes les fonctionnalités merveilleuses du magasin, leurs évolutions sont limitées par ce qu’une seule entreprise décide.

D’autres entreprises créent aussi des univers fermés. La tendance des magazines, par exemple, de produire des « applis » pour smartphone plutôt que des applications Web est inquiétante, parce que ce contenu ne fait pas partie du Web. Vous ne pouvez pas le mettre dans vos signets, ni envoyer par email un lien vers une page pointant dessus. Vous ne pouvez pas le « tweeter ». Il est préférable de créer une application Web qui fonctionnera aussi sur les navigateurs des smartphones et les techniques permettant de le faire s’améliorent en permanence.

Certaines personnes pourraient penser que les univers fermés ne sont pas un problème. Ces univers sont faciles à utiliser et peuvent donner l’impression de leur apporter tout ce dont elles ont besoin. Mais comme on l’a vu dans les années 1990 avec le système informatique bas débit d’AOL, qui vous donnait un accès restreint à un sous-ensemble du Web, ces « jardins emmurés », qu’importe qu’ils soient agréables, ne peuvent rivaliser en diversité, en profusion et en innovation avec l’agitation démente du Web à l’extérieur de leurs portes. Toutefois, si un « clôt » a une emprise trop importante sur un marché cela peut différer sa croissance extérieure.

Garder la séparation entre le Web et l’Internet

Conserver l’universalité du Web et garder ses standards ouverts aide tout le monde à inventer de nouveaux services. Mais un troisième principe — la séparation des couches — distingue la conception du Web de celle de l’Internet.

Cette séparation est fondamentale. Le Web est une application tournant sur Internet, qui n’est autre qu’un réseau électronique transmettant des paquets d’information entre des millions d’ordinateurs en suivant quelques protocoles ouverts. Pour faire une analogie, le Web est comme un appareil électroménager qui fonctionne grâce au réseau électrique. Un réfrigérateur ou une imprimante peut fonctionner tant qu’il utilise quelques protocoles standards — aux États-Unis, on fonctionne sur du 120 volts à 60 hertz. De la même façon, chaque application — parmi lesquelles le Web, les courriels ou la messagerie instantanée — peut fonctionner sur Internet tant qu’elle suit quelques protocoles standards d’Internet, tels que le TCP et l’IP.

Les fabricants peuvent améliorer les réfrigérateurs et les imprimantes sans transformer le fonctionnement de l’électricité, et les services publics peuvent améliorer le réseau électrique sans modifier le fonctionnement des appareils électriques. Les deux couches de technologie fonctionnent en même temps mais peuvent évoluer indépendamment. C’est aussi valable pour le Web et Internet. La séparation des couches est cruciale pour l’innovation. En 1990 le Web se déploie sur Internet sans le modifier, tout comme toutes les améliorations qui ont été faites depuis. À cette période, les connexions Internet se sont accélérées de 300 bits par seconde à 300 millions de bits par seconde (Mbps) sans qu’il ait été nécessaire de repenser la conception du Web pour tirer profit de ces améliorations.

Les droits de l’homme à l’âge électronique

Bien qu’Internet et les principes du Web soient distincts, un utilisateur du Web est aussi un utilisateur d’Internet et par conséquent il compte sur un réseau dépourvu d’interférences. Dans les temps héroïques du Web, il était techniquement trop difficile pour une entreprise ou un pays de manipuler le Web pour interférer avec un utilisateur individuel. La technologie nécessaire a fait des bonds énormes, depuis. En 2007, BitTorrent, une entreprise dont le protocole de réseau « peer to peer » permet de partager les musiques, les vidéos et d’autres fichiers directement sur Internet, a déposé une plainte auprès de la FCC (commission fédérale des communications) contre le géant des fournisseurs d’accès Comcast qui bloquait ou ralentissait le trafic de ceux qui utilisaient l’application BitTorrent. La FCC a demandé à Comcast de cesser ces pratiques, mais en avril 2010 la cour fédérale a décidé que la FCC n’avait pas le droit de contraindre Comcast. Un bon FAI (Fournisseur d’Accès Internet) qui manque de bande passante s’arrangera souvent pour délester son trafic de moindre importance de façon transparente, de sorte que les utilisateurs soient au courant. Il existe une différence importante entre cette disposition et l’usage du même moyen pour faire une discrimination.

Cette différence met en lumière le principe de la neutralité du réseau. La neutralité du réseau garantit que si j’ai payé pour une connexion d’une certaine qualité, mettons 300 Mbps, et que vous aussi vous avez payé autant, alors nos communications doivent s’établir à ce niveau de qualité. Défendre ce principe empêcherait un gros FAI de vous transmettre à 300 Mbps une vidéo venant d’une société de média qu’il posséderait, tandis qu’il ne vous enverrait la vidéo d’une société concurrente qu’à une vitesse réduite. Cela revient à pratiquer une discrimination commerciale. D’autres situations complexes peuvent survenir. Que se passe-t-il si votre FAI vous rend plus facile l’accès à une certaine boutique en ligne de chaussures et plus difficile l’accès à d’autres ? Ce serait un moyen de contrôle puissant. Et que se passerait-il si votre FAI vous rendait difficile l’accès à des sites Web de certains partis politiques, de groupes à caractère religieux, à des sites parlant de l’évolution ?

Hélas, en août Google et Verizon ont suggéré pour diverses raisons que la neutralité ne doit pas s’appliquer aux connexions des téléphones portables. De nombreuses personnes dans des zones rurales aussi bien dans l’Utah qu’en Ouganda n’ont accés à l’Internet que par leur téléphone mobile. Exclure les accès sans fil du principe de neutralité laisserait ces utilisateurs à la merci de discriminations de service. Il est également bizarre d’imaginer que mon droit fondamental d’accés à la source d’information de mon choix s’applique quand je suis sur mon ordinateur en WiFi à la maison, mais pas quand j’utilise mon téléphone mobile.

Un moyen de communication neutre est la base d’une économie de marché juste et compétitive, de la démocratie et de la science. La polémique est revenue à l’ordre du jour l’année dernière pour savoir s’il est nécessaire qu’une législation gouvernementale protège la neutralité du réseau. C’est bien le cas. Même si généralement Internet et le Web se développent grâce à une absence de régulation, quelques principes fondamentaux doivent être protégés légalement.

Halte à l’espionnage

D’autres menaces envers le web résultent d’indiscrétions touchant Internet, ce qui inclut l’espionnage. En 2008, une entreprise du nom de Phorm a mis au point un moyen pour un FAI de fouiner dans les paquets d’informations qu’il envoie. Le fournisseur peut alors déterminer chaque URI sur laquelle un de ses clients a surfé, et ensuite créer un profil des sites que l’utilisateur a visités afin de produire des publicités ciblées.

Accéder à l’information contenue dans un paquet Internet est équivalent à mettre un téléphone sur écoute ou ouvrir le courrier postal. Les URI que les gens utilisent révèlent beaucoup de choses sur eux. Une entreprise ayant acheté les profils URI de demandeurs d’emploi pourrait les utiliser pour faire de la discrimination à l’embauche sur les idées politiques des candidats par exemple. Les compagnies d’assurance-vie pourraient faire de la discrimination contre les personnes qui ont fait des recherches concernant des symptômes cardiaques sur le Web. Des personnes mal intentionnées pourraient utiliser les profils pour traquer des individus. Nous utiliserions tous le Web de façon très différente si nous savions que nos clics pouvaient être surveillés et les données ainsi obtenues partagées avec des tierces personnes.

La liberté d’expression devrait être elle aussi protégée. Le Web devrait être semblable à une feuille de papier blanche : disponible pour y écrire, sans qu’on puisse contrôler ce qui y est écrit. Au début de cette année Google a accusé le gouvernement chinois d’avoir piraté ses bases de données pour récupérer les courriels des dissidents. Ces intrusions supposées ont fait suite au refus de Google d’obéir aux exigences du gouvernement, qui demandait à l’entreprise de censurer certains documents sur son moteur de recherche en langue chinoise.

Les régimes totalitaires ne sont pas les seuls qui violent les droits du réseau de leurs citoyens. En France une loi créée en 2009, appelée HADOPI, autorise une administration du même nom à déconnecter un foyer pendant un an si quelqu’un dans la maison est accusé par une compagnie de distribution de médias d’avoir téléchargé de la musique ou des vidéos. Suite à une forte opposition, en octobre le Conseil constitutionnel français a demandé qu’un juge soit saisi du dossier avant que l’accès à Internet ne soit coupé, mais si le juge l’accepte, le foyer familial pourra être déconnecté sans procédure légale digne de ce nom. Au Royaume-Uni, le Digital Economy Act, hâtivement voté en avril, autorise le gouvernement à demander à un FAI (Fournisseur d’Accès Internet) d’interrompre la connexion de quiconque figure dans une liste d’individus soupçonnés de violation de copyright. En septembre, le Sénat des États-Unis a introduit le Combating Online Infringement and Counterfeits Act (loi pour lutter contre la délinquance en ligne et la contrefaçon), qui devrait permettre au gouvernement de créer une liste noire de sites Web — qu’ils soient ou non hébergés aux USA — accusés d’enfreindre la loi, et d’obliger tous les FAI à bloquer l’accès des-dits sites.

Dans de tels cas de figure, aucune procédure légale digne de ce nom ne protège les gens avant qu’ils ne soient déconnectés ou que leurs sites soient bloqués. Compte-tenu des multiples façons dont le Web s’avère essentiel pour notre vie privée et notre travail, la déconnexion est une forme de privation de notre liberté. En s’inspirant de la Magna Carta, nous pourrions maintenant proclamer :

« Aucun individu ni organisation ne pourra être privé de la possibilité de se connecter aux autres sans une procédure légale en bonne et due forme qui tienne compte de la présomption d’innocence. »

Lorsque nos droits d’accès au réseau sont violés, un tollé général est déterminant. Les citoyens du monde entier se sont opposés aux exigences de la Chine envers Google, à tel point que la Secrétaire d’état Hillary Clinton a déclaré que le gouvernement des États-Unis soutenait la résistance de Google et que la liberté de l’Internet — et avec elle celle du Web — allait devenir une pièce maîtresse de la politique étrangère américaine. En octobre, la Finlande a fait une loi qui donne le droit à chaque citoyen d’avoir une connexion à haut débit de 1 Mbps.

Connexion vers l’avenir

Tant que les principes fondamentaux du Web seront maintenus, son évolution ultérieure ne dépendra d’aucun individu ni d’aucune organisation particulière — ni de moi, ni de personne d’autre. Si nous pouvons en préserver les principes, le Web est promis à un avenir extraordinaire.

La dernière version du HTML par exemple, intitulée HTML5, n’est pas simplement un langage de balisage mais une plateforme de programmation qui va rendre les applications Web encore plus puissantes qu’elles ne le sont aujourd’hui. La prolifération des smartphones va mettre le Web encore plus au cœur de nos vies. L’accès sans fil donnera un avantage précieux aux pays en développement, où beaucoup de gens n’ont aucune connexion filaire ou par câble mais peuvent en avoir sans fil. Il reste encore beaucoup à faire, bien sûr, y compris en termes d’accessibilité pour les personnes handicapées, et pour concevoir des pages qui s’afficheront aussi bien sur tous les écrans, depuis le mur d’images géantes en 3D jusqu’à la taille d’un cadran de montre.

Un excellent exemple de futur prometteur, qui exploite la puissance conjuguée de tous ces principes, c’est l’interconnexion des données. Le Web d’aujourd’hui est relativement efficace pour aider les gens à publier et découvrir des documents, mais nos programmes informatiques ne savent pas lire ni manipuler les données elles-mêmes au sein de ces documents. Quand le problème sera résolu, le Web sera bien plus utile, parce que les données concernant presque chaque aspect de nos vies sont générées à une vitesse stupéfiante. Enfermées au sein de toutes ces données se trouvent les connaissances qui permettent de guérir des maladies, de développer les richesses d’un pays et de gouverner le monde de façon plus efficace.

Les scientifiques sont véritablement aux avants-postes et font des efforts considérables pour inter-connecter les données sur le Web. Les chercheurs, par exemple, ont pris conscience que dans de nombreux cas un unique laboratoire ou un seul dépôt de données en ligne s’avèrent insuffisants pour découvrir de nouveaux traitements. Les informations nécessaires pour comprendre les interactions complexes entre les pathologies, les processus biologiques à l’œuvre dans le corps humain, et la gamme étendue des agents chimiques sont dispersées dans le monde entier à travers une myriade de bases de données, de feuilles de calcul et autres documents.

Un expérience réussie est liée à la recherche d’un traitement contre la maladie d’Alzheimer. Un grand nombre de laboratoires privés ou d’état ont renoncé à leur habitude de garder secrètes leurs données et ont créé le projet Alzheimer’s Disease Neuroimaging. Ils ont mis en ligne une quantité phénoménale d’informations inter-connectées sur les patients, ainsi que des scanners cérébraux, une base dans laquelle ils ont puisé à maintes reprises pour faire progresser leurs recherches. Au cours d’une démonstration dont j’ai été témoin, un scientifique a demandé : « quelles protéines sont impliquées dans la transduction des signaux et sont liées aux neurones pyramidaux ? ». En posant la question avec Google, on obtenait 233 000 résultats — mais pas une seule réponse. En demandant aux bases de données inter-connectées du monde entier pourtant, on obtenait un petit nombre de protéines qui répondaient à ces critères.

Les secteurs de l’investissement et de la finance peuvent bénéficier eux aussi des données inter-connectées. Les profits sont générés, pour une grande part, par la découverte de modèles de recherche dans des sources d’informations incroyablement diversifiées. Les données sont également toutes liées à notre vie personnelle. Lorsque vous allez sur le site de votre réseau social et que vous indiquez qu’un nouveau venu est votre ami, vous établissez une relation. Et cette relation est une donnée.

Les données inter-connectées suscitent un certains nombre de difficultés que nous devrons affronter. Les nouvelles possibilités d’intégration des données, par exemple, pourraient poser des problèmes de respect de la vie privée qui ne sont pratiquement pas abordés par les lois existantes sur le sujet. Nous devrions examiner les possibilités légales, culturelles et techniques qui préserveront le mieux la vie privée sans nuire aux possibilités de bénéfices que procure le partage de données.

Nous sommes aujourd’hui dans une période enthousiasmante. Les développeurs Web, les entreprises, les gouvernements et les citoyens devraient travailler ensemble de façon collaborative et ouverte, comme nous l’avons fait jusqu’ici, pour préserver les principes fondamentaux du Web tout comme ceux de l’Internet, en nous assurant que les processus techniques et les conventions sociales que nous avons élaborés respectent les valeurs humaines fondamentales. Le but du Web est de servir l’humanité. Nous le bâtissons aujourd’hui pour que ceux qui le découvriront plus tard puissent créer des choses que nous ne pouvons pas même imaginer.

Notes

[1] Crédit photo : Neal Fowler – Creative Commons By




Les cordons de la bourse de Londres se relâchent pour GNU/Linux

Jam_90s - CC-ByComme nous l’apprenait Lea-Linux le mois dernier :

GNU/Linux progresse sur les environnements dits critiques. On savait qu’il était utilisé sur les serveurs sensibles des militaires, des grands organismes de recherche, de la NASA et de nombreux industriels, ajoutons désormais le monde de la finance à cette liste. En effet, Computer World UK nous apprend que la Bourse de Londres mettra en production le 15 novembre prochain sa nouvelle plate-forme à base de GNU/Linux et Solaris, pour remplacer la plate-forme boguée « TradElect » basée sur Microsoft Windows, et la technologie .Net manifestement trop lente.

GNU/Linux a notamment été choisi par les britanniques pour ses performances (des temps de transmission de 0,125 milliseconde ont été enregistrés lors des tests). Le fait que le Chicago Mercantile Exchange, la Bourse de Tokyo et le NYSE Euronext soient déjà passés à GNU/Linux (Red Hat) n’y est sans doute pas pour rien non plus.

[1]

La Bourse de Londres a réalisé un premier test de sa plateforme « Millennium Exchange » basée sur Linux

London Stock Exchange completes first live Linux test

Leo King – 13 octobre 2010 – Computerworld UK
Traduction Framalang : Pablo, Barbidule, Siltaar, Kootox, Goofy, Petrus6, Martin, Don Rico, Daria

La Bourse de Londres a fait le premier test grandeur nature, avec des clients en ligne, d’un nouveau système fondé sur Linux et destiné à remplacer l’architecture actuelle basée sur des produits Microsoft et qui permettra d’échanger à la vitesse de 0.125 millisecondes.

Le système « Millennium Exchange » fonctionnant sur Linux et sur Unix (Sun Solaris) et utilisant les bases de données d’Oracle, remplacera le 1er novembre la plateforme TradElect, reposant sur Microsoft .Net, pour la plus grande bourse au monde. Il promet d’être le système d’échanges le plus rapide du monde, avec un temps de transaction de 0.125 milliseconde. La Bourse a terminé la migration de son système de gestion des transactions stagnantes/dormantes, ou anonymes, Turquoise, depuis différents systèmes, plus tôt ce mois-ci.

La BDL (Bourse De Londres) a refusé de dévoiler le verdict du test en avant-première du « Millenium Exchange », qui s’est déroulé samedi après plusieurs mois de tests hors ligne intensifs. Cependant, des sources proches de la Bourse ont indiqué qu’il se serait déroulé avec succès.

Une autre répétition générale aura lieu le 23 octobre, un peu plus d’une semaine avant le lancement dans le grand bain. La Bourse pousse pour lancer le service le 1er novembre, mais si les clients, les traders, ne sont pas prêts ou si des problèmes techniques apparaissent, une date de lancement alternative a été prévue au 15 novembre.

En attendant, la Bourse va continuer à travailler avec le système TradElect, basé sur une architecture Microsoft .Net et mis à jour par Accenture en 2008 pour 40 millions de livres (46 millions d’Euros). En juillet, elle a réservé 25,3 millions de livres (29,2 millions d’Euros) en coûts d’amortissement sur TradElect.

TradElect, sujet de nombreuses controverses ces dernières années, avait subi une série de pannes de grande envergure, la pire étant un arrêt de huit heures en 2008. À l’époque, la BDL avait maintenu que TradElect n’était pas responsable de la panne, mais a néanmoins, tenté de remplacer la plateforme depuis, en faisant l’acquisition de la société MilleniumIT, le fournisseur de ce nouveau système.

Les vitesses réseau sont aussi une des raisons principales de ce changement. La BDL a tenté désespérément de descendre les temps de transaction sur TradElect en-dessous des 2 millisecondes, une vitesse léthargique comparée à la concurrence comme Chi-X qui annonce des temps de moins de 0,4 millisecondes.

La BDL annonce que sa nouvelle plateforme d’échange aura des temps de réponse de 0,125 millisecondes, ce qui pourrait en faire une des plateformes d’échange les plus rapides du monde. Le changement est particulièrement important étant donné la progression des transactions algorithmiques, où des ordinateurs placent automatiquement des millions d’ordres d’achat et de vente alors que les prix des actions changent.

Lors d’une interview cette semaine dans le Financial Times, le directeur général de la Bourse de Londres, Xavier Rolet a déclaré que la Bourse avait « déjà prévu » la prochaine génération d’améliorations technologiques pour maintenir la plateforme Millenium à la pointe de la technologie en terme de vitesse de transaction.

Notes

[1] Crédit photo : Jam_90s Creative Commons By




TF1 réclame (sans rien risquer) Google censure (sans vérifier)

Vidberg © LeMonde.fr Sur le Framablog, on ne manque pas une occasion d’agir contre la censure, ou de publier le témoignage d’un citoyen s’élevant contre les menaces et restrictions faites à nos libertés fondamentales [1]. Parce qu’après tout, et comme me le fit un soir remarquer Benjamin Bayart, qu’est-ce qui nous motive tous dans le mouvement du Logiciel Libre ? Et dans la défense de la neutralité du réseau qui lui est indispensable ? Qu’est-ce qui nous réunit, si ce n’est la liberté d’expression ? Cette petite flamme fragile et dangereuse qui vacille au souffle du pouvoir et nécessite, pour être entretenue, notre attention constante.

Le témoignage que nous vous proposons aujourd’hui est celui de Theocrite, un « administrateur système » engagé pour le Logiciel Libre, qui nous explique comment TF1 [2] a silencieusement fait censurer par Google un extrait vidéo de débat à l’Assemblée Nationale.

On savait déjà que certains n’hésitent pas à attaquer, en vertu du Copyright de sa bande son, une vidéo compromettante, au mépris du « fair-use » largement accordé aux vidéos de lolcats. Mais cet extrait, posté par La Quadrature du Net, n’a lui pour seule bande son que le discours à l’Assemblée des députés de la République. Cela n’a pourtant pas arrêté TF1 [3] dans son coup de poker, son nouveau coup de poignard dans le dos de l’éthique et de notre liberté d’information.

Cette vidéo, c’est celle du rejet intégral par l’Assemblée Nationale du projet de loi HADOPI 1 le 9 avril 2009, et, pour illustrer le principe selon lequel une tentative de censure s’avère toujours contre-productive pour le censeur, la voici, archivée dans notre collection Framatube :

—> La vidéo au format webm

TF1 censure des vidéos HADOPI sur YouTube

Et Google ne vérifie pas la véracité des accusations

Theocrite – 1er novembre 2010

En me promenant sur le compte YouTube de la Quadrature du Net, j’ai découvert récemment dans les paramètres du compte que certaines vidéos étaient listées comme pouvant « comporter un contenu appartenant à un tiers ».

Theocrite - CC By Sa

Hm, c’est possible… Intrigué, je clique sur le lien proposé et je m’aperçois que la vidéo en question est la vidéo du rejet de la loi HADOPI l’Assemblée Nationale.

Theocrite - CC By Sa

Bigre ! Voilà que des vidéos contenant des discours « prononcés dans les assemblées politiques » serait en contradiction avec le droit d’auteur. Voilà qui est bien étrange.

Pour en savoir plus, je clique sur « Afficher les informations sur les droits d’auteur ».

Theocrite - CC By Sa

On y apprend des choses très intéressantes… Comme le fait que les vidéos produites dans l’hémicycle seraient la propriété de « lgl_tf1 ». Un peu présomptueux de la part de la vieille chaîne qui descend.

Bon, portons réclamation. Après avoir lu une page chiante à mourir, on accède à un formulaire de réclamation, fortement limité, mais je suis décidé à faire avec.

Theocrite - CC By Sa

Theocrite - CC By Sa

Je fais alors subtilement remarquer que dans la législation française, les débats politiques sont publics… Puis je valide l’envoi du formulaire.

Theocrite - CC By Sa

Le lendemain, je constate que j’ai obtenu gain de cause : la vidéo est débloquée. Mais pour combien de temps ? Google n’a pas pris la peine de nous notifier que la vidéo était à nouveau disponible. On pouvait toujours attendre en relevant notre boîte mail.

Theocrite - CC By Sa

Bilan

Google est réactif, mais pas spécialement poli. Pas de notifications lors du blocage de la vidéo, ni lors du déblocage.

La vidéo a été bloquée pendant un certain temps. Combien de temps ? Aucune idée. Mais TF1 a tenté et a réussi à faire censurer la vidéo, peu importe combien de temps, et ce sans rien risquer. C’est un jeu permanent dans lequel les plaignants ne peuvent pas perdre et les internautes ne peuvent pas gagner.

Ce n’est pas une nouvelle, pour TF1 quand il s’agit d’HADOPI, tous les moyens sont bons pour supporter la loi. Que ce soit en inventant un plébiscite lors d’un vote, en censurant son rejet comme nous venons de le voir ou encore en s’occupant des « salariés qui, manifestement, aiment tirer contre leur camp. »

Mais sur YouTube, TF1 ne s’arrête pas à HADOPI. TF1 sort le bulldozer. Je vous invite à rechercher lgl_tf1 dans un moteur de recherche. Celui de nos amis possesseurs de YouTube par exemple, ou bien sur un moteur de recherche libre, vous y trouverez des réactions unanimes d’Internautes énervés, soit parce que lgl_tf1 a bloqué des vidéos de France 2. Soit parce que TF1 a bloqué des vidéos sur lesquelles elle a acquis les droits de diffusions pour une certaine partie du monde, et se passe de demander aux auteurs s’ils autorisent cette rediffusion.

Notes

[1] Telles que garanties par la déclaration des droits de l’Homme et du citoyen, et rappelées par le « considérant n°12 » de la décision n°2009-580 DC du 10 juin 2009 du Conseil Constitutionnel concernant HADOPI 1 par exemple.

[2] Crédit première illustration : Vidberg © LeMonde.fr, reproduite avec l’aimable autorisation de l’auteur. Licence équivalente à une CC-By-NC-ND avec autorisation préalable requise.

[3] Ou peut-être un imposteur, que le chaîne laisserait agir « en son nom » depuis plus de deux ans.




Petites précisions sur les licences Creative Commons par Nina Paley

Nina Paley - CC-By-SaLes licences Creative Commons sont flexibles et puissantes. Extension naturelle de la GPL [1] à autre chose que du logiciel 10 ans plus tard, ce jeu de licences se présente comme le couteau suisse du droit d’auteur, déclinable en 6 versions de bases, plus quelques fantaisies récentes. Il en résulte que quelque soit votre envie, une déclinaison de licence Creative Commons devrait y répondre, seulement le résultat ne sera pas forcément « libre », une CC-By-NC-ND ne permettant par exemple pas de remixer une œuvre. Une autre conséquence est que la mention « Creative Commons » sans autre indication n’a pas de sens.

Malheureusement, cette flexibilité et cette richesse de possibilités semblent bien souvent perdre les créateurs de tout poils désireux de remixer des œuvres libres sans prendre le temps d’en comprendre le fonctionnement. C’est en tout cas ce que constate sur Nina Paley sur son blog, en proposant sa solution au problème.

Nina Paley - CC-By-SaEn quelques mots, Nina Paley c’est cette jeune cinéaste américaine, qui, suite à une mésentente avec les ayants droits de la bande son d’une œuvre qu’elle remixait avec brio dans son long métrage « Sita chante le blues » décida, après avoir été primée le Festival international du film d’animation d’Annecy, de libérer son film en Creative Commons By Sa.

Enthousiasmée par la Culture Libre qu’elle découvrait à cette occasion, elle n’a cessé depuis d’alimenter des blogs dédiés à ce mouvement, gagnant sa vie par des conférences et des produits dérivés.

Toutefois, il semblerait bien que la solution proposée par Nina Paley ne soit qu’un premier tâtonnement vers… la Licence Art Libre du collectif Copyleft Attitude. Cette licence sans ambiguïté, approuvée par l’OSI et recommandée par la FSF. D’ailleurs n’hésitez pas à en présenter la version anglaise à Nina, elle vous en remerciera.

La confusion des licences Creative Commons

Le fléau de mon existence

Creative Commons’ Branding Confusion

Nina Paley – 10 octobre 2010 – Blog.NinaPaley.com
Traduction Framalang : KooToX, Julien Reitzel, Siltaar

Il y a environ un an et demi, j’ai publié mon film « Sita chante le blues » sous la licence Creative Commons « By Sa » (Paternité – Partage à l’identique). Cette licence permet une vraie distribution libre, incluant l’usage commercial, tant que la licence libre reste en place. Mais d’après mon expérience, la plupart des gens voient les mots “Creative Commons” et pensent que la licence exclue les utilisations commerciales « Non-Commercial » – car la majorité des licences Creative Commons rencontrées interdisent en pratique l’usage commercial de l’œuvre protégée.

C’est un vrai problème. Des artistes ont redistribué des remixes de « Sita » sous la licence Creative Commons « NC ». De nombreux blogueurs et journalistes préjugent des restrictions d’usage commercial, même si la licence est bien nommée :

« Le film a été rendu public sous les termes de la licence Creative Commons By Sa, permettant à d’autres personnes de partager l’œuvre pour des utilisations non commerciales librement, tant que l’auteur de l’œuvre est bien crédité », d’après Frontline, un magazine indien national.

Au début, j’ai essayé d’expliquer ce que « Partage à l’identique » signifiait aux personnes qui remixaient « Sita » en CC-NC, en leur demandant gentiment de revenir à la licence originale, comme voulu par la licence Creative Commons « Partage à l’identique » sous laquelle je l’avais distribué. Je me suis sentie bête, je ne veux pas jouer les flics du droit d’auteur. Au bout d’un moment, les mauvaises identifications de la licence du projet étaient si nombreuses que j’ai arrêté d’essayer de les corriger. « Creative Commons » signifie « pas d’utilisation commerciale » pour la plupart des gens. Se battre contre est une tâche sisyphéenne.

Donc me voilà bloquée avec un problème représentation. Tant que j’utiliserai une licence Creative Commons quelle qu’elle soit, la plupart des gens penseront que j’interdis l’utilisation commerciale des remix de mon œuvre. Presque personne ne semble utiliser, et encore moins essayer de comprendre, la licence CC-SA. Pire, ceux qui remarquent l’option « partage à l’identique » la combinent aux restrictions « pas d’utilisation commerciale » dans leurs rééditions, ce qui ajoute à la confusion (CC-NC-SA est la pire des licences imaginables).

Le partage à l’identique est une solution imparfaite aux restrictions du droit d’auteur, parce qu’il impose lui-même une restriction, qui est l’interdiction d’imposer d’autres restrictions par la suite. C’est une tentative d’utiliser le droit d’auteur contre lui-même. Tant que nous vivrons dans un monde dans lequel tout est protégé par défaut, j’utiliserai le partage à l’identique ou d’autres équivalents Copyleft, pour essayer de maintenir un « espace libre de droit d’auteur » autour des mes œuvres. Dans un monde meilleur, il n’y aurait pas de droit d’auteur automatique et par conséquent aucune nécessité pour moi d’utiliser une quelconque licence. Si cette utopie se réalisait, je supprimerais toutes les licences accolées à mes propres œuvres. En attendant, j’essaye de limiter les droits des gens à limiter les droits des autres.

Il serait bien que l’organisation Creative Commons fasse quelque chose pour remédier à cette confusion d’image. Pour cela, nous avons proposé de renommer les licences « partage à l’identique » en CC-PRO [2], mais étant donné que la base la plus large des Creative Commons est constituée d’utilisateurs de licences sans utilisation commerciale, il semble peu probable (mais pas impossible !) qu’ils distinguent leur véritable licence Copyleft avec une étiquette « pro ».

Nina Paley - CC-By-Sa

Si seulement Creative Commons offrait cela !

Il serait aussi bien que tout le monde, y compris les représentants de l’organisation Creative Commons, fassent référence aux licences par leur nom, plutôt qu’un simple « Creative Commons ». « Merci d’utiliser une licence Creative Commons », m’ont-ils dit. De rien ; Je vous remercierais d’en parler comme d’une licence « partage à l’identique ». Quasiment tous les journalistes font allusion aux 7 licences en parlant de « licences Creative Commons ». Ainsi, dans l’imaginaire populaire, ma licence « partage à l’identique » n’est pas différente d’une licence CC-NC-ND « pas d’utilisation commerciale, pas de modification ».

Cette crise d’image a atteint un pic récemment quand la société Radio-Canada a interdit toutes les musiques sous licences Creative Commons dans leurs émissions :

« Le problème avec notre utilisation de musique Creative Commons est qu’une grande quantité de nos contenus est facilement disponible sur une multitude de plateformes, certaines d’entre elles étant réputées être « commerciales » par nature (par exemple, streaming avec publicités imposée en préalable, ou les téléchargements payants sur iTunes) et qu’actuellement une grande majorité de la musique disponible sous une licence Creative Commons interdit toute utilisation commerciale.

Afin d’assurer que nous continuons d’être en conformité avec les lois Canadiennes en vigueur concernant le droit d’auteur, et étant donné le manque d’un large éventail de musique possédant une licence Creative Commons permettant l’utilisation commerciale, nous avons pris la décision d’utiliser la musique de notre bibliothèque de production dans nos podcasts car à cette musique sont liés les droit d’utilisation appropriés. » [lien]

L’organisation Creative Commons veut obtenir de la SRC qu’elle sépare ses différentes licences. Elle pourrait apporter de l’aide en commençant par appeler ses différentes licences par leur nom. Si l’organisation Creative Commons elle-même les appelle toutes « licences Creative Commons », comment peut-elle attendre des autres qu’ils distinguent ces licences les unes des autres ?

En attendant, je me demande comment communiquer clairement que mon œuvre est COPYLEFT. En plus de la licence CC-SA, s’il y a de la place j’écris « GAUCHE D’AUTEUR, TOUS TORTS RENVERSÉS ». Malheureusement, le terme « Copyleft » est lui aussi de plus en plus vidé de son sens. Par exemple, le meilleur film de Brett Gaylor « RIP : A Remix Manifesto » dit plein de choses justes, mais il comprend et utilise incorrectement le terme « Copyleft ». Le « Copyleft » c’est :

«  possibilité donnée par l’auteur d’un travail soumis au droit d’auteur (œuvre d’art, texte, programme informatique, etc.) de copier, d’utiliser, d’étudier, de modifier et/ou de distribuer son œuvre dans la mesure où ces possibilités restent préservées.

L’auteur n’autorise donc pas que son travail puisse évoluer avec une restriction de ce droit à la copie, ce qui fait que le contributeur apportant une modification (une correction, l’ajout d’une fonctionnalité, une réutilisation d’une oeuvre d’art, etc.) est contraint de ne redistribuer ses propres contributions qu’avec les mêmes conditions d’utilisation. Autrement dit, les créations réalisées à partir d’éléments sous copyleft héritent de cette caractéristique. » – Wikipédia

Mais dans RIP ça signifie :

Nina Paley - CC-By-Sa

Vous voyez ce symbole dollar barré ? Ça signifie qu’il y a des restrictions « pas d’utilisation commerciale », qui sont incompatibles avec le Copyleft.

Nina Paley - CC-By-Sa

NC comme « Non Copyleft »

Quelqu’un qui rencontrera le mot « Copyleft » dans ce film ne saura pas ce que ça signifie finalement en termes de licence.

J’ai besoin d’une licence que les gens comprennent. Je suis tenté par la « WTFPL » (abréviation du nom anglais « Do What The Fuck you want to Public License », traduite en « Licence Publique Rien À Branler ») mais je devrais la forker pour y ajouter une clause « Copyleft ». La « Licence Publique Rien À Branler Mais N’Empêchez Pas Les Autres De Faire Ce Qu’Ils En Veulent ? » RBMNPAFV ?

Y a-t-il ailleurs d’autres licences Copyleft utilisables et qui ne sont pas associées à des restrictions non-commerciales ? Je suis ouverte aux suggestions.

Proposition de CC-PRO

Le travail professionnel mérite d’être reconnu.

CC-PRO est une licence Creative Commons conçue spécifiquement pour les professionnels : auteurs, artistes, musiciens. CC-PRO utilise la licence Creative Commons la plus puissante, pour assurer que les travaux de qualité soient transmis et reconnus comme partageables. Elle offre la meilleure protection contre le plagiat et la censure. Elle attire l’attention et invite à la collaboration et la reconnaissance de votre audience la plus importante : les autres professionnels.

Meilleure protection contre :
Le plagiat
La censure
Une exploitation abusive

Promeut :
La paternité de l’œuvre
Vos revenus
La pérennité de l’œuvre
Sa distribution
La collaboration avec d’autres professionnels

Le travail professionnel mérite d’être reconnu. Utilisez la CC-PRO.

Nina Paley - CC-By-SA

Notes

[1] La licence logicielle écrite par Richard Stallman et Eben Moglen qui formalisa la notion de logiciel « libre » en 1989.

[2] Traduite en dernière partie de ce billet.




Stallmania, la comédie musicale participative de Framasoft

Après LL de Mars, Gee et Harrypopof, Odysseus a tenu lui aussi à illustrer, avec humour, la campagne “1000 10 1” qui décidera du sort de l’association.

Et pour se dérider un peu en ces temps de crise, il a imaginé une nouvelle version de la comédie musicale Starmania, pourtant encore terriblement d’actualité 32 ans après sa sortie… Un peu plus geek que l’originale, la nouvelle version d’Odysseus a l’avantage de témoigner de 30 années de développement de l’informatique et du logiciel libre ! [1] [2]

Stallmania - Odysseus - Licence Art Libre

D’ailleurs, je vous invite à poster vos propres titres en commentaire !

Notes

[1] Crédit : Odysseus – Licence Art Libre

[2] PS d’Odysseus : Notez que l’image de Richard Stallman a été proposée sur Openclipart par casifish




FramaDVD Ecole : des ressources libres pour l’école primaire

FramaDVD EcoleDans la série « projets Framasoft », je voudrais le FramaDVD. Et plus exactement le « FramaDVD École ».

Rappel : le FramaDVD est une compilation des meilleurs logiciels libres pour Windows, sélectionnés par Framasoft, auxquels nous avions ajouté le liveCD Ubuntu, ainsi que de très nombreuses ressources libres (textes, vidéos, musiques, photos, etc) afin de montrer que la culture libre allait aujourd’hui bien plus loin que le logiciel libre. Co-réalisé avec une équipe d’étudiants aussi dynamiques que sympathiques, ce DVD 100% libre a été largement diffusé depuis sa sortie (en septembre 2009). Une mise à jour est d’ailleurs prévue pour les prochaines semaines.

Mais l’un des avantages du 100% libre, c’est entre autre la possibilité de décliner un projet libre existant pour l’adapter à différents besoins.

Et c’est ce qui s’est passé avec le FramaDVD École. Cyrille Largillier, directeur et professeur des écoles, membre déjà très actif du projet Framakey, s’est proposé de créer un DVD destiné à favoriser l’usage des TUIC à l’école primaire. Et, pour joindre l’utile à l’agréable, favoriser l’usage des logiciels et de la culture libre dans ces mêmes écoles.

—> La vidéo au format webm

En plus d’un projet libre, il s’agit bien là d’un projet collaboratif. Il a en effet été conçu avec l’aide d’autres communautés. Notamment :

  • ASRI Education : pour l’intégration de sa distribution GNU/Linux particulièrement légère, adaptée aux enfants et aux adultes ;
  • EducOO : pour l’intégration d’OOo4kids, une suite bureautique dérivée d’OpenOffice, elle aussi adaptée aux enfants, dont nous vous avions déjà parlé ici ;
  • Okawix (ou plus exactement la société Linterweb, qui a développé le logiciel libre Okawix) : grâce à Okawix, le FramaDVD École intègre l’excellente encyclopédie pour enfants Vikidia, en version hors ligne, pour les écoles ou les foyers où Internet n’est pas ou peu disponible.

Après plusieurs mois de travaux, nous sommes donc fiers de vous annoncer la naissance du FramaDVD École !

Conçu spécifiquement pour les élèves et les enseignants des écoles, le FramaDVD École, doté de nombreuses fonctionnalités, comprend notamment :

• Plus de 130 logiciels libres à installer, pour Windows, répartis en 5 catégories principales :
1. Général : des logiciels pour tous (bureautique, graphisme, Internet…)
2. Élève : pour travailler dans toutes les disciplines de l’école primaire ;
3. Enseignant : pour aider les professeurs à préparer leur classe ;
4. Handicap : pour faciliter l’intégration des élèves en situation de handicap ;
5. Jeux : pour se divertir intelligemment ;

• Des copies d’écran ou des vidéos et des notices qui présentent les fonctionnalités de chaque logiciel ;

• Des tutoriels qui expliquent comment utiliser ces logiciels en classe ;

• Des ressources pédagogiques libres;

• Des textes, vidéos, images et sons utilisables et diffusables librement;

• Un installateur de logiciels qui permet en quelques clics d’ajouter très rapidement de nombreuses applications sur son ordinateur;

L’encyclopédie pour enfants Vikidia disponible hors-ligne, sur le DVD, grâce au logiciel Okawix;

Une distribution GNU/Linux particulièrement adaptée aux écoles, ASRI Éducation.

Le DVD est bien évidemment en libre téléchargement.

Cette compilation représente une contribution pour le développement des TUIC (Techniques Usuelles de l’Information et de la Communication) et en particulier des logiciels libres dans les classes.

La liste des applications et contenus est visible sur la page du projet.

Par ailleurs, il sera possible d’ici quelques semaines d’acheter ce DVD à bas prix sur notre boutique en ligne : EnVenteLibre.org. Si vous êtes intéressés, merci de remplir le formulaire dédié afin que nous puissions faire presser le DVD en quantité suffisante.

Enfin, suivant le succès des ventes du DVD, une partie des bénéfices sera redistribué aux communautés participantes, et nous envisageons un programme inspiré du “Get 1 Give 1” d’OLPC qui permettrait de faire parvenir gratuitement des exemplaires dans les pays à faible connectivité.

Bons téléchargements [1] !

Téléchargement et informations complémentaires sur la page officielle du FramaDVD Ecole.

Notes

[1] Le miroir principal est proposé par nos amis suisses de l’EPFL, qu’ils en soient ici grandement remerciés. Si vous souhaitez participer au réseau de miroirs, vous pouvez nous aider.