TF1 réclame (sans rien risquer) Google censure (sans vérifier)

Vidberg © LeMonde.fr Sur le Framablog, on ne manque pas une occasion d’agir contre la censure, ou de publier le témoignage d’un citoyen s’élevant contre les menaces et restrictions faites à nos libertés fondamentales [1]. Parce qu’après tout, et comme me le fit un soir remarquer Benjamin Bayart, qu’est-ce qui nous motive tous dans le mouvement du Logiciel Libre ? Et dans la défense de la neutralité du réseau qui lui est indispensable ? Qu’est-ce qui nous réunit, si ce n’est la liberté d’expression ? Cette petite flamme fragile et dangereuse qui vacille au souffle du pouvoir et nécessite, pour être entretenue, notre attention constante.

Le témoignage que nous vous proposons aujourd’hui est celui de Theocrite, un « administrateur système » engagé pour le Logiciel Libre, qui nous explique comment TF1 [2] a silencieusement fait censurer par Google un extrait vidéo de débat à l’Assemblée Nationale.

On savait déjà que certains n’hésitent pas à attaquer, en vertu du Copyright de sa bande son, une vidéo compromettante, au mépris du « fair-use » largement accordé aux vidéos de lolcats. Mais cet extrait, posté par La Quadrature du Net, n’a lui pour seule bande son que le discours à l’Assemblée des députés de la République. Cela n’a pourtant pas arrêté TF1 [3] dans son coup de poker, son nouveau coup de poignard dans le dos de l’éthique et de notre liberté d’information.

Cette vidéo, c’est celle du rejet intégral par l’Assemblée Nationale du projet de loi HADOPI 1 le 9 avril 2009, et, pour illustrer le principe selon lequel une tentative de censure s’avère toujours contre-productive pour le censeur, la voici, archivée dans notre collection Framatube :

—> La vidéo au format webm

TF1 censure des vidéos HADOPI sur YouTube

Et Google ne vérifie pas la véracité des accusations

Theocrite – 1er novembre 2010

En me promenant sur le compte YouTube de la Quadrature du Net, j’ai découvert récemment dans les paramètres du compte que certaines vidéos étaient listées comme pouvant « comporter un contenu appartenant à un tiers ».

Theocrite - CC By Sa

Hm, c’est possible… Intrigué, je clique sur le lien proposé et je m’aperçois que la vidéo en question est la vidéo du rejet de la loi HADOPI l’Assemblée Nationale.

Theocrite - CC By Sa

Bigre ! Voilà que des vidéos contenant des discours « prononcés dans les assemblées politiques » serait en contradiction avec le droit d’auteur. Voilà qui est bien étrange.

Pour en savoir plus, je clique sur « Afficher les informations sur les droits d’auteur ».

Theocrite - CC By Sa

On y apprend des choses très intéressantes… Comme le fait que les vidéos produites dans l’hémicycle seraient la propriété de « lgl_tf1 ». Un peu présomptueux de la part de la vieille chaîne qui descend.

Bon, portons réclamation. Après avoir lu une page chiante à mourir, on accède à un formulaire de réclamation, fortement limité, mais je suis décidé à faire avec.

Theocrite - CC By Sa

Theocrite - CC By Sa

Je fais alors subtilement remarquer que dans la législation française, les débats politiques sont publics… Puis je valide l’envoi du formulaire.

Theocrite - CC By Sa

Le lendemain, je constate que j’ai obtenu gain de cause : la vidéo est débloquée. Mais pour combien de temps ? Google n’a pas pris la peine de nous notifier que la vidéo était à nouveau disponible. On pouvait toujours attendre en relevant notre boîte mail.

Theocrite - CC By Sa

Bilan

Google est réactif, mais pas spécialement poli. Pas de notifications lors du blocage de la vidéo, ni lors du déblocage.

La vidéo a été bloquée pendant un certain temps. Combien de temps ? Aucune idée. Mais TF1 a tenté et a réussi à faire censurer la vidéo, peu importe combien de temps, et ce sans rien risquer. C’est un jeu permanent dans lequel les plaignants ne peuvent pas perdre et les internautes ne peuvent pas gagner.

Ce n’est pas une nouvelle, pour TF1 quand il s’agit d’HADOPI, tous les moyens sont bons pour supporter la loi. Que ce soit en inventant un plébiscite lors d’un vote, en censurant son rejet comme nous venons de le voir ou encore en s’occupant des « salariés qui, manifestement, aiment tirer contre leur camp. »

Mais sur YouTube, TF1 ne s’arrête pas à HADOPI. TF1 sort le bulldozer. Je vous invite à rechercher lgl_tf1 dans un moteur de recherche. Celui de nos amis possesseurs de YouTube par exemple, ou bien sur un moteur de recherche libre, vous y trouverez des réactions unanimes d’Internautes énervés, soit parce que lgl_tf1 a bloqué des vidéos de France 2. Soit parce que TF1 a bloqué des vidéos sur lesquelles elle a acquis les droits de diffusions pour une certaine partie du monde, et se passe de demander aux auteurs s’ils autorisent cette rediffusion.

Notes

[1] Telles que garanties par la déclaration des droits de l’Homme et du citoyen, et rappelées par le « considérant n°12 » de la décision n°2009-580 DC du 10 juin 2009 du Conseil Constitutionnel concernant HADOPI 1 par exemple.

[2] Crédit première illustration : Vidberg © LeMonde.fr, reproduite avec l’aimable autorisation de l’auteur. Licence équivalente à une CC-By-NC-ND avec autorisation préalable requise.

[3] Ou peut-être un imposteur, que le chaîne laisserait agir « en son nom » depuis plus de deux ans.




Petites précisions sur les licences Creative Commons par Nina Paley

Nina Paley - CC-By-SaLes licences Creative Commons sont flexibles et puissantes. Extension naturelle de la GPL [1] à autre chose que du logiciel 10 ans plus tard, ce jeu de licences se présente comme le couteau suisse du droit d’auteur, déclinable en 6 versions de bases, plus quelques fantaisies récentes. Il en résulte que quelque soit votre envie, une déclinaison de licence Creative Commons devrait y répondre, seulement le résultat ne sera pas forcément « libre », une CC-By-NC-ND ne permettant par exemple pas de remixer une œuvre. Une autre conséquence est que la mention « Creative Commons » sans autre indication n’a pas de sens.

Malheureusement, cette flexibilité et cette richesse de possibilités semblent bien souvent perdre les créateurs de tout poils désireux de remixer des œuvres libres sans prendre le temps d’en comprendre le fonctionnement. C’est en tout cas ce que constate sur Nina Paley sur son blog, en proposant sa solution au problème.

Nina Paley - CC-By-SaEn quelques mots, Nina Paley c’est cette jeune cinéaste américaine, qui, suite à une mésentente avec les ayants droits de la bande son d’une œuvre qu’elle remixait avec brio dans son long métrage « Sita chante le blues » décida, après avoir été primée le Festival international du film d’animation d’Annecy, de libérer son film en Creative Commons By Sa.

Enthousiasmée par la Culture Libre qu’elle découvrait à cette occasion, elle n’a cessé depuis d’alimenter des blogs dédiés à ce mouvement, gagnant sa vie par des conférences et des produits dérivés.

Toutefois, il semblerait bien que la solution proposée par Nina Paley ne soit qu’un premier tâtonnement vers… la Licence Art Libre du collectif Copyleft Attitude. Cette licence sans ambiguïté, approuvée par l’OSI et recommandée par la FSF. D’ailleurs n’hésitez pas à en présenter la version anglaise à Nina, elle vous en remerciera.

La confusion des licences Creative Commons

Le fléau de mon existence

Creative Commons’ Branding Confusion

Nina Paley – 10 octobre 2010 – Blog.NinaPaley.com
Traduction Framalang : KooToX, Julien Reitzel, Siltaar

Il y a environ un an et demi, j’ai publié mon film « Sita chante le blues » sous la licence Creative Commons « By Sa » (Paternité – Partage à l’identique). Cette licence permet une vraie distribution libre, incluant l’usage commercial, tant que la licence libre reste en place. Mais d’après mon expérience, la plupart des gens voient les mots “Creative Commons” et pensent que la licence exclue les utilisations commerciales « Non-Commercial » – car la majorité des licences Creative Commons rencontrées interdisent en pratique l’usage commercial de l’œuvre protégée.

C’est un vrai problème. Des artistes ont redistribué des remixes de « Sita » sous la licence Creative Commons « NC ». De nombreux blogueurs et journalistes préjugent des restrictions d’usage commercial, même si la licence est bien nommée :

« Le film a été rendu public sous les termes de la licence Creative Commons By Sa, permettant à d’autres personnes de partager l’œuvre pour des utilisations non commerciales librement, tant que l’auteur de l’œuvre est bien crédité », d’après Frontline, un magazine indien national.

Au début, j’ai essayé d’expliquer ce que « Partage à l’identique » signifiait aux personnes qui remixaient « Sita » en CC-NC, en leur demandant gentiment de revenir à la licence originale, comme voulu par la licence Creative Commons « Partage à l’identique » sous laquelle je l’avais distribué. Je me suis sentie bête, je ne veux pas jouer les flics du droit d’auteur. Au bout d’un moment, les mauvaises identifications de la licence du projet étaient si nombreuses que j’ai arrêté d’essayer de les corriger. « Creative Commons » signifie « pas d’utilisation commerciale » pour la plupart des gens. Se battre contre est une tâche sisyphéenne.

Donc me voilà bloquée avec un problème représentation. Tant que j’utiliserai une licence Creative Commons quelle qu’elle soit, la plupart des gens penseront que j’interdis l’utilisation commerciale des remix de mon œuvre. Presque personne ne semble utiliser, et encore moins essayer de comprendre, la licence CC-SA. Pire, ceux qui remarquent l’option « partage à l’identique » la combinent aux restrictions « pas d’utilisation commerciale » dans leurs rééditions, ce qui ajoute à la confusion (CC-NC-SA est la pire des licences imaginables).

Le partage à l’identique est une solution imparfaite aux restrictions du droit d’auteur, parce qu’il impose lui-même une restriction, qui est l’interdiction d’imposer d’autres restrictions par la suite. C’est une tentative d’utiliser le droit d’auteur contre lui-même. Tant que nous vivrons dans un monde dans lequel tout est protégé par défaut, j’utiliserai le partage à l’identique ou d’autres équivalents Copyleft, pour essayer de maintenir un « espace libre de droit d’auteur » autour des mes œuvres. Dans un monde meilleur, il n’y aurait pas de droit d’auteur automatique et par conséquent aucune nécessité pour moi d’utiliser une quelconque licence. Si cette utopie se réalisait, je supprimerais toutes les licences accolées à mes propres œuvres. En attendant, j’essaye de limiter les droits des gens à limiter les droits des autres.

Il serait bien que l’organisation Creative Commons fasse quelque chose pour remédier à cette confusion d’image. Pour cela, nous avons proposé de renommer les licences « partage à l’identique » en CC-PRO [2], mais étant donné que la base la plus large des Creative Commons est constituée d’utilisateurs de licences sans utilisation commerciale, il semble peu probable (mais pas impossible !) qu’ils distinguent leur véritable licence Copyleft avec une étiquette « pro ».

Nina Paley - CC-By-Sa

Si seulement Creative Commons offrait cela !

Il serait aussi bien que tout le monde, y compris les représentants de l’organisation Creative Commons, fassent référence aux licences par leur nom, plutôt qu’un simple « Creative Commons ». « Merci d’utiliser une licence Creative Commons », m’ont-ils dit. De rien ; Je vous remercierais d’en parler comme d’une licence « partage à l’identique ». Quasiment tous les journalistes font allusion aux 7 licences en parlant de « licences Creative Commons ». Ainsi, dans l’imaginaire populaire, ma licence « partage à l’identique » n’est pas différente d’une licence CC-NC-ND « pas d’utilisation commerciale, pas de modification ».

Cette crise d’image a atteint un pic récemment quand la société Radio-Canada a interdit toutes les musiques sous licences Creative Commons dans leurs émissions :

« Le problème avec notre utilisation de musique Creative Commons est qu’une grande quantité de nos contenus est facilement disponible sur une multitude de plateformes, certaines d’entre elles étant réputées être « commerciales » par nature (par exemple, streaming avec publicités imposée en préalable, ou les téléchargements payants sur iTunes) et qu’actuellement une grande majorité de la musique disponible sous une licence Creative Commons interdit toute utilisation commerciale.

Afin d’assurer que nous continuons d’être en conformité avec les lois Canadiennes en vigueur concernant le droit d’auteur, et étant donné le manque d’un large éventail de musique possédant une licence Creative Commons permettant l’utilisation commerciale, nous avons pris la décision d’utiliser la musique de notre bibliothèque de production dans nos podcasts car à cette musique sont liés les droit d’utilisation appropriés. » [lien]

L’organisation Creative Commons veut obtenir de la SRC qu’elle sépare ses différentes licences. Elle pourrait apporter de l’aide en commençant par appeler ses différentes licences par leur nom. Si l’organisation Creative Commons elle-même les appelle toutes « licences Creative Commons », comment peut-elle attendre des autres qu’ils distinguent ces licences les unes des autres ?

En attendant, je me demande comment communiquer clairement que mon œuvre est COPYLEFT. En plus de la licence CC-SA, s’il y a de la place j’écris « GAUCHE D’AUTEUR, TOUS TORTS RENVERSÉS ». Malheureusement, le terme « Copyleft » est lui aussi de plus en plus vidé de son sens. Par exemple, le meilleur film de Brett Gaylor « RIP : A Remix Manifesto » dit plein de choses justes, mais il comprend et utilise incorrectement le terme « Copyleft ». Le « Copyleft » c’est :

«  possibilité donnée par l’auteur d’un travail soumis au droit d’auteur (œuvre d’art, texte, programme informatique, etc.) de copier, d’utiliser, d’étudier, de modifier et/ou de distribuer son œuvre dans la mesure où ces possibilités restent préservées.

L’auteur n’autorise donc pas que son travail puisse évoluer avec une restriction de ce droit à la copie, ce qui fait que le contributeur apportant une modification (une correction, l’ajout d’une fonctionnalité, une réutilisation d’une oeuvre d’art, etc.) est contraint de ne redistribuer ses propres contributions qu’avec les mêmes conditions d’utilisation. Autrement dit, les créations réalisées à partir d’éléments sous copyleft héritent de cette caractéristique. » – Wikipédia

Mais dans RIP ça signifie :

Nina Paley - CC-By-Sa

Vous voyez ce symbole dollar barré ? Ça signifie qu’il y a des restrictions « pas d’utilisation commerciale », qui sont incompatibles avec le Copyleft.

Nina Paley - CC-By-Sa

NC comme « Non Copyleft »

Quelqu’un qui rencontrera le mot « Copyleft » dans ce film ne saura pas ce que ça signifie finalement en termes de licence.

J’ai besoin d’une licence que les gens comprennent. Je suis tenté par la « WTFPL » (abréviation du nom anglais « Do What The Fuck you want to Public License », traduite en « Licence Publique Rien À Branler ») mais je devrais la forker pour y ajouter une clause « Copyleft ». La « Licence Publique Rien À Branler Mais N’Empêchez Pas Les Autres De Faire Ce Qu’Ils En Veulent ? » RBMNPAFV ?

Y a-t-il ailleurs d’autres licences Copyleft utilisables et qui ne sont pas associées à des restrictions non-commerciales ? Je suis ouverte aux suggestions.

Proposition de CC-PRO

Le travail professionnel mérite d’être reconnu.

CC-PRO est une licence Creative Commons conçue spécifiquement pour les professionnels : auteurs, artistes, musiciens. CC-PRO utilise la licence Creative Commons la plus puissante, pour assurer que les travaux de qualité soient transmis et reconnus comme partageables. Elle offre la meilleure protection contre le plagiat et la censure. Elle attire l’attention et invite à la collaboration et la reconnaissance de votre audience la plus importante : les autres professionnels.

Meilleure protection contre :
Le plagiat
La censure
Une exploitation abusive

Promeut :
La paternité de l’œuvre
Vos revenus
La pérennité de l’œuvre
Sa distribution
La collaboration avec d’autres professionnels

Le travail professionnel mérite d’être reconnu. Utilisez la CC-PRO.

Nina Paley - CC-By-SA

Notes

[1] La licence logicielle écrite par Richard Stallman et Eben Moglen qui formalisa la notion de logiciel « libre » en 1989.

[2] Traduite en dernière partie de ce billet.




Le contrôle des redirections

Kudumomo - CC BySi les redirections [1] sont à peu prêt aussi vieilles que le web, elles n’étaient, jusqu’à l’apparition des micro-blogs, que rarement utilisées, mises en place par les connaisseurs, lors du déménagement d’un document important.

Dans ce contexte, quand Kevin Gilbertson proposa en 2002 le premier service en-ligne de rétrécissement d’URL (TinyURL.com), permettant de créer à la demande, une redirection depuis une une adresse courte vers l’adresse de son choix, il n’eut qu’un succès modéré. L’initiative tomba presque dans l’oubli, et ce n’est qu’une demi-décennie plus tard, avec l’essor de Twitter que ce service rencontra d’un coup un large public. En effet, le principe de Twitter étant de proposer un blog dont les billets sont plus courts que des SMS, pouvoir réduire une URL devint un enjeu de taille, si j’ose dire. En effet, d’une part certaines URL sont simplement trop longues pour être gazouillées, et d’autre part, une fois l’adresse collée dans un micro-billet il ne reste plus beaucoup de place pour en expliquer l’intérêt.

TinyURL.com fut donc dans un premier temps directement proposé depuis l’interface du site de microblogage pour aider à la rédaction des messages. Puis devant le succès rencontré par cet intermédiaire, de nombreux concurrents vinrent occuper leurs parts de marché, tel que Bit.ly, qui se démarqua par les statistiques offertes sur l’utilisation des liens courts qu’il produit.

Et progressivement, chaque gros acteur du web se mit à proposer son propre service de rétrécissement, pour faire plaisir à ses utilisateurs avec un service techniquement trivial, ne pas dépendre d’un tiers et enfin pour mettre la main, chacun, sur sa parcelle de statistiques d’usage !

Car utiliser un raccourcisseur d’URL revient en fait à ajouter une barrière de péage d’autoroute entre les personnes auxquelles vous communiquez le lien court, et le document que vous souhaitiez porter à leur attention. Bien sûr, c’est une barrière pour laquelle tout le monde est abonné (pour l’instant), et elle ne fait que ralentir un peu le trafic, mais surtout, elle identifie au passage qui l’a franchi, quand et combien de fois.

Or, si cette information était jusque là collectée par l’émetteur du document de destination seulement, elle n’était pas aussi facilement recoupable et monnayable que si c’est un acteur central qui collecte toutes les visites effectuées suivant les recommandations des millions d’utilisateurs de Twitter, de Facebook ou de Google…

Et puis, d’un point de vue pragmatique, au-delà de la seconde d’attente ajoutée après le clic, ou du respect de la vie privée, un autre problème se pose, celui de la pérennité de ces étapes intermédiaires. Aujourd’hui, TinyURL.com se vante de servir des milliards de redirections par mois, mais ce service, qui n’est pas géré par une entreprise, est voué à disparaître, car son nom (qui avait besoin d’être explicite au début) est trop long pour être efficace aujourd’hui. Or, quand les serveurs de TinyURL seront éteints, c’est plus d’un milliard d’adresses qui, d’un coup, ne mèneront plus à rien.

Alors, quand on voit avec quel empressement les entreprises se sont mises à proposer ce gadget en apparence anodin, on peut avoir envie de ne pas se laisser enfermer nous non plus par une compagnie particulière, de suivre cet exemple en s’installant chacun son raccourcisseur d’URL à soi. Après tout, ça ne sera qu’une corde de plus à mettre à l’arc de la NoBox.

Toutefois, la question de la pérennité des redirections mises en place reste posée… En ce premier novembre, il est presque de bon ton de se demander ce qu’on fera du serveur personnel d’un défunt.

Mais pour l’heure, place au détail de l’enfer des redirections vers lequel on nous mène, et qui transforme progressivement le web en maison qui rend fou des 12 travaux d’Astérix… [2]

Le web se dirige-t-il vers un cauchemar de redirections ?

Is the Web heading toward redirect Hell?

22 septembre 2010 – Royal.Pingdom.com
(Traduction Framalang : Zitor, Barbidule, Daria, Goofy, Siltaar)

Google le fait. Facebook le fait. Yahoo le fait. Microsoft le fait. Et bientôt, Twitter le fera.

Nous parlons de la manie qu’ont tous les services web d’ajouter une étape intermédiaire pour échantillonner ce sur quoi nous cliquons avant de nous envoyer vers notre vraie destination. Ça dure déjà depuis un certain temps, et c’est progressivement en train de devenir un enfer de redirections. Cela a un coût.

Du trafic déjà en trop

Il y a déjà beaucoup de redirections en place, auxquelles vous ne songez pas forcément. Par exemple :

  • Chaque fois que vous cliquez sur un résultat de recherche dans Google ou Bing, il y a un passage obligé par les serveurs du moteur de recherche pour analyse avant d’être redirigé vers le site réellement ciblé;
  • Chaque fois que vous cliquez sur un titre dans un flux RSS Feedburner, vous êtes aussi redirigé avant d’arriver à la véritable cible;
  • Chaque fois que vous cliquez sur un lien sortant de Facebook, il y a une étape intermédiaire passant par un serveur de Facebook avant de vous rediriger vers où vous voulez aller.

Et ainsi de suite, et ainsi de suite, et ainsi de suite. C’est, bien sûr, parce que Google, Facebook et les autres sociétés en ligne aiment suivre les clics et le comportement de leurs utilisateurs. Vous connaître est une vraie ressource pour ces sociétés. Cela peut les aider à améliorer leur service, à le monétiser plus efficacement et dans de nombreux cas, ces données elles-mêmes valent de l’argent. Au final ce suivi de clic peut aussi être bon pour les utilisateurs finaux, en particulier s’il permet à un service d’améliorer sa qualité.

Mais…

Les choses sont en train de déraper

S’il ne s’agissait que d’une seule étape supplémentaire, cela pourrait aller. Mais si vous regardez autour, vous vous rendrez compte que ces redirections sont en train de s’empiler, chaque service interceptant des informations sur le clic lors du cheminement vers la destination finale. Vous savez, celle que l’utilisateur a vraiment demandée.

Cela peut vite devenir incontrôlable. Nous avons vu des scénarios où les liens sortants de Facebook, par exemple, vous redirigent d’abord vers un serveur Facebook, puis vers un racourcisseur d’URL (par exemple bit.ly), qui à son tour vous redirige vers une URL plus longue qui elle-même génère plusieurs redirections avant que FINALEMENT vous parveniez à la cible. Il n’est pas rare qu’il y ait plus de trois redirections vers différents sites qui, du point de vue de l’utilisateur, sont du trafic superflu.

Le problème, c’est que ce trafic supplémentaire n’est pas gratuit. Cela rallonge le temps nécessaire pour atteindre l’objectif, et cela rajoute d’autres liens (au sens propre !) dans la chaîne, ce qui peut la briser ou la ralentir. Cela peut même faire apparaitre des sites comme indisponibles alors qu’ils ne le sont pas, simplement parce que quelque chose sur le chemin est tombé en panne.

Et il semble que cette pratique soit de plus en plus répandue sur le Web.

Un exemple récent de cette « mode de la redirection » : Twitter

Vous souvenez-vous de cette vague de raccourcisseurs d’URL qui est venue quand Twitter a commencé à devenir populaire? C’est là que commence notre histoire.

Twitter a d’abord utilisé le déjà établi TinyURL.com comme raccourcisseur d’URL par défaut. C’était un partenaire idéal pour Twitter et sa limite de 140 caractères par message.

Puis vinrent Bit.ly et une pléthore d’autres raccourcisseurs d’URL, qui voulaient eux aussi surfer sur le succès grandissant de Twitter. Bit.ly a rapidement réussi à remplacer TinyURL comme réducteur d’URL par défaut pour Twitter. Grâce à cela, Bit.ly a mis la main sur une foule de données : la liste d’une bonne partie des liens postés sur Twitter, et de leur popularité, chaque clic pouvant être tracé.

Ce n’était qu’une question de temps avant que Twitter ne veuille garder ces données pour lui seul. Pourquoi s’en priverait-il ? Cela lui permet d’avoir le contrôle total de l’infrastructure nécessaire à son fonctionnement, tout en récupérant des informations sur ce que les utilisateurs aiment s’échanger, et ainsi de suite. Twitter a donc créé récemment son propre raccourcisseur d’URL, t.co. Dans le cas de Twitter, cela peut parfaitement se comprendre.

Cela est bel et bon, mais voici maintenant la partie la plus intéressante qui est la plus pertinente pour cet article : d’ici la fin de l’année, Twitter va rediriger TOUS les liens vers son raccourcisseur d’URL, y compris les liens déjà raccourcis par d’autres services comme Bit.ly ou Goo.gl, le raccourcisseur de Google. En canalisant tous les clics vers ses propres serveurs, Twitter va acquérir une connaissance précise de la façon dont son service est utilisé, et de ses utilisateurs. Cela lui donne le contrôle total sur la qualité de son service. C’est une bonne chose pour Twitter.

Mais qu’arrive-t-il quand tout le monde veut un morceau du gâteau ? Redirection après redirection après redirection avant d’arriver à notre destination ? Oui, c’est exactement ce qui se passe, et vous aurez à vivre avec ce trafic supplémentaire.

Voici ce à quoi le partage de liens pourrait ressembler une fois que Twitter aura commencé à soumettre tous les clics à son propre service :

  1. Quelqu’un partage un lien goo.gl sur Twitter, il est alors transformé en un lien t.co.
  2. En cliquant sur le lien t.co, l’utilisateur est alors redirigé vers les serveurs de Twitter pour convertir le lien t.co en lien goo.gl et se voit réorienté dessus.
  3. Le lien goo.gl dirige l’utilisateur vers les serveurs de Google pour y être résolu et ré-orienter enfin l’utilisateur vers la cible qu’il souhaitais atteindre.
  4. Rien n’empêche cette cible de n’être à son tour qu’une nouvelle redirection…

Vous en avez la tête qui tourne, hein ?

Encore plus de niveaux de redirection ?

Il y a un an, nous avons écrit un article sur les inconvénients potentiels des raccourcisseurs d’URL, et il s’applique parfaitement à ce scénario plus général avec de multiples redirections entre les sites. Les conséquences de ces redirections sur les performances, la sécurité et la confidentialité sont les mêmes.

Nous soupçonnons fortement que le chemin pris par Twitter (échantillonner et enregistrer les clics avant expédition vers la cible, avec ou sans raccourcisseurs d’URL) laisse présager des pratiques à venir chez les autres services Web qui ne le font pas déjà.

Et même quand les services principaux ne le font pas, de plus en plus d’intermédiaires et d’applications tierces, comme les raccourcisseurs d’URL, apparaissent tous les jours. L’autre jour, le fabricant d’antivirus McAfee a annoncé la version-bêta de McAf.ee, un raccourcisseur d’URL « sécurisé ». C’est peut-être super, qui sait, mais à la lumière de ce que nous vous avons dit dans cet article, il est difficile de ne pas penser : quoi, encore une autre niveau de redirection ? Est-ce vraiment vers cela que le Web évolue ? Est-ce vraiment ce que nous voulons ?

Notes

[1] Ce mécanisme du protocole HTTP permettant de faire rebondir la navigation vers une autre page au chargement d’une URL.

[2] Crédit photo : Kudumomo (Creative Commons Parternité)




Geektionnerd : Unity

Créant l’évènement lundi dernier en ouverture de la conférence des développeurs d’Ubuntu, à Orlando au États Unis, Mark Shuttleworth a annoncé, en bon communicant : « le changement le plus important jamais réalisé » pour la prochaine version de cette distribution GNU/Linux orientée grand public.

Quelques semaines seulement après la sortie de la nouvelle version 10.10 Maverick Meerkat, nous voilà donc tous déjà impatients qu’arrive la suivante…

Parlant d’un changement risqué, le PDG de Canonical a en effet annoncé qu’Ubuntu 11.04, nommée « Natty Narwhal », utiliserait une nouvelle interface graphique par défaut : « Unity ». Développée depuis mai 2010, cette interface est déjà utilisée pour la version netbook d’Ubuntu 10.10. Elle est développée dans l’idée de gaspiller un minimum d’espace d’affichage (par les barres de tâches, d’icônes, ou de titre des fenêtres), pour permettre une utilisation optimisée des petits écrans des netbooks.

En observateur avisé, la nouvelle n’a pas échappée à Gee qui fait de cette nouvelle interface la définition du Geektionnerd cette semaine.

Geektionnerd - Simon Gee Giraudot - CC by-sa

Geektionnerd - Simon Gee Giraudot - CC by-sa

PS: Je reviens de ma salle de bain où j’étais allé vérifier un détail mais non, j’ai beau revenir régulièrement à la console système en passant CTRL+ALT+F1 et n’utiliser résolument que Compiz depuis sa sortie en 2006, je ne suis pas plus barbu que le geek de la BD.

Crédit : Simon Gee Giraudot (Creative Commons By-Sa)




Logiciel libre et développement durable, même combat ?

416style - CC-byAu détour d’une conférence sur les tendances 2010 de l’Open Source à l’OpenWorldForum, j’ai assisté à la présentation, captivante, des enjeux croisés de l’écologie et du logiciel libre, résumé en « FreenIT » par un duo peu ordinaire. En effet, l’un s’annonce comme journaliste et passionné d’environnement et l’autre (respectivement) comme ingénieur expert en « innovation ouverte et logiciel libre ». Leur présentation s’attachait à mettre en valeur les avantages intrinsèques des logiciels libres dans la quête d’une informatique écologiquement responsable vers laquelle l’industrie et les grandes entreprises se tournent enfin [1].

Enthousiasmé par leur démonstration, je pris contact avec eux à l’issue de la présentation, pour évoquer la possibilité de faire passer leur message jusqu’à vous chers lecteurs, dans la droite lignée de nos explorations de la société, à la recherche des applications de la culture du libre. Après les « AMAP », qui mettent de l’écologie dans les assiettes de collectifs qui s’auto-organisent pour échapper aux injonctions des grandes surfaces, voici donc le « Green IT » qui met de l’écologie derrière nos écrans.

On retrouve, dans ce texte de synthèse rédigé pour le Framablog, les notions clés du succès en matière de développement durable, tel que le fameux « penser global, agir local », que l’on retrouve dans le logiciel libre sous la forme d’un « bidouiller dans son coin, et penser aux autres », ou encore une évocation du « leadership par l’exemple » qui prévalut dès le début en matière politique sur Internet, cet espèce de laisser-faire, un peu utopique, sans laisser-aller. Enfin, je citerai encore la notion d’énergie grise, qui vient malheureusement contrebalancer les discours commerciaux des fabriquants en matière de décroissance de la consommation énergétique des nouvelles générations de composants informatiques.

Logiciel libre et Green IT : même combat ?

Frédéric Bordage et François Letellier – GreenIT.fr

Les connaissances des communautés open source et les principales caractéristiques des logiciels libres sont particulièrement bien adaptées à la profondeur et à l’urgence des enjeux du développement durable. Démonstration.

L’humanité fait face à trois problèmes environnementaux majeurs : le dérèglement climatique, l’écroulement de la biodiversité et l’épuisement des stocks de ressources non renouvelables. La prise de conscience a été (trop) longue, et l’urgence aujourd’hui est réelle : nous n’avons qu’une génération pour trouver et mettre en œuvre les solutions à ces défis. Quel rapport entre ce constat, iconifié par des personnages tels que le Commandant Cousteau, Al Gore ou Nicolas Hulot, et notre quotidien d’informaticiens ? Que peuvent les geeks face à ces enjeux planétaires ?

Toujours poussés plus loin vers les mondes virtuels, nous avons tendance à oublier qu’octets et instructions consomment substrats et énergie. Une consommation qui se traduit par des nuisances que notre écosystème ne peut pas absorber indéfiniment. Les informaticiens peuvent, s’ils le souhaitent, réduire rapidement l’empreinte de l’informatique sur l’environnement. Mais plus encore, la communauté du logiciel libre détient des savoirs transversaux qui font défaut aux acteurs du développement durable. Explication.

Freen IT as in Free & Green IT

Le courant de pensée du « Green IT » cherche à réduire l’empreinte écologique des Technologies de l’Information et de la Communication (TIC). Pour réduire l’empreinte des TIC, il faut se concentrer sur l’essentiel. Contrairement au discours marketing des éditeurs et des constructeurs, les phases de fabrication et de fin de vie d’un ordinateur consomment plus d’énergie et génèrent nettement plus de nuisances environnementales que la phase d’utilisation. En clair : si vous décidez de remiser tous vos serveurs et postes de travail, encore fonctionnels, pour les remplacer par d’autres nettement moins énergivores… vous faites fausse route. Les constructeurs vous remercieront, pas la planète. En effet, l’énergie grise liée aux équipements informatique ne cesse de croître, quand leur consommation en fonctionnement s’affiche à la baisse.

Les deux grands défis du « Green IT » consistent à :

  • prolonger la durée d’utilisation des matériels existants;
  • et à réduire les besoins, en termes d’énergie et de ressources, sur la phase d’utilisation.

Ce qui signifie mettre le holà à la gloutonnerie des logiciels. Microsoft Office 2010 sous Windows Vista nécessite par exemple 70 fois plus de ressources qu’Office 97 sous Windows 98… Les documents produits sont-ils 70 fois plus percutants ou créés 70 fois plus vite ? Non. La gabegie logicielle est indéfendable.

Le logiciel libre à la rescousse

C’est la couche logicielle qui pilote les besoins en ressources matérielles d’un ordinateur. Or, d’un point de vue technique, les logiciels libres sont architecturés autour d’un noyau qui répond à 80% des besoins essentiels. Autour de ce noyau viennent se connecter des extensions qui répondent aux besoins moins répandus. Cet écosystème évolue. Si une fonction devient incontournable, elle est intégrée au noyau. Cette architecture modulaire et évolutive minimise les ressources matérielles (puissance processeur, mémoire vive, etc.) nécessaires. On obtient donc des logiciels performants même sur des matériels modestes ou anciens, ce qui permet d’allonger la durée d’utilisation du matériel… ou de redonner une seconde vie à un matériel d’occasion.

Généralement alliée à une gratuité d’accès, la parcimonie des logiciels libres (systèmes d’exploitation en tête) rend viable la filière du reconditionnement des équipements d’occasion. Le « Libre » apporte une réponse pragmatique, ici et maintenant, aux deux premiers défis du « Green IT » : faire durer le matériel, économiser les ressources. En outre, le découplage entre logiciel et support technique (qui peut être fourni par différents acteurs de la communauté) évite l’obsolescence programmée imposée par des éditeurs propriétaires et monopolistiques. En raccourcissant la durée de leur support technique, ces derniers poussent en effet à la consommation de nouvelles versions de logiciels plus gourmands, et donc de matériels plus puissants pour les faire tourner.

Au delà des aspects techniques, les communautés du libre reposent sur une organisation pyramidale dont les processus sont transparents. Ces deux propriétés garantissent un travail rapide et efficace qui pousse les chefs de projet et les développeurs à bien faire leur travail (un code efficace par exemple) et à prendre leurs responsabilités. Le pouvoir du créateur du logiciel est contrecarré par le pouvoir des utilisateurs. Les utilisateurs peuvent « forker » un projet du jour au lendemain. On ne peut donc pas verrouiller les utilisateurs et leur imposer un rythme de mise à jour.

D’autre part, le modèle économique du libre est quantitatif. Seule l’adhésion du plus grand nombre garantit au créateur du logiciel des revenus confortables et pérennes. Les communautés open source ont dissocié les revenus liés au service d’une part, de ceux potentiels liés à la vente de copies du logiciel d’autre part. Ainsi distribué gratuitement, et facilement localisé, les logiciels open-source peuvent toucher rapidement le plus grand nombre. Ouverture et gratuité facilitent une adoption large et rapide.

Des principes valables pour le développement durable ?

A-t-on intérêt à appliquer ces principes – architecture modulaire, méritocratie éclairée par le contre-pouvoir des utilisateurs, standardisation, découplage des revenus directs du produit, etc. – aux problématiques du développement durable ? Tout porte à le croire.

D’une part, nous n’avons qu’une génération pour diviser notre empreinte écologique par un facteur 4 [2]. Jamais l’humanité n’a fait face à un défi d’une telle ampleur. Pour tenir ce pari, nous devons aller plus vite que jamais auparavant dans l’histoire humaine. Le modèle d’adoption – très rapide – des logiciels libres doit donc être une source d’inspiration pour les acteurs du développement durable.

Que nous apprennent les communautés open source ? Sans standard, point de salut. La (presque) totalité des logiciels libres s’appuient sur des standards reconnus (qu’ils ont contribué à faire émerger et / ou à forger) pour s’assurer de la pérennité des développements. On touche ici au caractère « durable » des développements. Pour s’imposer dans le temps, les solutions du développement durable devront s’appuyer sur la même approche de standards ouverts. Et ce d’autant plus que les problématiques sont mondiales. Par exemple, pour être efficaces (c’est à dire économiser de l’énergie), les compteurs électriques intelligents devront tous parler le même protocole. Or, seul un protocole normalisé et ouvert sera adopté rapidement.

D’autre part, pour aboutir rapidement, ces standards devront être forgés par une méritocratie éclairée. L’échec de Copenhague l’a démontré, la recherche d’un consensus mondial est impossible en l’état. En revanche, rien n’empêche un ensemble de pays de proposer une solution pertinente, dont l’évolution sera dictée par toutes les parties prenantes.

Enfin, d’un point de vue plus philosophique, l’architecture technique d’un logiciel libre montre que ses créateurs sont « près de leurs ressources ». Ces « décroissants du logiciel » montrent à leur façon qu’une débauche de moyens n’est pas toujours nécessaire pour atteindre un objectif. En d’autres termes, le développement ne sera réellement durable que s’il ponctionne le strict minimum des ressources disponibles. Cette ascèse est déjà une règle fondamentale d’un grand nombre de projets open source.

Pour conclure, il nous semble évident que :

  • les logiciels libres constituent une réponse pertinente pour réduire l’empreinte environnementale des TIC;
  • que les modes d’organisations des communautés correspondent bien aux enjeux mondiaux du développement durable;
  • et que les principes fondamentaux des projets open source garantissent une adoption rapide et durable des solutions, un point clé des enjeux du développement durable.

Votre avis ?

Frédéric Bordage et François Letellier contribuent au blog collectif GreenIT.fr qui fédère la communauté francophone des acteurs du Green IT.

Notes

[1] Crédit photo : 416style – Creative Commons Paternité

[2] Voir « Facteur 4 » dans le glossaire pointé.




Proposition de traduction de la licence « Creative Commons Zero 1.0 »

GnuckX - CC0 En juillet dernier, Framasoft animait le plus long atelier de l’histoire des Rencontres Mondiales du Logiciel Libre : un traducthon courant pendant toutes les rencontres.

En effet, fidèles au poste dans la chaleur cuisante d’une salle de classe au dernier étage de l’ENSEIRB, des bénévoles de Framalang, Benjamin Jean de VeniVidiLibre.org, Alexis Kauffman et moi-même accueillions les courageux visiteurs ayant trouvé leur route jusqu’au traducthon 2.0, pour la plupart venus avec la ferme intention de nous aider à traduire le livre libre : « Imagine there is no Copyright ».

Et c’est ainsi qu’en à peine 5 jours, malgré la chaleur, les difficultés de réseau et une coupure de courant [1], l’ouvrage fut intégralement traduit, par plusieurs dizaines de bénévoles.

L’idée de traduire ce livre était venue à Alexis après l’avoir lu en version papier italienne, couverte par une licence CC-by-nd (Creative Commons attribution, sans dérivation). L’attribution nous permis de remonter à une version anglaise, couverte par une CC-by-nc-nd (ajoutant une clause de réutilisation non commerciale seulement), ce qui pouvait sembler paradoxal vu qu’Alexis l’avait acheté son livre… Toutefois, une mention supplémentaire s’ajoute, sur le site officiel, à la licence de la version originale :

No article in this book may be reproduced in any form by any electronic or mechanical means without permission in writing from the author.

Qui peut se traduire par :

Aucun article de ce livre ne peut être reproduit par quelque moyen électronique ou mécanique que ce soit, sans la permission écrite de l’auteur.

La suite du puzzle allait donc se résoudre en contactant l’auteur, ce qui est, d’une manière générale, la chose à faire en cas de doutes sur une licence [2].

Contacté, l’auteur nous répondit qu’il souhaitait que son œuvre soit au plus près possible du domaine public (ce qui est cohérent avec le titre de l’ouvrage). Benjamin Jean proposa donc la licence « Creative Commons Zero », ce qui convint très bien à l’auteur.

La licence CC0 a en effet été créée pour uniformiser mondialement la notion de domaine public, ou permettre de s’en approcher au plus près dans les juridictions, comme la France, où il n’est pas possible d’y placer soit même son œuvre.

Toutefois, à sa création la CC0 n’était pas applicable en France pour des raisons juridiques levées depuis, mais elle le demeurait pour l’instant pour une seconde raison, l’absence de version française. Il nous fallait donc remédier à ce petit inconvénient avant de pouvoir sortir notre prochain Framabook, et c’est ainsi que l’équipe de traduction de choc qui se cache derrière cette page, se mit à l’œuvre.

Nous sommes donc fier aujourd’hui de vous présenter la traduction, par Framalang et VVL, de la CC0 [3] ! Cette traduction est une contribution que nous avons bien entendu adressée à Creative Commons afin d’étoffer un peu le paysage des licences françaises touchant de domaine public, s’ajoutant ainsi à la récente licence « Information Publique Librement Réutilisable » utilisable uniquement par les organismes du secteur public dans le cadre de leurs démarches « OpenData » [4].

Creative Commons Zéro 1.0 – Domaine Public [5]

CC0 1.0 Universal – Public Domain Dedication

CreativeCommons.org – 17 décembre 2007
Traduction Framalang : Julien R., Barbidule, Goofy, Martin G., Siltaar, mben

CREATIVE COMMONS N’EST PAS UN CABINET D’AVOCATS ET NE FOURNIT PAS DE SERVICES DE CONSEIL JURIDIQUE. LA PUBLICATION DE CE DOCUMENT NE CRÉE AUCUNE RELATION JURIDIQUE ENTRE LES PARTIES ET CREATIVE COMMONS. CREATIVE COMMONS MET À DISPOSITION CETTE LICENCE EN l’ÉTAT, À SEULE FIN D’INFORMATION. CREATIVE COMMONS NE FOURNIT AUCUNE GARANTIE CONCERNANT L’UTILISATION DE CE DOCUMENT OU DES INFORMATIONS OU TRAVAUX FOURNIS CI-APRÈS, ET DÉCLINE TOUTE RESPONSABILITÉ POUR LES DOMMAGES RÉSULTANT DE L’UTILISATION DE CE DOCUMENT OU DES INFORMATIONS OU TRAVAUX FOURNIS CI-APRÈS.

Déclaration d’Intention

Les lois de la plupart des législations des états du monde accordent automatiquement des Droits d’Auteur et Droits Voisins (définis ci-dessous) au créateur et au(x) titulaire(s) de droits ultérieur(s) (ci-après, le « titulaire ») d’une œuvre originale protégeable par le droit de la propriété littéraire et artistique et/ou une base de données (ci-après, une « Œuvre »).

Certains titulaires souhaitent renoncer de façon définitive à ces droits sur une Œuvre dans le but de contribuer à un pot commun de travaux créatifs, culturels et scientifiques (les « Biens Communs ») que le public, de façon certaine et sans craindre d’actions ultérieures pour contrefaçon, a la possibilité d’utiliser comme base de travail, de modifier, d’incorporer dans d’autres travaux, de réutiliser et de redistribuer aussi librement que possible sous quelque forme que ce soit et à quelque fin que ce soit, y compris, et sans réserves, à des fins commerciales. Ces titulaires peuvent contribuer aux Biens Communs dans le but de promouvoir les idéaux de la culture libre et la production de travaux créatifs, culturels et scientifiques, ou pour acquérir une renommée ou une plus grande diffusion de leur Œuvre, notamment grâce à l’utilisation qui en sera faite par d’autres.

Pour ces raisons et/ou d’autres, et sans attendre aucune rémunération ou compensation supplémentaire, la personne associant la CC0 à une Œuvre (le « Déclarant »), dans la mesure où il ou elle est titulaire des Droits d’Auteur et des Droits Voisins de l’Œuvre, fait volontairement le choix d’appliquer la CC0 à l’Œuvre et de distribuer publiquement l’Œuvre sous les termes de cette licence, en toute connaissance de l’étendue de ses Droits d’Auteur et Droits Voisins sur l’Œuvre, ainsi que de la portée et des effets juridiques de la CC0 sur ces droits.

1. Droit d’Auteur et Droits Voisins

Une Œuvre mise à disposition sous la CC0 peut être protégée par les droits d’auteur et les droits voisins ou connexes (le « Droit d’Auteur et les Droits Voisins »). Le Droit d’Auteur et les Droits Voisins comportent, notamment, les droits suivants :

  1. Le droit de reproduire, adapter, distribuer, interpréter, diffuser, communiquer, et traduire une Œuvre ;
  2. Les droits moraux conservés par le ou les auteur(s) ou interprète(s) originaux ;
  3. Les droits relatifs à la diffusion et à la vie privée rattachés à l’image ou au portrait d’une personne représentée dans une Œuvre ;
  4. Les droits protégeant contre la concurrence déloyale à l’égard de l’Œuvre, sujets aux limitations prévues dans le paragraphe 4(a) ci-dessous ;
  5. Les droits protégeant l’extraction, la dissémination, l’utilisation et la réutilisation des données contenues dans une Œuvre ;
  6. Les droits relatifs aux bases de données (tels que ceux découlant de la Directive 96/9/CE du Parlement Européen et du Conseil du 11 mars 1996 concernant la protection juridique des bases de données, et de toute transposition au niveau national, y compris de toute version amendée ou révisée de cette directive) ;
  7. Tous autres droits similaires, équivalents ou correspondants partout dans le monde, basés sur des lois ou traités applicables, et toutes les transpositions nationale de ceux-ci.
2. Renonciation

Dans toute la mesure permise par la loi, mais sans l’enfreindre, le Déclarant annonce par la présente abandonner, céder et renoncer ouvertement, complètement, définitivement et irrévocablement, à tous ses Droits d’Auteur et Droits Voisins sur l’Œuvre ainsi qu’aux prétentions et intérêts à agir associés , qu’ils soient à cet instant connus ou inconnus (y compris les prétentions et intérêts à agir associés nés ou à naître), (i) partout dans le monde, (ii) pour la durée maximale prévue par les lois ou traités applicables (y compris les prolongations futures de cette durée), (iii) sur n’importe quel support actuel ou futur et quel que soit le nombre de copies, et (iv) pour toutes fins, y compris, et sans réserves, les fins commerciales, publicitaires ou promotionnelles (la « Renonciation »). Le Déclarant procède à la Renonciation au bénéfice de chacun des membres du plus large public et au détriment des héritiers et successeurs du Déclarant, avec la ferme volonté que cette Renonciation ne puisse faire l’objet d’aucune révocation, récision, résiliation, annulation, conclusion, ou de toute autre action en justice ou injonction susceptible d’interrompre la jouissance paisible de cette Œuvre par le public telle que prévue par la Déclaration d’Intention du Déclarant.

3. Licence Publique Supplétive

Dans le cas où une partie quelconque de la Renonciation et pour quelque raison que ce soit est jugée juridiquement nulle ou sans effet en vertu de la loi applicable, la Renonciation doit être préservée de la manière permettant la prise en compte la plus large de la Déclaration d’Intention du Déclarant. De plus, dans la mesure où la Renonciation est ainsi jugée, le Déclarant concède par la présente à chaque personne concernée une licence pour l’exercice des Droits d’Auteur et Droits Voisins du Déclarant sur l’Œuvre, gratuite, non transférable, non sous-licenciable, non exclusive, irrévocable et inconditionnelle (i) partout dans le monde, (ii) pour la durée maximale prévue par les lois ou traités applicables (y compris les prolongations futures de cette durée), (iii) sur n’importe quel support actuel ou futur et quel que soit le nombre de copies, et (iv) pour toutes fins, y compris, et sans réserves, les fins commerciales, publicitaires ou promotionnelles (la « Licence »). La licence sera réputée effective à la date à laquelle le Déclarant a appliqué CC0 à l’Œuvre. Dans le cas où une partie quelconque de la Licence, et pour quelque raison que ce soit, est jugée juridiquement nulle ou sans effet en vertu de la loi applicable, une telle invalidité partielle ou ineffectivité n’invalidera pas le reste de la Licence, et dans un tel cas le Déclarant déclare par la présente qu’il ou elle (i) n’exercera aucun de ses Droits d’Auteur ou Droits Voisins subsistant sur l’Œuvre et (ii) ne fera valoir aucune prétention ni intérêt à agir associés relatifs à l’Œuvre, ce qui serait opposé à la Déclaration d’Intention du Déclarant.

4. Limitations et exonérations de responsabilité
  1. Aucun droit sur une marque déposée ou un brevet détenu par le Déclarant n’est abandonné, cédé, licencié ou affecté d’une quelconque manière par le présent document;
  2. Le Déclarant propose la mise à disposition de l’Œuvre en l’état, sans déclaration ou garantie d’aucune sorte, expresse, implicite, légale ou autre, y compris les garanties concernant la commercialité, ou la conformité, les vices cachés et les vices apparents, dans toute la mesure permise par la loi applicable;
  3. Le Déclarant décline toute responsabilité dans la compensation des droits d’autres personnes qui peuvent s’appliquer à l’Œuvre ou à toute utilisation de celle-ci, y compris, et notamment, mais pas exclusivement, les Droits d’Auteur et Droits Voisins de toute personne sur l’Œuvre. En outre, le Déclarant décline toute responsabilité quant à l’obtention des consentements, autorisations et autres droits requis quelle que soit l’utilisation de l’Œuvre;
  4. Le Déclarant comprend et reconnaît que Creative Commons n’est pas partie prenante de ce document et n’a aucune responsabilité ni obligation à l’égard de la CC0 ou de l’utilisation de l’Œuvre.

Notes

[1] Notre travail étant réparti sur plusieurs documents EtherPad, cet incident généralement atroce dans une salle informatique se révéla joyeusement anecdotique.

[2] Petit aparté à ce propos, Framasoft organise, lors de la prochaine Ubuntu Party parisienne qui aura lieu du 5 au 7 novembre prochain, un atelier de libération d’œuvres non logicielles, qui consistera justement à contacter les auteurs d’œuvres numériques, publiées sur Internet sans licences précises et dont le Copyright par défaut bloque une idée de réutilisation… L’atelier est prévu pour le samedi 6 novembre à partir de 11h30.

[3] Oui, il fallait suivre pour les acronymes 😛

[4] L’annonce de RegardsCitoyens.org saluant la création de cette licence. Une analyse plus poussée sur le blog de Veni Vidi Libri.

[5] Crédit photo : GnuckX (Creative Commons Zero 1.0)




Avec Uniflow, Canon invente la photocopieuse qui espionne, refuse et dénonce

Timshell - CC-by-nd En l’absence de l’habituel maître des lieux
Les lutins du Framablog font bien de leur mieux
Écumant le web, en quête de sujets sérieux
Ils espérent que ces billets vous rendront joyeux
À défaut de nous aider à ouvrir les yeux
Sur des technologies qui derrière un vœu pieu
Menacent nos libertés et nos échanges précieux

« On arrête pas le progrès » aimait à répéter mon grand père, mais aujourd’hui, je me demande ce qu’il aurait pensé des dernières inventions de Canon…

En effet, si l’esprit du hacker est de bidouiller une technologie pour en trouver de nouveaux usages, les grandes firmes s’ingénient elles bien souvent à limiter les possibilités de leurs produits, pour créer une illusion de contrôle.

Dans notre cas, Canon a créé des photocopieuses qui inspectent au plus près les documents qu’on leur donne à reproduire, et s’y refusent si ces derniers contiennent l’un des mots de la liste noire située sur le serveur central des installations Uniflow.

Tout d’abord, ces photocopieuses illustrent exactement la menace qui plane sur la neutralité d’Internet. Imaginez qu’il ne soit plus possible de se parler qu’à l’aide de textes envoyés d’une photocopieuse à une autre et vous aurez un bon aperçu de comment fonctionne Internet. En effet, chaque message y circule, par petits bonds, d’un ordinateur à un autre entre votre machine et celle à laquelle vous tentez d’accéder de l’autre côté du réseau. Chaque machine rencontrée photocopie simplement les messages qu’elle reçoit vers la sortie qui les rapprochera de leur destination. Pour l’instant, les routeurs de l’Internet transportent les messages de manière aussi neutre qu’une simple photocopieuse, sans le moindre soupçon d’analyse de contenu. Mais Canon vient donc de briser la neutralité des photocopieuses, en créant un système de « deep photocopy inspection » bien sûr associés à un système centralisé de censure.

Ensuite, comme le remarquait Benoit Sibaud sur Identi.ca, nous nous trouvons là devant un cas concret d’informatique déloyale, telle que définie par l’April, où des utilisateurs se trouvent confrontés à des systèmes soit-disant « de confiance », et qui sous prétexte de sécurité ne remplissent tout simplement plus la tâche pour laquelle ils sont conçu si les conditions arbitraires d’une entité tierce de contrôle ne sont pas réunies.

Je parlais d’une illusion du contrôle, car comme toujours le moyen mis en œuvre pour « sécuriser l’usage » est aisément contournable, les documents n’étant (pour l’instant) analysés qu’à l’aide d’un logiciel OCR, incapable donc de percevoir les notes manuscrites, ou les mots (volontairement) mal orthographiés.

Alors à quoi bon mettre en place des systèmes aux performances finalement ridicules au regard du niveau stratégique de l’objectif ? Et quel peut être l’objectif d’imprimantes allergiques à certains mots ?

Tout d’abord, déployer un système à l’efficacité embryonnaire c’est toujours faire un premier pas, ça finance la génération suivante et ça piège les non avertis… [1] Ensuite dans le cas présent, on peut pallier les manques du système en contraignant le reste de l’environnement, et si on trouve une application admise par les contrôleurs et les contrôlés ça pourrait même rendre service.

Mais pourquoi empêcher d’imprimer ? Pour pallier, d’une certaine manière, au « trou analogique ». Le trou analogique c’est le nom donné à un phénomène simple : aussi sophistiqué que puisse être le système de protection d’un fichier (chiffrement, DRM), pour qu’il soit lu il faut bien à un moment le rendre présentable pour un humain. Et à partir de là, il est toujours possible de renumériser les données… Un MP3, même plombé par un DRM, quand il finit par être lu, rien ne m’empêche de l’enregistrer avec un dictaphone, si j’ai peur de ne pas m’en souvenir tout seul. Dans notre cas, l’intérêt est donc de combler en partie le trou analogique, en évitant que des copies papiers de documents identifiés comme « secrets » ne soient créées.

Toutefois, ça peut vite devenir comique, si une entreprise empêche l’impression de documents contenant le nom de ses clients par exemple, espérons qu’ils ne traitent pas avec Apple, Orange ou même Canon, sinon ils vont vite finir par ne plus pouvoir imprimer grand chose.

Néanmoins, après les imprimantes qui mentent sur leur niveau d’encre et les imprimantes qui laissent des micro-traces pour s’identifier sur toutes leurs copies, Canon invente aujourd’hui les imprimantes qui choisissent ce qu’elles impriment… [2]

Canon promet une sécurisation à base de mots-clés pour ses scanners et imprimantes

Canon promises keyword-based document scanning and printing security

Alan Lu – 12 octobre 2010 – ITPro.co.uk
Traduction Framalang : Siltaar, Julien R., KooToX, Daria

Canon a fait une démonstration d’Uniflow 5, la dernière version de son système de gestion de documents, capable d’empêcher les utilisateurs d’imprimer ou de copier des documents contenant certains mots, grâce à un système de sécurité intelligent basé sur des mots-clés.

Uniflow est un système de gestion de documents qui permet, depuis longtemps, de contrôler imprimantes, scanners et photocopieurs de manière centralisée. Cela permet de conserver le compte des impressions de chaque utilisateur à des fins de facturation. C’est indispensable dans les professions qui facturent les clients à l’heure ou à la quantité de travail, comme les avocats et les architectes. Le système requiert à la fois un serveur Uniflow sur votre réseau et des périphériques d’imagerie Canon, compatibles Uniflow.

La dernière version d’Uniflow possède un système de sécurité intelligent, basé sur des mots-clés. Une fois configuré par un administrateur, le système peut empêcher un utilisateur d’imprimer, scanner, copier ou faxer un document contenant un des mots-clés prohibés, tel que le nom d’un client ou le nom de code d’un projet.

Le serveur enverra alors par courriel à l’administrateur une copie PDF du document en question, au cas où un utilisateur s’y essaie. Le système peut aussi optionnellement informer l’utilisateur par courriel que sa tentative a été bloquée, mais sans identifier le mot-clé responsable, maintenant ainsi la sécurité du système.

La détection des mot-clés d’Uniflow 5 se base sur un système de reconnaissance optique de caractères (OCR), dont la licence est détenue par la firme belge Iris. Cette technologie est plus communément utilisé pour retranscrire des documents scannés en textes éditable sur ordinateur. Canon Angleterre a confirmé qu’un utilisateur éclairé et déterminé ayant repéré un des mots-clés peut contourner le système en remplaçant une lettre par une autre ou un chiffre ressemblant comme avec « z00 » au lieu de « zoo ».

Néanmoins, l’intérêt de cette fonctionnalité est immédiatement perceptible pour les secteurs traitant des documents sensibles, que se soit pour des raisons légales, concurrentielles ou commerciales. Les représentants de Canon n’ont pu avancer de date quant à la commercialisation des produits Uniflow 5.

Notes

[1] Toute ressemblance avec une loi visant à contrôler les usages sur Internet serait fortuite.

[2] Crédit photo : Timshell (Creative Commons Attribution NoDerivs).




Développer en public

Steve Jurvetson - CC by Voici, révélé sur son blog par Bradley M. Kuhn (cadre dirigeant à la FSF impliqué dans le projet GNU), l’un des meilleurs ingrédients pour la réussite d’un projet de logiciel libre : rendre son développement public, dès la conception. C’est du moins l’enseignement qu’il retire d’un échange qu’il a eu avec Loïc Dachary, pionnier du logiciel libre, fondateur de la FSF France, d’EUCD.info ou encore de la plateforme d’hébergement de projets libres Gna! [1].

Or, si l’idée peut sembler simple, sa réalisation est loin d’être anecdotique et porte à de nombreux débats, comme le synthétise ici Bradley. Mais surtout, ce qui se dessine au travers de cette réflexion, c’est un élément fondamental de la définition de ce qu’est un projet libre, un projet ouvert, un projet pérenne : c’est un projet dont on partage les idées et la conception, en plus des sources. Bradley Kuhn oppose, en filigrane, à cette vision, celle de grands projets (qui se clament bien souvent eux-même « OpenSource ») dont en effet seul le code est publié. Des projets opposant une résistance aux contributions extérieures, et qui peuvent alors presque paradoxalement sembler hermétiques, fermés…

Plusieurs exemples viennent aisément en tête car c’est entre autres l’un des principaux reproches fait à Chromium, la version « OpenSource » du navigateur Google Chrome. Mais LibreOffice, le récent fork d’OpenOffice, illustre parfaitement la conclusion de Bradley, quand la communauté d’un projet de logiciel libre finit par n’avoir d’autre choix que de partir sur un embranchement définitif des fichiers sources pour en ouvrir au public le développement, et plus le code seulement.

Où sont les octets ? [2]

Where Are The Bytes?

Bradley M. Kuhn – 11 juin 2010 – EBB.org
(Traduction Framalang : Barbidule, Loquemunaine, Goofy)

Il y a quelques années, j’avais envisagé de me lancer dans un projet de logiciel libre. Il n’a pas vu le jour, mais j’ai appris au passage des choses bonnes à savoir. Quand j’ai pensé à démarrer ce projet, j’ai fait comme à mon habitude : j’ai demandé à quelqu’un qui en savait plus que moi. J’ai donc téléphoné à Loïc Dachary, qui a initié de nombreux projets de logiciels libres, pour lui demander conseil.

Avant même que je puisse ne serait-ce qu’évoquer mon idée, Loïc m’a demandé : « Tu as une URL » ? J’étais abasourdi. Ben, je n’ai pas encore commencé, répondis-je. Bien sûr que si, reprit-il, puisque tu m’en parles c’est que tu as commencé. Le plus important, c’est que tu me dises où sont les octets.

Loïc m’expliqua ensuite que la plupart des projets échouent. Le plus difficile dans un projet de logiciel libre est de le pousser à un stade suffisamment avancé pour qu’il puisse survivre même si ses créateurs initiaux le quittent. Donc, selon la théorie de Loïc, la tâche la plus urgente à accomplir au démarrage d’un projet, c’est de générer ces octets, dans l’espoir qu’ils se fraieront un chemin jusqu’à une équipe de développeurs qui contribueront à maintenir le projet actif.

Mais qu’est-ce qu’il entend par « octets » au juste ? Il veut tout simplement dire que vous devez exposer vos réflexions, votre code, vos projets, vos idées, presque tout en fait sur une adresse publique où tout le monde pourra les voir. Montrez vos octets, montrez-les à chaque fois que vous en créez si peu que ce soit. C’est la seule chance de survie de votre projet de logiciel libre.

Le premier objectif d’un projet de logiciel libre est de rassembler des développeurs. Aucun projet ne peut avoir de succès à long terme sans une base diversifiée de développeurs. Le problème c’est que le travail initial de développement et le planning du projet finissent trop souvent enfermés dans la tête d’un petit noyau de développeurs. C’est dans la nature humaine : comment puis-je passer mon temps à expliquer à chacun ce que je suis en train de faire ? Si je le fais, quand trouverai-je le temps de faire vraiment avancer les choses ? Ceux qui dirigent les projets de logiciels libres savent résister à ce désir naturel et font ce qui peut sembler contre-intuitif : ils exposent leurs octets publiquement, même si cela les ralentit un peu.

Ce processus est d’autant plus nécessaire à l’ère des réseaux. Si quelqu’un veut créer un programme qui remplisse sa mission, son premier outil est le moteur de recherche : il s’agit de savoir si quelqu’un d’autre a déjà fait le boulot. L’avenir de votre projet dépend entièrement du fait que chaque recherche de ce type aide des développeurs à découvrir vos octets.

Début 2001 j’ai demandé à Larry Wall quel était le projet le plus difficile parmi tous ceux sur lesquels il a travaillé. Sa réponse fut immédiate : "quand j’ai développé la première version de Perl5," m’a dit Larry, "j’avais l’impression que je devais coder tout seul et le faire tourner par mes propres moyens". Bien sûr, Larry est un gars tellement doué qu’il peut se permettre de créer à lui tout seul un programme que tout le monde voudra utiliser. Bien que je ne lui aie pas demandé ce qu’il ferait aujourd’hui dans une situation pareille, je devine – particulièrement quand on voit comment le développement de Perl6 est devenu public – qu’il utiliserait plutôt les nouveaux outils en ligne, tels que DVCS, pour montrer plus vite et plus souvent ses octets, et chercher à impliquer plus tôt davantage de développeurs[3].

Il est vrai que la priorité de la plupart des développeurs est de tout cacher. "On publiera quand ce sera prêt", ou bien – pire encore – "le noyau dur de l’équipe travaille bien ensemble ; rendre le projet public maintenant ne ferait que nous ralentir". En vérité, c’est un mélange dangereux de peur et de narcissisme, exactement la même pulsion que celle qui pousse les développeurs de logiciels non-libres à les conserver propriétaires.

Les développeurs de logiciels libres ont la possibilité de dépasser la réalité fondamentale de tout développement logiciel : le code est mal fichu, et n’est généralement pas terminé. Malgré tout, il est essentiel que la communauté puisse voir ce qu’il se passe à chaque étape, dès le noyau initial du code et au-delà. Quand un projet est perçu comme actif, cela attire les développeurs et donne au projet une chance de succès.

Quand j’étais à la fac, une des équipes d’une classe de génie logiciel s’est complètement plantée. C’est arrivé alors même qu’un des membres de l’équipe avait passé près de la moitié du semestre à coder par lui-même, nuit et jour, sans se soucier des autres membres de l’équipe. Durant l’évaluation finale, le professeur lui fit remarquer : « un développeur de logiciel, ce n’est pas un pilote de chasse ». L’étudiant, ne voyant pas le rapport, plaisanta : « Ouais, je sais, au moins le pilote de chasse, il a un copilote ». En vérité, il ne suffira pas d’une personne ou deux, ou même d’une petite équipe, pour faire aboutir un projet de logiciel libre. Le projet ne marchera que s’il est soutenu par une communauté importante qui évitera tout point individuel de défaillance.

Il n’en reste pas moins que la plupart des projets de logiciels libres sont voués à l’échec. Cependant, il n’y a aucune honte à balancer quelques octets, pour inciter les gens à y jeter un oeil, quitte à laisser tomber si la mayonnaise ne prend pas. Toute la recherche scientifique fonctionne ainsi, et il n’y a pas de raison pour que l’informatique fasse exception. Garder un projet privé, c’est garantir son échec ; le seul intérêt, c’est que vous pouvez dissimuler le fait que vous avez essayé. Comme le disait mon directeur de thèse lorsque je me faisais du souci quant à la réussite de ma recherche : un résultat négatif peut être aussi intéressant qu’un résultat positif. Ce qui est important, c’est d’être sûr que tous les résultats seront publiés et que le public pourra les examiner.

Quand j’ai commencé à parler de cette idée il y a quelques semaines, certains m’ont répondu que les premiers programmes GNU, les logiciels fondateurs de notre communauté ont d’abord été développé en privé. C’est vrai, mais le fait que les développeurs du projet GNU aient procédé de cette façon ne veut pas dire que c’est la bonne. Nous disposons désormais des outils pour faire facilement du développement en public, et nous devrions le faire. De mon point de vue, aujourd’hui nous ne sommes pas vraiment dans l’esprit du logiciel libre tant que le projet, y compris les discussions sur sa conception, les plans et les prototypes, ne sont pas développés publiquement. Le code (quelque soit sa licence) qui n’est que balancé à intervalles plus ou moins réguliers mérite d’être repris par une communauté qui rende son développement public.


Mise à jour (2010-06-12) : J’ai complètement oublié de parler de « The Risks of Distributed Version Control » par Ben Collins-Sussman, qui date de cinq ans maintenant mais qui est toujours d’actualité. Ben fait un constat similaire au mien, et remarque que certaines utilisations de DVCS peuvent avoir les effets que j’encourage les développeurs à éviter. Je pense que DVCS est comme n’importe quel autre outil : il peut être mal utilisé. Il faut éviter de s’en servir comme Ben le signale, et DVCS, lorsqu’il est utilisé correctement, aide dans le processus de développement public de logiciel.

Notes

[1] Fonctionnant tout comme GNU Savannah grâce au logiciel Savane dont il est le principal développeur.

[2] Crédit photo : Steve Jurvetson (Creative Commons By). Cette photo, intitulée « mémoires primitives » est un gros plan sur une barrette de mémoire vive du milieu du siècle dernier. On y voit un quadrillage de « fins » fils de laiton, tricoté à la main avec de petits anneaux de ferrite à chaque intersection, le tout noyé dans de la colle. L’ensemble, qui pouvais occuper le volume d’un magazine papier, était capable de conserver plusieurs centaines de … bits de mémoire. Le circuit tricoté ici représente ainsi 38 octets de mémoire vive, et il est assez vertigineux de constater que 50 ans plus tard, on stocke environ 25 millions de fois plus d’information dans le volume de chaque anneau de ferrite.

[3] Notez que rendre son code public au milieu des années 1990 était plus difficile (d’un point de vue technologique) que maintenant. Ceux qui n’ont pas connu les archives shar ne s’en rendent pas compte. 🙂