Des prothèses libres pour mieux vivre

OpenProtheticsProject - CC-By-SA

Dans notre exploration de la « culture du libre » et de son expansion, nous avons déjà longuement parlé d’une encyclopédie libre, d’un atlas géographique communautaire, d’un long-métrage d’animation insurgé contre l’avidité d’héritiers ayant droit, d’un opéra libre illustré en BD, du mouvement des bidouilleurs d’électronique libre, et même d’un concept de téléphone portable réaliste et novateur, à peine en avance sur son temps, émanant d’un forum sur Internet…

Nous continuons aujourd’hui cette exploration avec un projet quelque peu insolite : l‘Open Prosthetics Project, ou littéralement « Projet pour des Prothèses Libres ». Au regard de l’éthique propre à la profession médicale, on pourrait presque s’étonner que le libre n’y soit pas encore en pointe, en particulier si l’on oppose le fait que les bourses du monde entier s’y soient déjà mises. Toutefois, si les logiciels libres dédiés commencent à arriver dans ce secteur, il était moins évident d’afficher son optimisme quant au matériel médical.

Et pourtant, avec le foisonnement et la créativité propre aux projets libres, ouverts à tous et montés sur Internet, l’OPP remporte progressivement son pari de faire évoluer le monde des prothèses, passant d’une assistance en plastique gris à un carnaval de fonctionnalités intégrées à ce qui devient alors un atout pour son porteur.

Enfin, au delà du sujet de fond, cette traduction d’OpenSource.com (effectuée par Framalang) est également un témoignage candide mais juste de la réussite d’un projet, a priori pas grand public, dans le rassemblement d’une communauté en ligne de contributeurs.

Se prendre au jeu des prothèses libres

Getting hooked on open source prosthetics

Jason Hibbets – 3 novembre 2010 – OpenSource.com
Traduction Framalang : Zitor, RaphaelH, Goofy, Siltaar

Il y a quelques mois, je me suis posé la question : Est-ce que le libre peut permettre la création de meilleures prothèses ? J’avais aujourd’hui l’intention de revenir sur le sujet pour constater les progrès accomplis par le projet. Lors de la rédaction du premier article, j’avais appris que les développeurs principaux du projet éprouvaient des difficultés avec les outils de collaboration et les multiples projets disséminés sur le web. Qu’ont-ils fait pendant ces derniers mois afin de se regrouper et de focaliser les efforts et la motivation dans la bonne direction ? C’est ce que nous allons découvrir.

L’Open Prosthetics Project (OPP) est maintenant plus organisé, et prêt à encourager une collaboration mondiale autour de leurs efforts. Ils utilisent le site principal comme un portail permettant d’orienter les visiteurs vers les différentes possibilités de participation. Mais ce n’est pas tout. L’OPP utilise également un wiki pour héberger les différents projets actifs, ainsi qu’un réseau social personnalisé pour la communication et le partage d’informations.

C’est la participation de ses membres qui définit une communauté. Une des meilleures façons d’inciter les gens à participer est de fournir une liste de choses à faire. Focaliser l’énergie des gens sur un sujet qui les passionne, ou demander de l’aide à ceux qui ont les compétences spécifiques nécessaires pour atteindre un but en particulier. Le projet OPP a travaillé sur la façon de présenter les différentes façons d’aider, et a astucieusement détaillé sur son site dans quels domaines un besoin a été défini. Que vous soyez un nouveau ou un habitué de la communauté, il est facile de comprendre par où commencer. Sur leur site web, on peut participer très facilement, que ce soit en tant qu’utilisateur, donateur, rédacteur de demandes de subventions, fournisseur de services, chercheur ou membre de l’équipe juridique.

Je ne peux terminer cet article sans mentionner un projet qui a retenu mon attention : Pimp my arm (littéralement Arrange ton bras). Que diriez-vous d’une prothèse qui pourrait diffuser de la musique et des vidéos ? Envoyer et recevoir des SMS ou se connecter en Bluethooth ? Pimp my arm est le projet où les bénévoles et les gens qui ont des besoins spécifiques pour leur prothèse peuvent échanger leurs idées et envisager des solutions.

Je pense que c’est un endroit où le brassage d’idées peut profiter d’expertises et d’intérêts variés, en réalisant ainsi des progrès rapides dans le domaine des prothèses libres. C’est le genre de projet qui permet à des bénévoles (n’ayant pas nécessairement besoin d’une prothèse) de mettre en pratique leurs compétences et leur passion pour le bidouillage et le perfectionnement de bras, leur ajoutant des accessoires modernes et sympas pour les rendre plus fonctionnels.

Même si la conception de prothèses ne vous intéresse pas, je pense que ce projet montre clairement comment il est possible de développer une communauté en étant transparent sur ses besoins. Il montre comment donner de l’ampleur à une communauté, comment explorer de nouvelles voies pour tirer profit de la base de connaissances existante, et comment tisser davantage de liens avec les groupes qui pourront apprécier le travail que vous vous efforcez de mener à bien.

Ressources :




Les cordons de la bourse de Londres se relâchent pour GNU/Linux

Jam_90s - CC-ByComme nous l’apprenait Lea-Linux le mois dernier :

GNU/Linux progresse sur les environnements dits critiques. On savait qu’il était utilisé sur les serveurs sensibles des militaires, des grands organismes de recherche, de la NASA et de nombreux industriels, ajoutons désormais le monde de la finance à cette liste. En effet, Computer World UK nous apprend que la Bourse de Londres mettra en production le 15 novembre prochain sa nouvelle plate-forme à base de GNU/Linux et Solaris, pour remplacer la plate-forme boguée « TradElect » basée sur Microsoft Windows, et la technologie .Net manifestement trop lente.

GNU/Linux a notamment été choisi par les britanniques pour ses performances (des temps de transmission de 0,125 milliseconde ont été enregistrés lors des tests). Le fait que le Chicago Mercantile Exchange, la Bourse de Tokyo et le NYSE Euronext soient déjà passés à GNU/Linux (Red Hat) n’y est sans doute pas pour rien non plus.

[1]

La Bourse de Londres a réalisé un premier test de sa plateforme « Millennium Exchange » basée sur Linux

London Stock Exchange completes first live Linux test

Leo King – 13 octobre 2010 – Computerworld UK
Traduction Framalang : Pablo, Barbidule, Siltaar, Kootox, Goofy, Petrus6, Martin, Don Rico, Daria

La Bourse de Londres a fait le premier test grandeur nature, avec des clients en ligne, d’un nouveau système fondé sur Linux et destiné à remplacer l’architecture actuelle basée sur des produits Microsoft et qui permettra d’échanger à la vitesse de 0.125 millisecondes.

Le système « Millennium Exchange » fonctionnant sur Linux et sur Unix (Sun Solaris) et utilisant les bases de données d’Oracle, remplacera le 1er novembre la plateforme TradElect, reposant sur Microsoft .Net, pour la plus grande bourse au monde. Il promet d’être le système d’échanges le plus rapide du monde, avec un temps de transaction de 0.125 milliseconde. La Bourse a terminé la migration de son système de gestion des transactions stagnantes/dormantes, ou anonymes, Turquoise, depuis différents systèmes, plus tôt ce mois-ci.

La BDL (Bourse De Londres) a refusé de dévoiler le verdict du test en avant-première du « Millenium Exchange », qui s’est déroulé samedi après plusieurs mois de tests hors ligne intensifs. Cependant, des sources proches de la Bourse ont indiqué qu’il se serait déroulé avec succès.

Une autre répétition générale aura lieu le 23 octobre, un peu plus d’une semaine avant le lancement dans le grand bain. La Bourse pousse pour lancer le service le 1er novembre, mais si les clients, les traders, ne sont pas prêts ou si des problèmes techniques apparaissent, une date de lancement alternative a été prévue au 15 novembre.

En attendant, la Bourse va continuer à travailler avec le système TradElect, basé sur une architecture Microsoft .Net et mis à jour par Accenture en 2008 pour 40 millions de livres (46 millions d’Euros). En juillet, elle a réservé 25,3 millions de livres (29,2 millions d’Euros) en coûts d’amortissement sur TradElect.

TradElect, sujet de nombreuses controverses ces dernières années, avait subi une série de pannes de grande envergure, la pire étant un arrêt de huit heures en 2008. À l’époque, la BDL avait maintenu que TradElect n’était pas responsable de la panne, mais a néanmoins, tenté de remplacer la plateforme depuis, en faisant l’acquisition de la société MilleniumIT, le fournisseur de ce nouveau système.

Les vitesses réseau sont aussi une des raisons principales de ce changement. La BDL a tenté désespérément de descendre les temps de transaction sur TradElect en-dessous des 2 millisecondes, une vitesse léthargique comparée à la concurrence comme Chi-X qui annonce des temps de moins de 0,4 millisecondes.

La BDL annonce que sa nouvelle plateforme d’échange aura des temps de réponse de 0,125 millisecondes, ce qui pourrait en faire une des plateformes d’échange les plus rapides du monde. Le changement est particulièrement important étant donné la progression des transactions algorithmiques, où des ordinateurs placent automatiquement des millions d’ordres d’achat et de vente alors que les prix des actions changent.

Lors d’une interview cette semaine dans le Financial Times, le directeur général de la Bourse de Londres, Xavier Rolet a déclaré que la Bourse avait « déjà prévu » la prochaine génération d’améliorations technologiques pour maintenir la plateforme Millenium à la pointe de la technologie en terme de vitesse de transaction.

Notes

[1] Crédit photo : Jam_90s Creative Commons By




Rap News sur WikiLeaks, une improbable conscience ?

TheJuiceMedia CC-By-NC-SALes jours fériés, on les consacre à ses passions non ? Alors après le rap militant de Dan Bull contre ACTA, laissez moi vous présenter Rap News [1], ce journal vidéo reprenant les codes du JT pour diffuser, en rythme et en rimes, de l’actualité comme on en voit rarement à la télé.

En effet, pour accompagner les deux dernières publications massives de télégrammes américains des guerres en Afghanistan et en Irak par WikiLeaks, le collectif TheJuiceMedia, un média australien indépendant, a réalisé deux vidéos pertinentes et humoristiques, plantant le décor politique de ces fuites, sur fond de défense de la neutralité du net [2].

Bourrées de références [3], ces vidéos valent autant par les prouesses de l’acteur que la finesse des textes, et c’est pourquoi, avec l’ami Koolfy de la Nurpa.be, croisé sur le canal IRC de La Quadrature du Net [4], nous avons souhaité offrir une version sous-titrée de ces vidéos pour les francophones de tous pays (même la Belgique !).

Après plusieurs heures de temps libre [5] bien employé, nous proposions donc nos sous-titres à l’adresse de contact du collectif TheJuiceMedia qui les accueillit avec enthousiasme et les ajouta directement aux vidéos « officielles », déjà visionnées respectivement plus de 80 000 et 100 000 fois sur YouTube [6].

Toutefois, les voici reproduites ici pour vous avec l’accord des auteurs, servies et sous-titrées librement, stockées dans Framatube, et passées à travers Universal Subtitles. Ne manquez pas l’invité de prestige dans la deuxième vidéo.

Rap News contre le Pentagon

Rap News vs The Pentagon

—> La vidéo au format webm
—> Le fichier de sous-titres

Rap News contre Nouvelles Ordre Mondial

Rap News vs News World Order

—> La vidéo au format webm
—> Le fichier de sous-titres

Notes

[1] Travail copyrighté pour l’instant, mais sûrement dû à un « choix » par défaut. Je viens d’écrire aux auteurs sur ce sujet et vous tiendrai informés. Édition le 12/11/2010 à 1:52 : Leur réponse est à la hauteur de leur travail, ils me prient de considérer leur travail comme étant couvert par une CC-By-NC-SA. Seul le design du site web de thejuicemedia.com est sous Copyright de la conceptrice graphique.

[2] Rien à voir, dans ce contexte, avec le FDNN que vous avez croisé si vous soutenez, comme moi, la Quadrature du Net 😉

[3] Notamment cet extrait de JT présenté par Bill O’Reilly sur les télé. américaines.

[4] Et cet été à Bordeaux aux RMLL 2010.

[5] C’est une notion assez vague pour un Framaslave 🙂

[6] Et nous sommes fiers de constater que des collègues allemands, brésiliens et grecs nous ont rejoint dans cette initiative.




La promiscuité sans fil des réseaux WiFi publics

David Goehring - CC-BySe connecter à un Wifi public dans un parc, une gare ou un café [1] pour accéder à Internet, c’est un peu comme passer par la salle d’attente du médecin avant une consultation. Dans les deux cas, vous avez confiance en votre destination [2], mais vous êtes au préalable enfermé dans un espace avec des étrangers, tous plus ou moins malades.

En effet, le WiFi d’un café vous connecte, comme la salle d’attente, avec votre entourage direct, sans que vous ayez rien demandé. Or, si votre dossier médical est confidentiel, il suffit de faire tomber ses papiers dans une salle d’attente pour que toutes les personnes présentes puissent les lire, et il suffit de se connecter (via un WiFi public) à un service qui n’utilise pas le protocole HTTPS pour que votre entourage connecté puisse s’immiscer dans votre session et votre intimité.

Les coupables ? Les sites conservant à votre place des éléments de votre vie privée d’une part, et proposant d’autre part et sans la protection du petit cadenas qui dénote de l’utilisation du protocole HTTPS, de « garder votre session ouverte » grâce à un cookie. Si vous y prenez garde, ce n’est pas le cas des services en ligne de votre banque.

Toutefois, si l’auteur est assez pessimiste dans son petit billet complémentaire (reproduit ici à la suite du premier) face aux moyens de protection à notre disposition, il existe plusieurs extensions Firefox pour limiter les risques sans trop se compliquer la vie, citons (sur les bons conseils de Goofy) HTTPS Everywhere, et Force-TSL. De plus, il me semble également assez simple de se connecter, où qu’on soit, d’abord à un VPN personnel, ou directement en SSH sur son serveur à soit (voir l’extension Foxyproxy de Firefox), pour surfer ensuite l’esprit tranquille et sans laisser de traces locales, comme si on était à la maison. D’ailleurs, votre WiFi chez vous, il est protégé comment ?

Quand le berger prévient les moutons à New York City

Herding Firesheep in New York City

Gary LosHuertos – 27 octobre 2010 – TechnologySufficientlyAdvanced.blogspot.com
Traduction Framalang : Goofy, Pablo, cheval_boiteux

On a beaucoup parlé de Firesheep ces derniers jours. Cette extension gratuite pour Firefox récolte pour vous les cookies qui sont envoyés depuis un réseau WiFi non protégé n’utilisant pas le protocole SSL. Vous la mettez en route, elle collecte les cookies de Facebook, Twitter et de 24 autres sites (par défaut). Ensuite, vous pouvez voler l’identité d’un compte et obtenir l’accès sous cette identité.

L’extension n’a rien de scandaleux en elle-même. Si vous êtes un développeur un peu compétent, vous savez depuis longtemps que cette faille existait, n’est-ce pas ? Mais quid du reste du monde ? Tous ces gens qui n’ont jamais entendu parler de cette nouvelle menace si facile d’accès, qui n’ont pas été alertés par leurs amis, qui ne regardent pas Engadget, ni Slashdot, ni ABC Pronews7 à Amarillo ?

Je me suis dit que j’allais faire passer le message et aider les béotiens après leur travail, puisqu’il y a un grand Starbucks tout près de chez moi. J’y suis allé, j’ai acheté un peu de nourriture malsaine, j’ai ouvert mon portable et lancé Firesheep. Moins d’une minute plus tard, j’avais cinq ou six identités disponibles dans le panneau latéral. Trois d’entre elles étaient sur Facebook.

Absolument rien de surprenant ; Firesheep n’est pas magique, et tous ceux qui vont au Starbucks savent qu’un tas de gens y mettent à jour leur statut Facebook sans faire attention, tout en sirotant leur café au lait. J’ai pensé que j’allais y passer un peu plus de temps, j’ai donc écouté un peu de musique, parlé à quelques amis, et le plus important (mais pas le plus simple) je n’ai navigué sur aucun site avec le protocole standard HTTP (et surtout pas sur Facebook évidemment).

Environ une demi-heure plus tard, j’avais récolté entre 20 et 40 identités. Puisque Facebook était de loin le service le plus représenté (et qu’il détient plus d’informations personnelles que Twitter) j’ai décidé d’envoyer aux utilisateurs des messages depuis leur propre compte, pour les avertir des risques auxquels ils s’exposaient. J’ai fait un modèle de message sympa qui précisait la localisation du Starbucks, la nature de la vulnérabilité, et comment y remédier. J’ai envoyé des messages aux 20 personnes autour de moi.

J’ai nettoyé le panneau latéral, retiré mes écouteurs, et j’ai attendu. J’ai entendu quelqu’un marmonner un juron pas très loin, et me suis demandé si mon message en était la cause. Pendant le quart d’heure suivant, je n’ai entendu strictement personne parler de ce qui venait se passer (pourtant ceux qui fréquentent les Starbucks ne sont le plus souvent pas du genre à tenir des conversations discrètes). Pourtant, j’ai pu vraiment constater une nette chute du nombre d’identités que je pouvais récolter quand j’ai relancé Firesheep.

C’était un soulagement — en voilà qui avaient compris le message. Avec un peu de chance, ils allaient alerter leurs amis, mettre à l’abri leur femme et leurs enfants. J’ai de nouveau nettoyé le panneau latéral, et après une vingtaine de minutes de conversations impromptues j’ai vu que cinq identités que j’avais déjà croisées étaient revenues dans mon troupeau.

C’était assez surprenant. Avaient-ils reçu le premier message ? Je me suis mis sur leur compte avec leurs identifiants, et en effet ils l’avaient reçu. L’un d’entre eux était même sur Amazon.com, site contre lequel j’avais mis en garde dans mon premier message. Je l’ai choisi pour première cible : j’ai ouvert sa page perso sur Amazon, j’ai repéré un truc sur lequel il avait récemment jeté un coup d’œil et lui ai envoyé un mot : « non, c’est pas sérieux » sur Facebook depuis son propre compte, avec un clin d’œil sur ses goûts musicaux.

J’ai encore une fois effacé les identités, attendu dix minutes, et lorsque j’ai à nouveau rassemblé mon troupeau avec Firesheep, il était parti. Mais il y en avait encore quatre qui restaient là. Peut-être, me suis-je dit, qu’ils ont cru que c’était un message d’avertissement automatique les ciblant au hasard (bien que j’aie mentionné leur localisation dans un rayon d’une trentaine de mètres). Donc, un dernier message était nécessaire.

J’ai bricolé un très court message (le premier était peut-être trop long ?) et je l’ai envoyé aux quatre, une fois encore avec leur propre compte :

« C’était vraiment pas une blague l’avertissement sur la sécurité. Je n’enverrai plus d’autre message après celui-ci –– à vous de prendre sérieusement en main votre propre sécurité. Vous êtes au Starbucks XYZ connecté de façon non sécurisée, et absolument n’importe qui peut accéder à votre compte avec l’outil approprié nécessaire (et disponible à tous). »

Vingt minutes ont passé, et tous les quatre utilisaient encore Facebook frénétiquement. Encore une fois, j’ai envisagé qu’ils auraient pu ne pas recevoir le message, mais en vérifiant leur compte j’ai vu qu’ils l’avaient bel et bien reçu.

Voilà ce qu’il y a de plus choquant à propos de la sécurité sur Internet : ce n’est pas que nous soyons tous scotchés sur un réseau global qui tient avec des bouts de sparadrap et laisse béants d’horribles failles de sécurité ; ce n’est pas non plus qu’un outil librement disponible puisse récolter des cookies d’authentification ; et ce n’est toujours pas qu’il y ait des gens pas du tout au courant de l’un ni de l’autre. Ce qui est absolument incompréhensible, c’est qu’après avoir été averti d’un danger (et sur son propre compte !) on puisse tranquillement ignorer l’avertissement, et reprendre le fil de ses activités.

Mais enfin j’ai tenu parole et n’ai pas envoyé d’autre message. J’ai rangé mon matériel, fait un petit tour dans le café, et reconnu plusieurs personnes auxquelles j’avais montré leur vulnérabilité. Je n’avais pas laissé d’indices sur ma propre identité, moins par crainte de rétorsion que parce que l’intrusion dans la vie privée est encore plus traumatisante quand elle est commise par un étranger complet, dont on n’a pas la moindre chance de découvrir l’identité.

En revenant chez moi, j’ai réfléchi à ce que cette expérience révélait de notre société. Peu importe le nombre de mesures de sécurité que nous procurons au monde entier, il y aura toujours des gens qui laisseront la porte ouverte, même s’ils ont été victimes d’une intrusion. Le maillon le plus faible de la sécurité c’est et ce sera toujours la décision de l’utilisateur.

De retour dans mon appartement, j’ai commencé à m’installer — et c’est le moment où je me suis rendu compte que pendant toute la soirée j’avais eu la braguette grande ouverte. La preuve par neuf finalement : nous nous baladons tous avec des vulnérabilités qu’il nous reste à découvrir.

Addendum

Herding Firesheep Addendum

Gary LosHuertos – 04 novembre 2010 – TechnologySufficientlyAdvanced.blogspot.com
Traduction Framalang : Siltaar, RaphaelH, Goofy

À la suite du billet précédent, je me suis dit qu’en voulant faire court j’avais omis quelques informations. Ceci sert donc d’addendum à mon précédent billet, et a été rédigé de la manière la plus courte possible.

Le message original envoyés aux clients était le suivant :

Comme vous utilisez Facebook sans chiffrement dans un Starbucks, votre compte a été compromis. Je ne suis qu’un amical client du Starbucks qui a souhaité vous prévenir de cette vulnérabilité.

Vous pouvez en apprendre davantage en cherchant des informations sur « Firesheep ». Il n’y a pas vraiment de solutions disponibles pour protéger votre compte Facebook lorsque vous êtes connectés à un réseau public, et je vous recommande donc simplement de ne pas vous y connecter lorsque vous êtes dans un Starbucks. Cette faille affecte également Twitter, Amazon.com, Google (mais pas Gmail), et quantité d’autres services.

Votre mot de passe n’a pas été compromis. Vous déconnecter de Facebook est tout ce que vous avez besoin de faire.

Pour préciser mes motivations, laisser un compte Facebook sans protection ne signifie pas seulement que quelqu’un peut regarder vos photos, vos coups de cœurs et messages. Un compte Facebook compromis donne à quelqu’un d’autre l’accès à votre identité, lui permettant de se faire passer pour vous auprès de vos amis, ruinant potentiellement des relations. S’il est possible de rattraper les choses ensuite, le temps et l’énergie que ça demande sont importants, surtout pour quelqu’un qui a beaucoup d’amis. Quelqu’un envoyant un faux message à l’un de vos amis n’est peut être pas un gros problème, mais un faux message envoyé à 500 de vos amis est déjà plus gênant. D’autant plus qu’il peut y avoir des collègues de travail, des membres de votre famille, ou des clients dans ces 500 personnes.

Concernant la légalité de mes actions : ça n’était pas l’objet de mon article. On peut toujours spéculer sur fait que je finisse en prison, mais c’est hors sujet par rapport à ce dont je parle dans mon billet : les sites non protégés comme Facebook et Twitter sont dangereux pour leurs utilisateurs. Il semble plus intéressant de consacrer son énergie à faire passer le mot plutôt que de troller sur mon éventuelle incarcération.

Enfin concernant ce que les utilisateurs peuvent faire, la meilleure réponse à l’heure actuelle est : rien. Ne vous connectez pas aux réseaux non protégés pour utiliser ces sites web, ou bien utilisez une application qui n’utilise pas d’authentification par cookie non protégée (pour ce que j’en sais, l’application Facebook pour iPhone ne le ferait pas). Assurez-vous que votre réseau WiFi domestique est chiffré en WPA, voire en WPA2 (le WEP est trivialement déchiffrable). Si vous utilisez Facebook au travail sur une connection sans-fil, vérifiez le chiffrement du réseau. La faille de sécurité ne vient pas seulement de Firesheep, elle vient du manque de protection des connexions. La menace la plus grande vient des outils automatisés qui existent depuis des années [3].

Notes

[1] Crédit : CarbonNYC David Goehring Creative Commons By

[2] Et le sujet ici, n’est pas savoir si cette confiance est bien placée…

[3] Voir la magie des Google Cars expliquées par PCINpact ou ZDNet par exemple…




Geektionnerd : Carte musique

Geektionnerd - Simon Gee Giraudot - CC by-sa

Geektionnerd - Simon Gee Giraudot - CC by-sa

 

Pour rappel, nous présentions une approche pratique de la notion de DRM il y a peu de temps sur ce blog.

Crédit : Simon Gee Giraudot (Creative Commons By-Sa)




TF1 réclame (sans rien risquer) Google censure (sans vérifier)

Vidberg © LeMonde.fr Sur le Framablog, on ne manque pas une occasion d’agir contre la censure, ou de publier le témoignage d’un citoyen s’élevant contre les menaces et restrictions faites à nos libertés fondamentales [1]. Parce qu’après tout, et comme me le fit un soir remarquer Benjamin Bayart, qu’est-ce qui nous motive tous dans le mouvement du Logiciel Libre ? Et dans la défense de la neutralité du réseau qui lui est indispensable ? Qu’est-ce qui nous réunit, si ce n’est la liberté d’expression ? Cette petite flamme fragile et dangereuse qui vacille au souffle du pouvoir et nécessite, pour être entretenue, notre attention constante.

Le témoignage que nous vous proposons aujourd’hui est celui de Theocrite, un « administrateur système » engagé pour le Logiciel Libre, qui nous explique comment TF1 [2] a silencieusement fait censurer par Google un extrait vidéo de débat à l’Assemblée Nationale.

On savait déjà que certains n’hésitent pas à attaquer, en vertu du Copyright de sa bande son, une vidéo compromettante, au mépris du « fair-use » largement accordé aux vidéos de lolcats. Mais cet extrait, posté par La Quadrature du Net, n’a lui pour seule bande son que le discours à l’Assemblée des députés de la République. Cela n’a pourtant pas arrêté TF1 [3] dans son coup de poker, son nouveau coup de poignard dans le dos de l’éthique et de notre liberté d’information.

Cette vidéo, c’est celle du rejet intégral par l’Assemblée Nationale du projet de loi HADOPI 1 le 9 avril 2009, et, pour illustrer le principe selon lequel une tentative de censure s’avère toujours contre-productive pour le censeur, la voici, archivée dans notre collection Framatube :

—> La vidéo au format webm

TF1 censure des vidéos HADOPI sur YouTube

Et Google ne vérifie pas la véracité des accusations

Theocrite – 1er novembre 2010

En me promenant sur le compte YouTube de la Quadrature du Net, j’ai découvert récemment dans les paramètres du compte que certaines vidéos étaient listées comme pouvant « comporter un contenu appartenant à un tiers ».

Theocrite - CC By Sa

Hm, c’est possible… Intrigué, je clique sur le lien proposé et je m’aperçois que la vidéo en question est la vidéo du rejet de la loi HADOPI l’Assemblée Nationale.

Theocrite - CC By Sa

Bigre ! Voilà que des vidéos contenant des discours « prononcés dans les assemblées politiques » serait en contradiction avec le droit d’auteur. Voilà qui est bien étrange.

Pour en savoir plus, je clique sur « Afficher les informations sur les droits d’auteur ».

Theocrite - CC By Sa

On y apprend des choses très intéressantes… Comme le fait que les vidéos produites dans l’hémicycle seraient la propriété de « lgl_tf1 ». Un peu présomptueux de la part de la vieille chaîne qui descend.

Bon, portons réclamation. Après avoir lu une page chiante à mourir, on accède à un formulaire de réclamation, fortement limité, mais je suis décidé à faire avec.

Theocrite - CC By Sa

Theocrite - CC By Sa

Je fais alors subtilement remarquer que dans la législation française, les débats politiques sont publics… Puis je valide l’envoi du formulaire.

Theocrite - CC By Sa

Le lendemain, je constate que j’ai obtenu gain de cause : la vidéo est débloquée. Mais pour combien de temps ? Google n’a pas pris la peine de nous notifier que la vidéo était à nouveau disponible. On pouvait toujours attendre en relevant notre boîte mail.

Theocrite - CC By Sa

Bilan

Google est réactif, mais pas spécialement poli. Pas de notifications lors du blocage de la vidéo, ni lors du déblocage.

La vidéo a été bloquée pendant un certain temps. Combien de temps ? Aucune idée. Mais TF1 a tenté et a réussi à faire censurer la vidéo, peu importe combien de temps, et ce sans rien risquer. C’est un jeu permanent dans lequel les plaignants ne peuvent pas perdre et les internautes ne peuvent pas gagner.

Ce n’est pas une nouvelle, pour TF1 quand il s’agit d’HADOPI, tous les moyens sont bons pour supporter la loi. Que ce soit en inventant un plébiscite lors d’un vote, en censurant son rejet comme nous venons de le voir ou encore en s’occupant des « salariés qui, manifestement, aiment tirer contre leur camp. »

Mais sur YouTube, TF1 ne s’arrête pas à HADOPI. TF1 sort le bulldozer. Je vous invite à rechercher lgl_tf1 dans un moteur de recherche. Celui de nos amis possesseurs de YouTube par exemple, ou bien sur un moteur de recherche libre, vous y trouverez des réactions unanimes d’Internautes énervés, soit parce que lgl_tf1 a bloqué des vidéos de France 2. Soit parce que TF1 a bloqué des vidéos sur lesquelles elle a acquis les droits de diffusions pour une certaine partie du monde, et se passe de demander aux auteurs s’ils autorisent cette rediffusion.

Notes

[1] Telles que garanties par la déclaration des droits de l’Homme et du citoyen, et rappelées par le « considérant n°12 » de la décision n°2009-580 DC du 10 juin 2009 du Conseil Constitutionnel concernant HADOPI 1 par exemple.

[2] Crédit première illustration : Vidberg © LeMonde.fr, reproduite avec l’aimable autorisation de l’auteur. Licence équivalente à une CC-By-NC-ND avec autorisation préalable requise.

[3] Ou peut-être un imposteur, que le chaîne laisserait agir « en son nom » depuis plus de deux ans.




Petites précisions sur les licences Creative Commons par Nina Paley

Nina Paley - CC-By-SaLes licences Creative Commons sont flexibles et puissantes. Extension naturelle de la GPL [1] à autre chose que du logiciel 10 ans plus tard, ce jeu de licences se présente comme le couteau suisse du droit d’auteur, déclinable en 6 versions de bases, plus quelques fantaisies récentes. Il en résulte que quelque soit votre envie, une déclinaison de licence Creative Commons devrait y répondre, seulement le résultat ne sera pas forcément « libre », une CC-By-NC-ND ne permettant par exemple pas de remixer une œuvre. Une autre conséquence est que la mention « Creative Commons » sans autre indication n’a pas de sens.

Malheureusement, cette flexibilité et cette richesse de possibilités semblent bien souvent perdre les créateurs de tout poils désireux de remixer des œuvres libres sans prendre le temps d’en comprendre le fonctionnement. C’est en tout cas ce que constate sur Nina Paley sur son blog, en proposant sa solution au problème.

Nina Paley - CC-By-SaEn quelques mots, Nina Paley c’est cette jeune cinéaste américaine, qui, suite à une mésentente avec les ayants droits de la bande son d’une œuvre qu’elle remixait avec brio dans son long métrage « Sita chante le blues » décida, après avoir été primée le Festival international du film d’animation d’Annecy, de libérer son film en Creative Commons By Sa.

Enthousiasmée par la Culture Libre qu’elle découvrait à cette occasion, elle n’a cessé depuis d’alimenter des blogs dédiés à ce mouvement, gagnant sa vie par des conférences et des produits dérivés.

Toutefois, il semblerait bien que la solution proposée par Nina Paley ne soit qu’un premier tâtonnement vers… la Licence Art Libre du collectif Copyleft Attitude. Cette licence sans ambiguïté, approuvée par l’OSI et recommandée par la FSF. D’ailleurs n’hésitez pas à en présenter la version anglaise à Nina, elle vous en remerciera.

La confusion des licences Creative Commons

Le fléau de mon existence

Creative Commons’ Branding Confusion

Nina Paley – 10 octobre 2010 – Blog.NinaPaley.com
Traduction Framalang : KooToX, Julien Reitzel, Siltaar

Il y a environ un an et demi, j’ai publié mon film « Sita chante le blues » sous la licence Creative Commons « By Sa » (Paternité – Partage à l’identique). Cette licence permet une vraie distribution libre, incluant l’usage commercial, tant que la licence libre reste en place. Mais d’après mon expérience, la plupart des gens voient les mots “Creative Commons” et pensent que la licence exclue les utilisations commerciales « Non-Commercial » – car la majorité des licences Creative Commons rencontrées interdisent en pratique l’usage commercial de l’œuvre protégée.

C’est un vrai problème. Des artistes ont redistribué des remixes de « Sita » sous la licence Creative Commons « NC ». De nombreux blogueurs et journalistes préjugent des restrictions d’usage commercial, même si la licence est bien nommée :

« Le film a été rendu public sous les termes de la licence Creative Commons By Sa, permettant à d’autres personnes de partager l’œuvre pour des utilisations non commerciales librement, tant que l’auteur de l’œuvre est bien crédité », d’après Frontline, un magazine indien national.

Au début, j’ai essayé d’expliquer ce que « Partage à l’identique » signifiait aux personnes qui remixaient « Sita » en CC-NC, en leur demandant gentiment de revenir à la licence originale, comme voulu par la licence Creative Commons « Partage à l’identique » sous laquelle je l’avais distribué. Je me suis sentie bête, je ne veux pas jouer les flics du droit d’auteur. Au bout d’un moment, les mauvaises identifications de la licence du projet étaient si nombreuses que j’ai arrêté d’essayer de les corriger. « Creative Commons » signifie « pas d’utilisation commerciale » pour la plupart des gens. Se battre contre est une tâche sisyphéenne.

Donc me voilà bloquée avec un problème représentation. Tant que j’utiliserai une licence Creative Commons quelle qu’elle soit, la plupart des gens penseront que j’interdis l’utilisation commerciale des remix de mon œuvre. Presque personne ne semble utiliser, et encore moins essayer de comprendre, la licence CC-SA. Pire, ceux qui remarquent l’option « partage à l’identique » la combinent aux restrictions « pas d’utilisation commerciale » dans leurs rééditions, ce qui ajoute à la confusion (CC-NC-SA est la pire des licences imaginables).

Le partage à l’identique est une solution imparfaite aux restrictions du droit d’auteur, parce qu’il impose lui-même une restriction, qui est l’interdiction d’imposer d’autres restrictions par la suite. C’est une tentative d’utiliser le droit d’auteur contre lui-même. Tant que nous vivrons dans un monde dans lequel tout est protégé par défaut, j’utiliserai le partage à l’identique ou d’autres équivalents Copyleft, pour essayer de maintenir un « espace libre de droit d’auteur » autour des mes œuvres. Dans un monde meilleur, il n’y aurait pas de droit d’auteur automatique et par conséquent aucune nécessité pour moi d’utiliser une quelconque licence. Si cette utopie se réalisait, je supprimerais toutes les licences accolées à mes propres œuvres. En attendant, j’essaye de limiter les droits des gens à limiter les droits des autres.

Il serait bien que l’organisation Creative Commons fasse quelque chose pour remédier à cette confusion d’image. Pour cela, nous avons proposé de renommer les licences « partage à l’identique » en CC-PRO [2], mais étant donné que la base la plus large des Creative Commons est constituée d’utilisateurs de licences sans utilisation commerciale, il semble peu probable (mais pas impossible !) qu’ils distinguent leur véritable licence Copyleft avec une étiquette « pro ».

Nina Paley - CC-By-Sa

Si seulement Creative Commons offrait cela !

Il serait aussi bien que tout le monde, y compris les représentants de l’organisation Creative Commons, fassent référence aux licences par leur nom, plutôt qu’un simple « Creative Commons ». « Merci d’utiliser une licence Creative Commons », m’ont-ils dit. De rien ; Je vous remercierais d’en parler comme d’une licence « partage à l’identique ». Quasiment tous les journalistes font allusion aux 7 licences en parlant de « licences Creative Commons ». Ainsi, dans l’imaginaire populaire, ma licence « partage à l’identique » n’est pas différente d’une licence CC-NC-ND « pas d’utilisation commerciale, pas de modification ».

Cette crise d’image a atteint un pic récemment quand la société Radio-Canada a interdit toutes les musiques sous licences Creative Commons dans leurs émissions :

« Le problème avec notre utilisation de musique Creative Commons est qu’une grande quantité de nos contenus est facilement disponible sur une multitude de plateformes, certaines d’entre elles étant réputées être « commerciales » par nature (par exemple, streaming avec publicités imposée en préalable, ou les téléchargements payants sur iTunes) et qu’actuellement une grande majorité de la musique disponible sous une licence Creative Commons interdit toute utilisation commerciale.

Afin d’assurer que nous continuons d’être en conformité avec les lois Canadiennes en vigueur concernant le droit d’auteur, et étant donné le manque d’un large éventail de musique possédant une licence Creative Commons permettant l’utilisation commerciale, nous avons pris la décision d’utiliser la musique de notre bibliothèque de production dans nos podcasts car à cette musique sont liés les droit d’utilisation appropriés. » [lien]

L’organisation Creative Commons veut obtenir de la SRC qu’elle sépare ses différentes licences. Elle pourrait apporter de l’aide en commençant par appeler ses différentes licences par leur nom. Si l’organisation Creative Commons elle-même les appelle toutes « licences Creative Commons », comment peut-elle attendre des autres qu’ils distinguent ces licences les unes des autres ?

En attendant, je me demande comment communiquer clairement que mon œuvre est COPYLEFT. En plus de la licence CC-SA, s’il y a de la place j’écris « GAUCHE D’AUTEUR, TOUS TORTS RENVERSÉS ». Malheureusement, le terme « Copyleft » est lui aussi de plus en plus vidé de son sens. Par exemple, le meilleur film de Brett Gaylor « RIP : A Remix Manifesto » dit plein de choses justes, mais il comprend et utilise incorrectement le terme « Copyleft ». Le « Copyleft » c’est :

«  possibilité donnée par l’auteur d’un travail soumis au droit d’auteur (œuvre d’art, texte, programme informatique, etc.) de copier, d’utiliser, d’étudier, de modifier et/ou de distribuer son œuvre dans la mesure où ces possibilités restent préservées.

L’auteur n’autorise donc pas que son travail puisse évoluer avec une restriction de ce droit à la copie, ce qui fait que le contributeur apportant une modification (une correction, l’ajout d’une fonctionnalité, une réutilisation d’une oeuvre d’art, etc.) est contraint de ne redistribuer ses propres contributions qu’avec les mêmes conditions d’utilisation. Autrement dit, les créations réalisées à partir d’éléments sous copyleft héritent de cette caractéristique. » – Wikipédia

Mais dans RIP ça signifie :

Nina Paley - CC-By-Sa

Vous voyez ce symbole dollar barré ? Ça signifie qu’il y a des restrictions « pas d’utilisation commerciale », qui sont incompatibles avec le Copyleft.

Nina Paley - CC-By-Sa

NC comme « Non Copyleft »

Quelqu’un qui rencontrera le mot « Copyleft » dans ce film ne saura pas ce que ça signifie finalement en termes de licence.

J’ai besoin d’une licence que les gens comprennent. Je suis tenté par la « WTFPL » (abréviation du nom anglais « Do What The Fuck you want to Public License », traduite en « Licence Publique Rien À Branler ») mais je devrais la forker pour y ajouter une clause « Copyleft ». La « Licence Publique Rien À Branler Mais N’Empêchez Pas Les Autres De Faire Ce Qu’Ils En Veulent ? » RBMNPAFV ?

Y a-t-il ailleurs d’autres licences Copyleft utilisables et qui ne sont pas associées à des restrictions non-commerciales ? Je suis ouverte aux suggestions.

Proposition de CC-PRO

Le travail professionnel mérite d’être reconnu.

CC-PRO est une licence Creative Commons conçue spécifiquement pour les professionnels : auteurs, artistes, musiciens. CC-PRO utilise la licence Creative Commons la plus puissante, pour assurer que les travaux de qualité soient transmis et reconnus comme partageables. Elle offre la meilleure protection contre le plagiat et la censure. Elle attire l’attention et invite à la collaboration et la reconnaissance de votre audience la plus importante : les autres professionnels.

Meilleure protection contre :
Le plagiat
La censure
Une exploitation abusive

Promeut :
La paternité de l’œuvre
Vos revenus
La pérennité de l’œuvre
Sa distribution
La collaboration avec d’autres professionnels

Le travail professionnel mérite d’être reconnu. Utilisez la CC-PRO.

Nina Paley - CC-By-SA

Notes

[1] La licence logicielle écrite par Richard Stallman et Eben Moglen qui formalisa la notion de logiciel « libre » en 1989.

[2] Traduite en dernière partie de ce billet.




Le contrôle des redirections

Kudumomo - CC BySi les redirections [1] sont à peu prêt aussi vieilles que le web, elles n’étaient, jusqu’à l’apparition des micro-blogs, que rarement utilisées, mises en place par les connaisseurs, lors du déménagement d’un document important.

Dans ce contexte, quand Kevin Gilbertson proposa en 2002 le premier service en-ligne de rétrécissement d’URL (TinyURL.com), permettant de créer à la demande, une redirection depuis une une adresse courte vers l’adresse de son choix, il n’eut qu’un succès modéré. L’initiative tomba presque dans l’oubli, et ce n’est qu’une demi-décennie plus tard, avec l’essor de Twitter que ce service rencontra d’un coup un large public. En effet, le principe de Twitter étant de proposer un blog dont les billets sont plus courts que des SMS, pouvoir réduire une URL devint un enjeu de taille, si j’ose dire. En effet, d’une part certaines URL sont simplement trop longues pour être gazouillées, et d’autre part, une fois l’adresse collée dans un micro-billet il ne reste plus beaucoup de place pour en expliquer l’intérêt.

TinyURL.com fut donc dans un premier temps directement proposé depuis l’interface du site de microblogage pour aider à la rédaction des messages. Puis devant le succès rencontré par cet intermédiaire, de nombreux concurrents vinrent occuper leurs parts de marché, tel que Bit.ly, qui se démarqua par les statistiques offertes sur l’utilisation des liens courts qu’il produit.

Et progressivement, chaque gros acteur du web se mit à proposer son propre service de rétrécissement, pour faire plaisir à ses utilisateurs avec un service techniquement trivial, ne pas dépendre d’un tiers et enfin pour mettre la main, chacun, sur sa parcelle de statistiques d’usage !

Car utiliser un raccourcisseur d’URL revient en fait à ajouter une barrière de péage d’autoroute entre les personnes auxquelles vous communiquez le lien court, et le document que vous souhaitiez porter à leur attention. Bien sûr, c’est une barrière pour laquelle tout le monde est abonné (pour l’instant), et elle ne fait que ralentir un peu le trafic, mais surtout, elle identifie au passage qui l’a franchi, quand et combien de fois.

Or, si cette information était jusque là collectée par l’émetteur du document de destination seulement, elle n’était pas aussi facilement recoupable et monnayable que si c’est un acteur central qui collecte toutes les visites effectuées suivant les recommandations des millions d’utilisateurs de Twitter, de Facebook ou de Google…

Et puis, d’un point de vue pragmatique, au-delà de la seconde d’attente ajoutée après le clic, ou du respect de la vie privée, un autre problème se pose, celui de la pérennité de ces étapes intermédiaires. Aujourd’hui, TinyURL.com se vante de servir des milliards de redirections par mois, mais ce service, qui n’est pas géré par une entreprise, est voué à disparaître, car son nom (qui avait besoin d’être explicite au début) est trop long pour être efficace aujourd’hui. Or, quand les serveurs de TinyURL seront éteints, c’est plus d’un milliard d’adresses qui, d’un coup, ne mèneront plus à rien.

Alors, quand on voit avec quel empressement les entreprises se sont mises à proposer ce gadget en apparence anodin, on peut avoir envie de ne pas se laisser enfermer nous non plus par une compagnie particulière, de suivre cet exemple en s’installant chacun son raccourcisseur d’URL à soi. Après tout, ça ne sera qu’une corde de plus à mettre à l’arc de la NoBox.

Toutefois, la question de la pérennité des redirections mises en place reste posée… En ce premier novembre, il est presque de bon ton de se demander ce qu’on fera du serveur personnel d’un défunt.

Mais pour l’heure, place au détail de l’enfer des redirections vers lequel on nous mène, et qui transforme progressivement le web en maison qui rend fou des 12 travaux d’Astérix… [2]

Le web se dirige-t-il vers un cauchemar de redirections ?

Is the Web heading toward redirect Hell?

22 septembre 2010 – Royal.Pingdom.com
(Traduction Framalang : Zitor, Barbidule, Daria, Goofy, Siltaar)

Google le fait. Facebook le fait. Yahoo le fait. Microsoft le fait. Et bientôt, Twitter le fera.

Nous parlons de la manie qu’ont tous les services web d’ajouter une étape intermédiaire pour échantillonner ce sur quoi nous cliquons avant de nous envoyer vers notre vraie destination. Ça dure déjà depuis un certain temps, et c’est progressivement en train de devenir un enfer de redirections. Cela a un coût.

Du trafic déjà en trop

Il y a déjà beaucoup de redirections en place, auxquelles vous ne songez pas forcément. Par exemple :

  • Chaque fois que vous cliquez sur un résultat de recherche dans Google ou Bing, il y a un passage obligé par les serveurs du moteur de recherche pour analyse avant d’être redirigé vers le site réellement ciblé;
  • Chaque fois que vous cliquez sur un titre dans un flux RSS Feedburner, vous êtes aussi redirigé avant d’arriver à la véritable cible;
  • Chaque fois que vous cliquez sur un lien sortant de Facebook, il y a une étape intermédiaire passant par un serveur de Facebook avant de vous rediriger vers où vous voulez aller.

Et ainsi de suite, et ainsi de suite, et ainsi de suite. C’est, bien sûr, parce que Google, Facebook et les autres sociétés en ligne aiment suivre les clics et le comportement de leurs utilisateurs. Vous connaître est une vraie ressource pour ces sociétés. Cela peut les aider à améliorer leur service, à le monétiser plus efficacement et dans de nombreux cas, ces données elles-mêmes valent de l’argent. Au final ce suivi de clic peut aussi être bon pour les utilisateurs finaux, en particulier s’il permet à un service d’améliorer sa qualité.

Mais…

Les choses sont en train de déraper

S’il ne s’agissait que d’une seule étape supplémentaire, cela pourrait aller. Mais si vous regardez autour, vous vous rendrez compte que ces redirections sont en train de s’empiler, chaque service interceptant des informations sur le clic lors du cheminement vers la destination finale. Vous savez, celle que l’utilisateur a vraiment demandée.

Cela peut vite devenir incontrôlable. Nous avons vu des scénarios où les liens sortants de Facebook, par exemple, vous redirigent d’abord vers un serveur Facebook, puis vers un racourcisseur d’URL (par exemple bit.ly), qui à son tour vous redirige vers une URL plus longue qui elle-même génère plusieurs redirections avant que FINALEMENT vous parveniez à la cible. Il n’est pas rare qu’il y ait plus de trois redirections vers différents sites qui, du point de vue de l’utilisateur, sont du trafic superflu.

Le problème, c’est que ce trafic supplémentaire n’est pas gratuit. Cela rallonge le temps nécessaire pour atteindre l’objectif, et cela rajoute d’autres liens (au sens propre !) dans la chaîne, ce qui peut la briser ou la ralentir. Cela peut même faire apparaitre des sites comme indisponibles alors qu’ils ne le sont pas, simplement parce que quelque chose sur le chemin est tombé en panne.

Et il semble que cette pratique soit de plus en plus répandue sur le Web.

Un exemple récent de cette « mode de la redirection » : Twitter

Vous souvenez-vous de cette vague de raccourcisseurs d’URL qui est venue quand Twitter a commencé à devenir populaire? C’est là que commence notre histoire.

Twitter a d’abord utilisé le déjà établi TinyURL.com comme raccourcisseur d’URL par défaut. C’était un partenaire idéal pour Twitter et sa limite de 140 caractères par message.

Puis vinrent Bit.ly et une pléthore d’autres raccourcisseurs d’URL, qui voulaient eux aussi surfer sur le succès grandissant de Twitter. Bit.ly a rapidement réussi à remplacer TinyURL comme réducteur d’URL par défaut pour Twitter. Grâce à cela, Bit.ly a mis la main sur une foule de données : la liste d’une bonne partie des liens postés sur Twitter, et de leur popularité, chaque clic pouvant être tracé.

Ce n’était qu’une question de temps avant que Twitter ne veuille garder ces données pour lui seul. Pourquoi s’en priverait-il ? Cela lui permet d’avoir le contrôle total de l’infrastructure nécessaire à son fonctionnement, tout en récupérant des informations sur ce que les utilisateurs aiment s’échanger, et ainsi de suite. Twitter a donc créé récemment son propre raccourcisseur d’URL, t.co. Dans le cas de Twitter, cela peut parfaitement se comprendre.

Cela est bel et bon, mais voici maintenant la partie la plus intéressante qui est la plus pertinente pour cet article : d’ici la fin de l’année, Twitter va rediriger TOUS les liens vers son raccourcisseur d’URL, y compris les liens déjà raccourcis par d’autres services comme Bit.ly ou Goo.gl, le raccourcisseur de Google. En canalisant tous les clics vers ses propres serveurs, Twitter va acquérir une connaissance précise de la façon dont son service est utilisé, et de ses utilisateurs. Cela lui donne le contrôle total sur la qualité de son service. C’est une bonne chose pour Twitter.

Mais qu’arrive-t-il quand tout le monde veut un morceau du gâteau ? Redirection après redirection après redirection avant d’arriver à notre destination ? Oui, c’est exactement ce qui se passe, et vous aurez à vivre avec ce trafic supplémentaire.

Voici ce à quoi le partage de liens pourrait ressembler une fois que Twitter aura commencé à soumettre tous les clics à son propre service :

  1. Quelqu’un partage un lien goo.gl sur Twitter, il est alors transformé en un lien t.co.
  2. En cliquant sur le lien t.co, l’utilisateur est alors redirigé vers les serveurs de Twitter pour convertir le lien t.co en lien goo.gl et se voit réorienté dessus.
  3. Le lien goo.gl dirige l’utilisateur vers les serveurs de Google pour y être résolu et ré-orienter enfin l’utilisateur vers la cible qu’il souhaitais atteindre.
  4. Rien n’empêche cette cible de n’être à son tour qu’une nouvelle redirection…

Vous en avez la tête qui tourne, hein ?

Encore plus de niveaux de redirection ?

Il y a un an, nous avons écrit un article sur les inconvénients potentiels des raccourcisseurs d’URL, et il s’applique parfaitement à ce scénario plus général avec de multiples redirections entre les sites. Les conséquences de ces redirections sur les performances, la sécurité et la confidentialité sont les mêmes.

Nous soupçonnons fortement que le chemin pris par Twitter (échantillonner et enregistrer les clics avant expédition vers la cible, avec ou sans raccourcisseurs d’URL) laisse présager des pratiques à venir chez les autres services Web qui ne le font pas déjà.

Et même quand les services principaux ne le font pas, de plus en plus d’intermédiaires et d’applications tierces, comme les raccourcisseurs d’URL, apparaissent tous les jours. L’autre jour, le fabricant d’antivirus McAfee a annoncé la version-bêta de McAf.ee, un raccourcisseur d’URL « sécurisé ». C’est peut-être super, qui sait, mais à la lumière de ce que nous vous avons dit dans cet article, il est difficile de ne pas penser : quoi, encore une autre niveau de redirection ? Est-ce vraiment vers cela que le Web évolue ? Est-ce vraiment ce que nous voulons ?

Notes

[1] Ce mécanisme du protocole HTTP permettant de faire rebondir la navigation vers une autre page au chargement d’une URL.

[2] Crédit photo : Kudumomo (Creative Commons Parternité)