Mobilisons-nous ! Pas de DRM dans le HTML5 et les standards W3C

La question de savoir si oui ou non il y a aura des DRM dans le HTML5 est absolument fondamentale pour le Web de demain. Ce n’est pas une question tehnique, c’est une question de partage (ou pas).

C’est pourquoi nous vous avions proposé la cinglante réponse de Cory Doctorow à Tim Berners-Lee. C’est pourquoi aussi nous avons traduit cet article très clair de l’Electronic Frontier Foundation qui en appelle à se mobiliser, par exemple en signant la pétition lancée par la Free Software Foundation.

Stop DRM en HTML5

Défense du web ouvert : pas de DRM dans les standards W3C

Defend the Open Web: Keep DRM Out of W3C Standards

Peter Eckersley et Seth Schoen – 20 mars 2013 – EFF.org
(Traduction : tcit, ZeHiro, audionuma, goofy, audionuma, Asta)

Un nouveau front est ouvert dans la bataille contre les DRM. Ces technologies, qui sont censées permettre le respect du copyright, n’ont jamais permis de rémunérer les créateurs. Par contre, que ce soit volontairement ou par accident, leur véritable effet est d’interférer avec l’innovation, l’usage légitime, la concurrence, l’interopérabilité et notre droit légitime à posséder nos biens.

C’est pourquoi nous avons été consternés d’apprendre qu’une proposition est actuellement à l’étude au sein du groupe de travail HTML5 du World Wide Web Consortium (W3C) pour intégrer les DRM dans la prochaine génération de standards fondamentaux du Web. Cette proposition est dénommée Encrypted Media Extensions (Extensions pour les médias chiffrés, EME). Son adoption représenterait une évolution catastrophique et doit être stoppée.

Durant les deux dernières décennies, il y a eu un combat continu entre deux visions de la manière dont les technologies d’Internet doivent fonctionner. L’une des philosophies est que le Web doit être un écosystème universel basé sur des standards ouverts et que quiconque peut implémenter sur un pied d’égalité, n’importe où, n’importe quand, sans permissions ni négociations. C’est cette tradition technologique qui a produit HTML et HTTP pour commencer, et des innovations qui ont marqué leur époque comme les wikis, les moteurs de recherche, les blogs, les messageries sur le Web, les applications écrites en JavaScript, les cartes en ligne réutilisables, et une centaine de millions de sites Web que ce paragraphe serait trop court pour énumérer.

L’autre vision est incarnée par les entreprises qui ont essayé de s’approprier le contrôle du Web avec leurs propres extensions propriétaires. Cela s’est manifesté avec des technologies comme Flash d’Adobe, Silverlight de Microsoft, et des pressions venant d’Apple, des fabricants de téléphonie, et d’autres, en faveur de plateformes hautement restrictives. Ces technologies sont conçues pour n’être disponibles qu’auprès d’une seule source ou nécessiter une autorisation pour toute nouvelle implémentation. À chaque fois que ces techniques sont devenues populaires, elles ont infligé des dommages aux écosystèmes ouverts qui les entourent. Les sites Web qui utilisent Flash ou Silverlight ne peuvent en général pas être référencés correctement, ne peuvent pas être indexés, ne peuvent être traduits automatiquement, ne peuvent être consultés par les personnes en situation de handicap, ne fonctionnent pas sur tous les terminaux de consultation, et posent des problèmes de sécurité et de protection de la vie privée à leurs utilisateurs. Les plateformes et les équipements qui restreignent la liberté de l’utilisateur freinent inévitablement des innovations importantes et entravent les compétitions sur le marché.

La proposition EME est entachée par plusieurs de ces problèmes car elle abandonne explicitement la responsabilité de la question de l’interopérabilité et permet aux sites Web de requérir des logiciels propriétaires de tierces-parties, voire du matériel ou un système d’exploitation spécifiques (tout cela mentionné sous le nom générique de « content decryption modules » (« modules de déchiffrage du contenu », CDM), dont aucun n’est spécifié par EME). Les auteurs d’EME soutiennent que les CDM, ce qu’ils font et d’où ils viennent, est totalement hors du champ d’EME, et qu’EME ne peut être considéré comme un DRM puisque tous les CDM ne sont pas des DRM. Néanmoins, si l’application client ne peut prouver qu’elle exécute le module propriétaire spécifique que le site réclame, et n’a donc pas de CDM qualifié, elle ne peut afficher le contenu du site. De manière perverse, c’est exactement à l’opposé des raisons qui font que le W3C existe. Le W3C est là pour créer des standards lisibles, qui soient implémentables par le public et qui garantissent l’interopérabilité, et non pas pour favoriser une explosion de nouveaux logiciels mutuellement incompatibles et de sites et services qui ne sont accessibles qu’à certains équipements ou applications. Mais la proposition EME va justement apporter cette dynamique anti-fonctionelle dans HTML5, risquant même un retour au « bon vieux temps d’avant le Web » où l’interopérabilité était volontairement restreinte.

Étant donné l’extrême méfiance de la communauté des standards ouverts à l’encontre des DRM et de leurs conséquences sur l’interopérabilité, la proposition de Google, Microsoft et Netflix affirme que « aucun DRM n’est ajouté à la spécification HTML5 » par EME. C’est un peu comme dire « nous ne sommes pas des vampires, mais nous allons les inviter chez vous ».

Les promoteurs d’EME semblent affirmer que ce n’est pas un modèle de DRM. Mais l’auteur de la spécification Mark Watson a admis que « effectivement, nous nous intéressons aux cas d’utilisation que la plupart des gens appellent DRM » et que les implémentations nécessiteront par nature des aspects secrets qui sont hors du champ de la spécification. Il est difficile de soutenir que EME n’a rien à voir avec les DRM.

Les propositions sur les DRM au W3C sont là pour une raison simple : il s’agit d’une tentative d’apaiser Hollywood, qui est irrité par Internet au moins depuis que le Web existe, et a toujours réclamé qu’une infrastructure technique avancée permette de contrôler ce qui se passe sur l’ordinateur du public. Le sentiment est que Hollywood ne permettra jamais la distribution des films sur le Web s’il n’est pas possible de les accompagner de DRM. Mais la crainte que Hollywood puisse récupérer ses billes et quitter le Web est illusoire. Chaque film que Hollywood distribue est déjà disponible pour ceux qui veulent réellement pirater une copie. Une énorme quantité de musique est vendue par iTunes, Amazon, Magnatunes et des dizaines d’autres sites sans qu’il n’y ait besoin de DRM. Les services de streaming comme Netflix et Spotify ont réussi parce qu’ils proposent une expérience plus pratique que le piratage, pas parce que les DRM favorisent leur modèle économique. La seule explication raisonnable pour que Hollywood réclame des DRM est que les producteurs de films veulent contrôler comment les technologies grand public sont conçues. Les producteurs de films ont utilisé les DRM pour faire respecter des restrictions arbitraires sur leurs produits, comme l’interdiction de l’avance rapide ou des restrictions géographiques, et ont créé un système complexe et onéreux de « mise en conformité » pour les entreprises technologiques qui donnent à un petit groupe de producteurs de contenu et aux grandes sociétés du secteur des technologies un droit de veto sur l’innovation.

Trop souvent, les entreprises technologiques se sont lancées dans une course l’une contre l’autre pour bâtir un fouillis logiciel qui corresponde aux caprices de Hollywood, abandonnant leurs utilisateurs dans cette course. Mais les standards ouverts du Web sont un antidote à cette dynamique, et ce serait une terrible erreur pour la communauté du Web de laisser la porte ouverte à la gangrène anti-technologique de Hollywood dans les standards W3C. Cela minerait l’objectif principal de HTML5 : créer un éco-système ouvert alternatif à toutes les fonctionalités qui manquaient dans les standards Web précédents, sans les problèmes de limitations des équipements, d’incompatibilité entre plateformes et l’absence de transparence qui fut créée par des plateformes comme Flash. HTML5 était censé être mieux que Flash, et en exclure les DRM est exactement ce qui le rendrait meilleur.




Pourquoi j’ai quitté Google

Il y a un an le développeur James Whittaker quittait Google et le faisait savoir dans un article cinglant qui en disait long sur l’évolution de l’entreprise, obnubilée par la publicité et la concurrence de Facebook.

Nous avons choisi de le traduire car les arguments nous semblent malheureusement tout aussi valables aujourd’hui.

Ah, oui, et où est-il allé ensuite ? Réponse ici : Why I joined Microsoft 😉

Google+

Pourquoi j’ai quitté Google

Why I left Google

James Whittaker – 13 mars 2012 – Blog personnel
(Traduction : ACA, VifArgent, KoS, Eijebong, Alpha, angezanetti, Penguin, audionuma, P3ter, KoS + anonymes)

Ok, je cède. Tout le monde veut savoir pourquoi je suis parti, et répondre individuellement n’est pas forcément évident, voici donc les détails de la version longue. Vous pouvez en lire un bout (je vais à l’essentiel au troisième paragraphe) ou la lire en entier. Mais avant, une remarque préalable : il n’y pas de drame, pas de grand discours, pas de critiques d’anciens collègues et rien de plus que ce que vous pouvez déjà présumer d’après ce qui se dit dans la presse ces jours-ci autour de Google et de son attitude envers la vie privée des utilisateurs et les développeurs. C’est simplement une analyse plus personnelle.

Quitter Google ne fut pas une décision facile. Durant mon séjour là bas je suis devenu passionné par l’entreprise. J’ai fait quatre présentations « Google Developper Day », deux « Google Test Automation Conferences » et j’étais un contributeur prolifique du blog Google test. Des recruteurs m’ont souvent demandé de les aider à embaucher leurs champions. Personne n’avait besoin de me demander deux fois de promouvoir Google et personne ne fut plus surpris que moi quand je fus incapable de continuer à le faire. En fait, les trois derniers mois que j’ai passé à travailler chez Google ont été une énorme déception durant lesquels j’ai essayé en vain de rallumer ma passion.

Le Google qui me passionnait était une société high tech qui poussait ses employés à innover. Le Google que j’ai quitté était une société publicitaire concentrée uniquement sur l’aspect financier.

Techniquement, je suppose que Google à toujours été une entreprise de publicité, mais pendant la majeure partie de ces trois dernières années, ça n’y ressemblait pas. Google était une entreprise de pub uniquement dans le sens où une bonne émission télévisée est une entreprise de pub : avoir un bon contenu attire les publicitaires.

Sous Eric Schmidt, les pubs étaient toujours à l’arrière plan. Google a été lancé comme une usine à innovations, incitant les employés à être entreprenants au travers les prix des fondateurs (NdT : prix accordés aux employés les plus méritants sous forme d’action Google, pour retenir les meilleurs employés à Google), les primes par les pairs et le fameux 20% du temps (NdT : Google permet(tait ?) à ses employés de consacrer 20% de leur temps de travail à des projets personnels). Nos revenus publicitaires nous ont donné de l’aisance pour réfléchir, innover et créer. Les plateformes comme App Engine, Google Labs et l’open source ont servi d’environnements de test pour nos inventions. Le fait que tout ça était payé par une machine à fric complètement bourrée de publicité a échappé à la plupart d’entre nous. Peut-être que les ingénieurs qui travaillent vraiment sur les pubs l’ont senti, mais le reste d’entre nous était convaincu que Google était une entreprise de technologie avant tout et par-dessus tout, une entreprise qui engageait des personnes intelligentes et qui faisait un gros pari sur leur capacité à innover.

De cette machine à innovation sont sortis des produits stratégiquement très importants comme Gmail et Chrome, des produits qui étaient le résultat de l’esprit d’entreprise au plus bas niveau de l’entreprise. Bien sûr, cette innovation emballée crée quelques ratés, et Google n’y a pas échappé, mais l’entreprise a toujours su perdre sans s’entêter et apprendre de ses échecs.

Dans un tel environnement, il n’est pas essentiel d’être au sein de l’exécutif pour réussir. Vous n’avez pas besoin d’être chanceux et d’atterrir sur un projet « sexy » pour construire une grande carrière. N’importe qui ayant des idées ou le niveau pour contribuer, pouvait s’impliquer. J’avais énormément d’opportunités pour quitter Google pendant cette période, mais il était difficile d’imaginer un meilleur endroit pour travailler.

Mais c’était le « bon temps » comme on dit, et ce temps-là n’est plus.

Il se trouve qu’il y a un point où la machine à innover Google a faibli, et ce point est crucial : concurrencer Facebook. Des efforts informels ont produit un duo antisocial avec Wave et Buzz. le réseau social Orkut n’a jamais marché en dehors du Brésil. Comme le dit le proverbe (« le lièvre trop confiant risque une courte sieste »), Google s’est réveillé de son rêve social en voyant son statut d’empereur de la pub menacé.

Google peut bien brandir des publicités à davantage de personnes, Facebook en sait beaucoup plus sur eux. Publicitaires et éditeurs chérissent ce genre d’informations personnelles, tant et si bien qu’ils mettent parfois plus en avant Facebook que leur propre marque. Démonstration n°1 : une entreprise avec la puissance et l’influence de Nike mettant sa propre marque après celle de Facebook ? Aucune entreprise n’a fait ça pour Google et Google en a pris ombrage.

Larry Page a pris lui-même le contrôle pour corriger cette erreur. Le social fut « nationalisé » au sein de l’entreprise, un plan appelé Google+. C’était un nom menaçant qui donnait le sentiment que Google ne suffisait pas. La recherche devait être sociale. Android devait être social. YouTube, jadis heureux de son indépendance, devait l’être… bon, vous avez compris. Encore pire, l’innovation aussi devait être sociale. Les idées qui ne réussissaient pas à mettre Google+ au centre de l’univers étaient une perte de temps.

Tout à coup, 20% signifiait incompétent. Google Labs a fermé. Les prix d’App Engine ont augmenté. Les APIs qui étaient gratuites depuis des années furent dépréciées ou devinrent payantes. Alors que les valeurs entrepreneuriales disparaissaient, un discours moqueur à l’égard de « l’ancien Google » et de ses tentatives ridicules de concurrencer Facebook est apparu pour justifier un « nouveau Google » qui promettrait de faire plus avec moins.

Les jours heureux où Google embauchait des gens intelligents et innovants pour inventer le futur étaient terminés. Le nouveau Google savait au-delà de tout doute à quoi devait ressembler le futur. Les employés n’avaient rien compris et l’intervention des dirigeants allait tout remettre en ordre.

Officiellement, Google a déclaré que « le partage sur le Web était en panne » et rien d’autre que la force cumulée de nos esprits autour de Google+ ne pouvait le réparer. Il y a de quoi admirer une entreprise qui a la volonté de sacrifier des idoles pour rallier ses talents afin de faire face à une menace à l’encontre de ses intérêts. Si Google avait eu raison, l’effort aurait été héroïque et beaucoup d’entre nous voulaient réellement être impliqués dans ce qui serait la solution. Je me suis laissé convaincre. J’ai travaillé sur Google+ comme responsable du développement et j’ai écrit un bout de code. Mais le monde n’a jamais changé ; le partage non plus, n’a pas changé. Dire que nous avons participé paradoxalement ) améliorer Facebook est discutable, mais tout ce dont je disposais n’était en fait que des tests comparatifs à la faveur de Facebook.

Il s’est avéré que le partage n’était pas en panne. Le partage fonctionnait bien et de manière efficace, Google n’en faisait simplement pas partie. Tout le monde autour de nous partageait et semblait plutôt content. Aucun exode des utilisateurs de Facebook ne s’est jamais produit. Je n’aurai même pas pu montrer Google+ une deuxième fois à ma fille, « la vie sociale n’est pas un produit » m’a-t-elle dit après que je lui ai fait une démonstration. « Un réseau social c’est des gens, et les gens sont sur Facebook ». Google était l’enfant-roi qui, après avoir découvert qu’il n’avait pas été invité à la fête, avait organisé la sienne de son côté.

Google+ et moi, ça n’aurait jamais pu marcher. En vérité, je n’ai jamais tellement été intéressé par la publicité. Je ne clique pas sur les pubs. Lorsque Gmail affiche des pubs basées sur les choses que je tape dans mes courriels, cela me fait flipper. Je ne veux pas que mes résultats de recherche contiennent les coups de cœur des abonnés de Google+ (ou de Facebook ou de Twitter). Lorsque je cherche « rue de la soif à Londres », je veux un meilleur résultat que la suggestion sponsorisée « Achetez une rue de la soif de Londres chez Carrefour ».

L’ancien Google a fait fortune avec les publicités parce qu’il proposait du bon contenu. C’était comme à la télévision : faites la meilleure émission et vous aurez le plus de revenus publicitaires des entreprises. Le nouveau Google semble surtout se concentrer sur les entreprises.

Peut être que Google a raison. Peut être que le futur c’est d’en apprendre le plus possible à propos de la vie privée des autres. Peut être que Google est le mieux placé pour savoir quand je devrais appeler ma mère et que ma vie serait meilleure si je fais les soldes chez H&M. Peut être que s’ils me harcèlent en constatant tout ce temps libre dans mon agenda je ferais plus de sport.

Peut être que s’ils affichent une publicité pour un avocat spécialiste du divorce à cause de l’e-mail que j’écris à propos de mon fils de 14 ans en train de rompre avec sa copine, j’aimerais assez cette publicité pour mettre fin à mon propre mariage. Ou peut-être que je réglerai tous ces trucs-là tout seul.

Le Google d’avant était un endroit génial pour travailler. Quid du nouveau ?

-1




Autos, téléphones… nous devrions pouvoir déverrouiller tout ce qui nous appartient

Vous venez de crever et vous vous retrouvez malencontreusement sur le bord de la route pour changer votre pneu. Tout d’un coup un policier arrive et vous verbalise parce que vous enfreignez je ne sais quel copyright de la marque de votre véhicule stipulant que vous n’avez pas le droit d’y changer quoi que ce soit. C’est surréaliste et pourtant c’est bien la situation actuelle des téléphones portables.

Quid d’un monde sous contrôle où les objets ne nous appartiennent plus faute d’avoir le droit de les bidouiller ?

Håkan Dahlström - CC by

Oubliez la bataille du téléphone portable – Nous devrions pouvoir déverrouiller tout ce qui nous appartient

Forget the Cellphone Fight — We Should Be Allowed to Unlock Everything We Own

Kyle Wiens – 18 mars 2013 – Wired Opinion
(Traduction : Alpha, Sphinx, aKa, marc, lgodard, M0tty, jtanguy, Moosh, Floréal, K4ngoo, Texmix + anonymes)

Alors que le Congrès des Etats-Unis travaille sur une loi visant à ré-autoriser le déverrouillage des téléphones portables, regardons le vrai problème en face : les lois issues du copyright qui ont d’abord fait que le déverrouillage devienne illégal. À qui appartiennent les objets que nous possédons ? La réponse avait pour habitude d’être évidente. Dorénavant, avec l’électronique, omniprésente dans tous les objets que nous achetons, la réponse a changé.

Nous vivons dans une ère numérique, et même les produits matériels que nous achetons sont complexes. Le copyright impacte plus de monde qu’auparavant car la frontière entre logiciel et matériel, ente monde physique et numérique, s’amenuise.

Le problème ne se réduit pas seulement au déverrouillage des téléphones portables ; quand on achète un objet, n’importe lequel, nous devrions le posséder. Nous devrions être en mesure de soulever le capot, l’ouvrir, le modifier, le réparer, etc… sans demander la permission au fabriquant.

Sauf que nous ne possédons pas vraiment nos objets (enfin pas dans la totalité), les fabricants sont les vrais propriétaires. Parce que la modification d’un objet moderne requiert un accès à de l’information : du code, des documents de conception, des codes d’erreur, des outils de diagnostic… Les voitures modernes sont des mécaniques puissantes mais également des ordinateurs sophistiqués. Les fours à micro-ondes sont une combinaison de plastique et de microcode. Le silicium imprègne et alimente presque tout ce que nous possédons.

C’est un problème de droits de propriété, et les lois actuelles sur le copyright prennent ce problème à l’envers, transformant les gens ordinaires, comme les étudiants, les chercheurs et les patrons de petites entreprises, en délinquants. Par exemple l’entreprise de télécoms Avaya, qui fait partie du top 500 de Fortune, est connue pour poursuivre des entreprises de services en justice, les accusant de violer le copyright simplement parce qu’elles utilsent un mot de passe pour se connecter à leurs systèmes téléphoniques. Vous avez bien lu : rentrer un mot de passe est considéré comme : une « reproduction de matériel soumis au copyright ».

Les fabricants ont systématiquement utilisé le copyright en ce sens ces 20 dernières années pour limiter notre accès à l’information. La technologie a avancé trop vite par rapport aux lois sur le copyright, les sociétés ont exploité cette latence pour créer des monopoles de l’information à nos dépens et à leur bénéfice. Après des années d’expansion et de soi-disantes améliorations, le copyright a transformé Mickey Mouse en un monstre immortel.

Cela n’a pas toujours été ainsi. Les lois sur le copyright ont été créés à l’origine pour protéger la créativité et promouvoir l’innovation. Mais maintenant, elles font exactement le contraire. Elles sont utilisées pour empêcher les entreprises indépendantes de réparer les nouvelles voitures. Elles rendent presque impossible aux agriculteurs de réparer leur matériel. Et, comme nous l’avons vu ces dernières semaines, elles empêchent les particuliers de déverrouiller leurs propres téléphones portables.

Ce n’est pas juste un problème qui affecte seulement les spécialistes en informatique ; les fermiers sont également touchés. Kerry Adams, un agriculteur dans une ferme familiale de Santa Maria en Californie, a récemment acheté deux machines de transplantation pour la modique somme de 100000$ pièce. Elles sont tombées en panne juste après, et il a dû faire venir un technicien de l’usine pour les faire réparer.

Comme les constructeurs ont mis un copyright sur les notices techniques, les techniciens locaux ne peuvent pas réparer les appareils récents. De plus, les appareils actuels, remplis de capteurs et d’électronique, sont trop complexes pour être réparés sans la notice technique. C’est un problème pour les agriculteurs qui n’ont pas les moyens de payer les frais d’entretien élevés pour de l’outillage qui se détériore assez vite.

Adams a abandonné l’idée de faire réparer ses repiqueurs, c’était tout simplement trop cher de faire venir les techniciens en déplacement jusqu’à son exploitation. À présent, les deux repiqueurs sont à l’arrêt et il ne peut pas s’en servir pour subvenir aux besoins de son exploitation et de sa famille.

Dieu a peut-être donné vie à un fermier, mais les lois sur le copyright ne lui permettent plus de gagner sa vie.

Dans le proche domaine de la mécanique automobile, le copyright est aussi vu comme un étau, restreignant leur capacité à résoudre des problèmes. Les erreurs de code dans votre voiture ? Protégés. Les outils de diagnostic pour y accéder ? Des logiciels propriétaires.

Les nouvelles voitures se sophistiquent année après année, et les mécaniciens ont besoin d’un accès aux informations systèmes pour rester dans la course. Sous la protection du copyright, les constructeurs automobiles ont empêché l’accès des garagistes indépendants aux outils de diagnostic et aux schémas de fonctionnement dont ils ont besoin.

Les mécaniciens n’abandonnent pas pour autant. En septembre dernier, le Massachusetts a acté une loi sur le Droit à Réparer destinée à niveler le champ d’action entre les concessions et les garagistes indépendants. Sous le cri de ralliement de « C’est votre voiture, vous devriez avoir la possibilité de la réparer où vous le souhaitez », la loi a été adoptée à une très large majorité de 86%. Cette loi contourne le copyright, forçant les constructeurs à publier toutes les informations techniques aux propriétaires de véhicules du Massachusetts et aux techniciens système. L’agitation populaire se propage : les législateurs du Maine viennent de mettre en place une législation similaire.

Pendant ce temps, des progrès sont faits vers la légalisation du déverrouillage des téléphones portables. Avec des groupes locaux menant le combat, l’administration Obama a annoncé son soutien à l’annulation de cette interdiction la semaine dernière. Les membres du Congrès ont depuis rédigé pas moins de quatre projets de loi pour légaliser le déverrouillage.

C’est un pas dans la bonne direction mais ce n’est pas assez. Que les choses soient claires : réparer nos voitures, tracteurs, et téléphones portables ne devrait rien avoir à faire avec le copyright.

Tant que le Congrès se concentre simplement sur le déverrouillage des mobiles, il passera à côté du vrai problème. Les sénateurs peuvent adopter cents projets de loi sur le déverrouillage ; dans cinq ans, les grandes entreprises trouveront d’autres revendications de copyright pour limiter le choix des consommateurs. Pour vraiment résoudre le problème, le Congrès doit promulguer une réforme du copyright qui soit significative. Les bénéfices économiques potentiels sont significatifs, étant donné que l’information libre crée des emplois. Les informations techniques sont accessibles librement sur internet pour de nombreux smartphones sur iFixit (mon organisation) et d’autres sites. Ce n’est pas par hasard que des milliers d’entreprises de réparation de mobiles ont fleuri ces dernières années, exploitant les connaissances techniques pour éloigner les téléphones portables cassés des décharges.

Tant que nous serons limités dans notre faculté à modifier et réparer les choses, le copyright, pour tous les objets, entravera la créativité. Il nous en coûtera de l’argent. Il nous en coûtera des emplois. Et cela nous coûte déjà notre liberté.

Crédit photo : Håkan Dahlström (Creative Commons By)




Le plus vieux torrent de The Pirate Bay est une copie (illégale) de « Revolution OS »

Réalisé en 2001 par J.T.S. Moore, le documentaire « Revolution OS » retrace l’histoire des mouvements GNU, Linux, Open Source et des logiciels libres. Plusieurs personnalités de l’informatique sont interviewées, comme Richard Stallman, Linus Torvalds, Eric S. Raymond ou encore Bruce Perens.

Il n’est pas anodin de remarquer que c’est le plus vieux torrent encore activement partagé sur The Pirate Bay, avec la paradoxale ironie du partage illégal d’un film traitant d’un tel sujet !

PS : Nous avons choisi de faire comme si le lecteur était familier de Bittorrent et que les termes seeder, celui qui met à disposition le fichier, ou leecher n’avaient pas de secret pour lui (sinon c’est clic Wikipédia).

PS2 : Le film est également disponible dans son intégralité (anglais sous-titré anglais) en streaming sur YouTube (et toujours illégalement bien entendu).

Revolution OS

Le torrent le plus vieux de The Pirate Bay est « Revolution OS »

The Pirate Bay’s Oldest Torrent is “Revolution OS”

Ernesto – 17 mars 2013 – TorrentFreak.com
(Traduction : igor-d, Martin, Sakrecoer, Alpha, fcharton + anonymes)

Après presque 9 ans de distribution, le plus vieux torrent de The Pirate Bay disponible, est encore bien actif. Curieusement, ce torrent n’est ni un classique d’Hollywood ni un album de musique indémodable. La première place est attribuée à un exemplaire piraté de « Revolution OS », un documentaire qui traite de l’histoire de Linux, GNU et le mouvement du logiciel libre.

The Pirate Bay fêtera son dixième anniversaire un peu plus tard cette année. Une belle réussite, quand on sait que le site a fait l’objet de procès durant une bonne moitié de son existence.

Loin de tout ça, nous avons souhaité découvrir le plus vieux torrent ayant survécu à tous ces problèmes.

Après quelques recherches, nous avons trouvé que cette distinction revient à une copie pirate du documentaire « Revolution OS ». Le torrent en question fût mis en ligne le 31 Mars 2004.

A l’époque il n’y avait que quelques centaines de fichiers torrents stockés sur The Pirate Bay, comparé aux plus de 2 millions d’aujourd’hui. Année après année uniquement 15 personnes ont laissé un commentaire sur la page du torrent et il y a 27 seeders à l’heure où nous écrivons ces lignes.

Il y a une certaine ironie dans le fait qu’une copie « piratée » d’un film à propos de Linux, GNU et le mouvement des logiciels libres soit le torrent le plus ancien à être encore seedé (c’est-à-dire disponible et partagé). Richard Stallman, une des figures clefs du documentaire, serait fier et heureux de l’apprendre 😉

J.T.S. Moore, le réalisateur de « Revolution OS » a des sentiments contradictoires au sujet de cette réussite quand on l’interroge :

« Il y a clairement un problème de copyright, mais d’une certaine manière ça fait plaisir de savoir que « Revolution OS » intéresse certaines personnes douze ans plus tard » a-t-il confié à TorrentFreak.

Revolution OS - Torrent - The Pirate Bay

Mais « Revolution OS » est-il le plus ancien torrent encore en vie tout site confondu ?

Non, cet honneur là revient à une autre production peu connue. Le fichier torrent qui existe depuis le plus longtemps à notre connaissance est The Matrix ASCII.

Nous l’avions déjà couronné plus vieux torrent en 2005, et à ce jour il est toujours actif avec quelques téléchargeurs et seeders. Le fichier torrent en question a été créé en décembre 2003 alors que The Pirate Bay n’était âgé que de quelques mois et que Facebook et YouTube n’existaient pas encore. Jusqu’à maintenant, ce fichier a survécu une durée ahurissante de 3 333 jours.

En parlant de records, on peut aussi signaler le plus gros et le plus petit torrent de The Pirate Bay. Le plus gros torrent actif est une archive du dernier Geocities.com, fermé par Yahoo en 2010. Le torrent de 641 Go est actuellement en train de lutter pour sa survie avec un seul seeder.

Le plus petit torrent, à peine plus de 3 Ko, renvoie vers un crack d’Adobe Photoshop. Dans ce cas, le fichier du torrent prend plus d’espace disque à lui tout seul que le fichier qu’il permet de télécharger. Avec plus de 1000 seeders, ce fichier devrait rester encore disponible pour un petit moment 😉

L’an prochain, le torrent de « Revolution OS » devrait fêter ses 10 ans, et nul doute qu’il sera encore là pour souffler ses bougies.




Internet est (devenu) un État policier

Un article qui ne nous apprend à priori rien de nouveau mais dont les exemples et les arguments enchaînés aboutissent à quelque chose d’absolument terrifiant.

Ce n’est pas un cauchemar c’est la réalité. Une réalité, née d’un accord tacite entre le public (les États) et le privé (les multinationales), qui s’est mise en place sans véritablement rencontrer consciences ni oppositions.

Raison de plus pour soutenir tous ceux qui voient le monde autrement et participer à faire en sorte que nous soyons de plus en plus nombreux à réclamer une éthique et faire vivre le bien commun…

Mixer - CC by-sa

Internet est un État policier

The Internet is a surveillance state

Bruce Schneier – 16 mars 2013 – CNN Opinion
(Traduction : Antoine, Neros, Sky, guillaume, audionuma, Asta + anonymes)

Note de la rédaction : Bruce Schneier est un expert en sécurité et l’auteur de Liars and Outliers: Enabling the Trust Society Needs to Survive (NdT : Menteurs et Atypiques : mettre en œuvre la confiance dont la société à besoin pour survivre).

Je vais commencer par trois points factuels.

Un : certains des hackers militaires chinois qui ont été récemment impliqués dans une attaque d’envergure contre le gouvernement et des entreprises des États-Unis ont été identifiés car ils accédaient à leur compte Facebook depuis la même infrastructure réseau qu’ils utilisaient pour leurs attaques.

Deux : Hector Monsegur, un des dirigeants du mouvent hacker LulzSec, a été identifié et arrêté par le FBI l’année dernière. Bien qu’il prenait de fortes mesures de sécurité informatique et un relais anonyme pour protéger son identité, il s’est quand même fait prendre.

Et trois : Paula Broadwell, qui avait une relation extra-conjugale avec David Petraeus, le directeur de la CIA, a également pris de nombreuses mesures pour masquer son identité. Elle ne se connectait jamais à son service de courriel anonyme depuis le réseau de son domicile. À la place, elle utilisait les réseaux publics des hôtels lorsqu’elle lui envoyait un courriel. Le FBI a effectué une corrélation entre les données d’enregistrement de différents hôtels pour y trouver que son nom était le point commun.

Internet est en état de surveillance. Internet est un état de surveillance. Que nous l’admettions ou non, et que cela nous plaise ou non, nous sommes traqués en permanence. Google nous trace, tant sur ses propres pages que sur celles auxquelles il a accès. Facebook fait de même, en traçant même les utilisateurs non inscrits chez lui. Apple nous trace sur nos iPhones et iPads. Un journaliste a utilisé un outil appelé Collusion (NdT : de Mozilla) pour déterminer qui le traçait : 105 entreprises ont tracé son usage internet sur une seule période de 36 heures !

De plus en plus, nos activités sur Internet sont croisées avec d’autres données nous concernant. La découverte de l’identité de Broadwell a nécessité de croiser son activité sur internet avec ses séjours dans des hôtels. Tout ce que nous faisons aujourd’hui implique l’usage d’un ordinateur, et les ordinateurs ont comme effet secondaire de produire naturellement des données. Tout est enregistré et croisé, et de nombreuses entreprises de big data font des affaires en reconstituant les profils de notre vie privée à partir de sources variées.

Facebook, par exemple, met en corrélation votre comportement en ligne avec vos habitudes d’achat hors-ligne. Et, plus encore, Il y a les données de localisation de votre téléphone portable, les enregistrements de vos mouvements par les caméras de surveillance…

C’est de la surveillance omniprésente : nous sommes tous surveillés, tout le temps, et ces données sont enregistrées de façon permanente. C’est ce à quoi un état de surveillance ressemble, et c’est plus efficace que dans les rêves les plus fous de George Orwell.

Bien sûr, nous pouvons agir pour nous y prémunir. Nous pouvons limiter ce que nous cherchons sur Google depuis nos iPhones, et utiliser à la place les navigateurs Web de nos ordinateurs, qui nous permettent de supprimer les cookies. Nous pouvons utiliser un alias sur Facebook. Nous pouvons éteindre nos téléphones portables et payer en liquide. Mais plus le temps passe et moins de gens s’en soucient.

Il y a simplement trop de façons d’être pisté. L’Internet, les courriels, les téléphones portables, les navigateurs Web, les sites de réseaux sociaux, les moteurs de recherche : ils sont devenus nécessaires, et il est fantaisiste d’attendre des gens qu’ils refusent simplement de s’en servir juste parce qu’ils n’aiment pas être espionnés, d’autant plus que l’ampleur d’un tel espionnage nous est délibérément cachée et qu’il y a peu d’alternatives commercialisées par des sociétés qui n’espionnent pas.

C’est quelque chose que le libre marché ne peut pas réparer. Nous, les consommateurs, n’avons pas de choix en la matière. Toutes les grandes sociétés qui nous fournissent des services Internet ont intérêt à nous pister. Visitez un site Web et il saura certainement qui vous êtes; il y a beaucoup de façons de vous pister sans cookie. Les compagnies de téléphones défont de façon routinière la protection de la vie privée sur le Web. Une expérience à Carnegie Mellon a pris des vidéos en temps réél d’étudiants sur le campus et a permis d’identifier un tiers d’entre eux en comparant leurs photos avec leurs photos publiques taguées sur Facebook.

Garder sa vie privée sur Internet est désormais presque impossible. Si vous oubliez ne serait-ce qu’une fois d’activer vos protections, ou si vous cliquez sur le mauvais lien, vous attachez votre nom de façon permanente à quelque service anonyme que vous utilisez. Monsegur a dérapé une fois, et le FBI l’a choppé. Si même le directeur de la CIA ne peut garder sa vie privée sur Internet, nous n’avons aucun espoir.

Dans le monde d’aujourd’hui, les gouvernements et les multinationales travaillent de concert pour garder les choses telles qu’elles sont. Les gouvernements sont bien contents d’utiliser les données que les entreprises collectent — en demandant occasionnellement d’en collecter plus et de les garder plus longtemps — pour nous espionner. Et les entreprises sont heureuses d’acheter des données auprès des gouvernements. Ensemble, les puissants espionnent les faibles, et ils ne sont pas prêts de quitter leurs positions de pouvoir, en dépit de ce que les gens souhaitent.

Résoudre ces questions nécessite une forte volonté gouvernementale, mais ils sont aussi assoiffés de données que les entreprises. Mis à part quelques amendes au montant risible, personne n’agit réellement pour des meilleures lois de protection de la vie privée.

Alors c’est ainsi. Bienvenue dans un monde où Google sait exactement quelle sorte de pornographie vous aimez, où Google en sait plus sur vos centres d’intérêt que votre propre épouse. Bienvenue dans un monde où votre compagnie de téléphone portable sait exactement où vous êtes, tout le temps. Bienvenue à l’ère de la fin des conversations privées, puisque vos conversations se font de plus en plus par courriel, SMS ou sites de réseaux sociaux.

Bienvenue dans un monde où tout ce que vous faites sur un ordinateur est enregistré, corrélé, étudié, passé au crible de société en société sans que vous le sachiez ou ayez consenti, où le gouvernement y a accès à volonté sans mandat.

Bienvenue dans un Internet sans vie privée, et nous y sommes arrivés avec notre consentement passif sans véritablement livrer une seule bataille…

Crédit photo : Mixer (Creative Commons By-Sa)




DRM dans HTML5 : la réponse de Cory Doctorow à Tim Berners-Lee

Lors du tout récent SXSW, Sir Tim Berners-Lee, répondant à une question, s’est montré favorable à l’introduction de DRM dans le HTML5, c’est-à-dire directement dans le code des pages Web.

Ceci a déçu beaucoup de monde, à commencer par Cory Doctorow qui lui a répondu dans les colonnes du Guardian, traduit ci-dessous pour nos soins.

Etech - CC by

Ce que j’aurais souhaité que Tim Berners-Lee comprenne au sujet des DRM

What I wish Tim Berners-Lee understood about DRM

Cory Doctorow – 12 mars 2013 – The Guardian (Blog Tchnology)
(Traduction Framalang : catalaburro, Alpha, Alpha, lum’, Tito, goofy, peupleLà, lamessen, penguin + anonymes)

Ajouter des DRM au standard HTML aura des répercussions importantes qui seront incompatibles avec les règles fondamentales du W3C.

À la suite de son discours d’introduction au récent SXSW, l’inventeur du Web Tim Berners-Lee a répondu à une question concernant le projet controversé d’ajouter des DRM à la prochaine version du HTML. Le standard HTML5, qui est en ce moment en débat au W3C (World Wide Web Consortium), est le dernier en date des champs de bataille dans la longue guerre pour la conception des ordinateurs personnels. Berners-Lee a soutenu ce projet en prétendant que, sans les DRM, une part croissante du Web serait verrouillée dans des formats comme le Flash, impossibles à lier et à soumettre à la recherche.

Certains membres de l’industrie du divertissement ont longtemps entretenu le doux rêve d’ ordinateurs conçus pour désobéir à leurs propriétaires, dans une stratégie globale de maximisation des profits qui s’appuie sur la possibilité de vous faire payer pièce après pièce pour avoir le droit d’utiliser les fichiers stockés sur vos disques durs.

Il est notoire que l’industrie a réussi à convaincre les fabricants de lecteurs de DVD d’ajouter une limitation au lecteur pour vous empêcher de lire un DVD sur un continent si vous l’avez acheté dans un autre. Pour que cela fonctionne, les lecteurs de DVD ont dû être conçus pour cacher les programmes qui les faisaient tourner. Ainsi les propriétaires de lecteurs de DVD ne pouvaient tout simplement pas arrêter la fonction de « vérification de zone ». Les lecteurs devaient aussi être conçus pour cacher des fichiers à leurs propriétaires, de telle manière que les utilisateurs ne puissent pas trouver le fichier contenant la clé de déchiffrement afin de l’utiliser pour déverrouiller le DVD sur d’autres lecteurs, ceux qui ne vérifieraient pas la compatibilité de zone du DVD.

Deux questions importantes découlent de cet exemple historique. Tout d’abord, cela a-t-il fonctionné ? et deuxièmement, pourquoi diable les fabricants ont ils été d’accord avec ces limitations ? Ces deux questions sont importantes à poser ici.

Est-ce que le zonage géographique a fonctionné ? Pas du tout. Après tout, cacher des fichiers et des processus dans l’ordinateur que le « méchant » peut tout à fait embarquer avec lui dans un labo ou au bureau est complètement vain. Si Berners-Lee pense qu’ajouter des secrets aux navigateurs web auxquels les possesseurs d’ordinateurs ne pourront accéder permettra d’une quelconque manière de créer les marchés dont l’industrie du divertissement a soi-disant besoin pour créer de nouveaux modèles économiques, il se trompe.

Plus important encore : pourquoi les fabricants sont-ils d’accord pour ajouter des restrictions à leurs matériels ? Le zonage est le contraire d’une fonctionnalité, un « produit » qui n’a pas pour but d’être vendu. Vous ne pouvez pas vendre plus de lecteurs DVD en ajoutant un autocollant qui dit : « Nouvelle version, avec des restrictions par zones géographiques ! »

Les pièges du brevet

En clair, c’est l’industrie qui a établi un besoin légal pour l’établissement des DRM sur les lecteurs DVD. Lorsque les organismes à l’origine des DRM se rassemblent, ils cherchent à identifier un « lien de propriété intellectuelle », bien souvent un brevet. Si un brevet entre en jeu lors du décodage d’un format de fichier, alors le brevet peut être lié à l’application des termes de la licence, ce qui peut être utilisé pour contraindre les fabricants.

En d’autres termes, si un brevet (ou des brevets) peut être inclus dans le système de décodage des DVD, il est possible de menacer les fabricants d’un procès pour violation de brevet,à moins qu’ils n’achètent une licence d’utilisation. Les licences de brevet sont gérées par la Licensing Authority (LA) (NdT : Consortium regroupant les détenteurs de brevets sur la technologie en question, ici la MPEG-LA) qui crée des normes de contrat de licence. Ces termes incluent toujours une liste de fonctionnalités que les fabricants ne doivent pas implémenter (par exemple il ne leur est pas possible d’ajouter une fonctionnalité « sauvegarder sur un disque dur » à un lecteur DVD); et une liste de fonctionnalités négatives que les fabricants doivent implémenter (par exemple l’ajout obligatoire d’une fonction : « vérifier la zone » au lecteur).

Par ailleurs, tous les accords de licence de DRM s’accompagnent d’un ensemble de règles de « robustesse » qui incite les fabricants à concevoir leur produit de façon à ce que leur propriétaire ne puisse ni voir ce que font ces DRM ni les modifier. Cela a pour but d’empêcher que le possesseur d’un dispositif n’en reconfigure les propriétés pour faire des choses interdites (« sauvegarder sur le disque ») ou pour ignorer des choses obligatoires (« vérifier la région »).

Ajouter les DRM au standard HTML aura des répercussions étendues qui sont incompatibles avec les règles les plus importantes du W3C et avec les principes qui tiennent particulièrement à cœur à Berners-Lee.

Par exemple, le W3C a fait avancer les organismes de normalisation en insistant sur le fait que les standards ne devaient pas être gênés par les brevets. Lorsque des membres du W3C détiennent des brevets sur une partie d’un standard, ils doivent promettre à tous les utilisateurs de fournir une licence qui ne possède pas de conditions trop contraignantes. Cependant, les DRM nécessitent des brevets ou des éléments sous licence dont le seul objectif est d’ajouter des conditions contraignantes aux navigateurs.

La première de ces conditions – la « robustesse » contre les modifications de l’utilisateur final – est une exclusion totale de tous les logiciels libres (ces logiciels qui, par définition, peuvent être modifiés par leurs utilisateurs). Cela signifie que les deux technologies de navigateurs web les plus populaires, WebKit (utilisé avec Chrome et Safari) et Gecko (utilisé avec Firefox et ses navigateurs apparentés), pourraient légalement se voir interdire d’être intégré dans l’une de ces « normes » qui sortiraient du W3C.

Copie moi si tu peux

Plus encore, les DRM sont parfaitement inefficaces pour empêcher la copie. Je suspecte Berners-Lee d’en être parfaitement conscient. Quand les geeks minimisent les craintes autour des DRM, ils disent souvent des choses telles que : « He bien, je peux les contourner et de toute façon ils reviendront à la raison tôt ou tard vu que cela ne fonctionne pas, non ? ». Chaque fois que Berners-Lee raconte l’histoire des débuts du Web, il insiste sur le fait qu’il a pu inventer le Web sans demander la moindre permission. Il utilise cela comme une parabole pour expliquer l’importance d’un Internet ouvert et neutre. Mais il échoue à comprendre que la raison d’être des DRM est d’obliger à demander une permission pour innover.

Car limiter la copie n’est qu’une raison superficielle à l’ajout de DRM à une technologie. Les DRM échouent complètement lorsqu’il s’agit d’empêcher la copie, mais sont remarquablement efficaces pour éviter toute innovation. En effet les DRM sont couverts par les lois anti-contournement telles que la célèbre DMCA de 1998 (US Digital Millennium Copyright Act) et l’EUCD de 2002 (EU Copyright Directive) ; chacune d’elle fait du contournement de DRM un crime, même si vous n’enfreignez aucune autre loi. Concrètement, cela signifie que vous devez demander la permission à une autorité de licence de DRM pour ajouter ou modifier n’importe quelle fonctionnalité, ce que les termes de la licence vous interdisent de faire.

Comparons les DVD aux CD. Les CD n’avaient pas de DRM, il était donc légal d’inventer des technologies comme l’iPod ou iTunes qui extrayaient, encodaient et copiaient la musique pour un usage privé. Les DVD avaient des DRM, il était donc illégal d’en faire quoi que ce soit de plus et depuis presque 20 ans qu’ils sont apparus, aucune technologie légale n’a vu le jour sur le marché pour faire ce que iTunes et l’iPod font depuis 2001. Une entreprise a essayé de lancer un jukebox primitif à DVD combiné à un disque dur et fut poursuivie pour cette activité commerciale. 20 ans de DVD, zéro innovation. Bon, les DRM n’ont pas empêché les gens de créer des copies illégales de DVD (bien entendu !), mais elles ont complètement empêché l’émergence sur le marché de tout produit légal et innovant, et nous ne sommes pas près d’en voir la fin.

Prêts à vous faire les poches

C’est ce vers quoi le W3C essaie de faire tendre le Web. Et Berners-Lee, avec ses remarques, en prend la responsabilité. Un état où chaque amélioration est vue comme une occasion d’instaurer un péage. Un Web construit sur le modèle économique de l’infection urinaire : plutôt que d’innover dans un flot sain, chaque nouvelle fonctionnalité doit venir d’une petite goutte contractée et douloureuse : quelques centimes si vous voulez la lier à un temps spécifique de la vidéo, encore quelques centimes si vous souhaitez intégrer un lien provenant de la vidéo dans une page web, encore plus si vous souhaitez mettre la vidéo sur un autre appareil ou la décaler dans le temps, et ainsi de suite.

Le W3C étant l’organisme principal qui normalise le Web, son action repose sur une confiance énorme à la fois sacrée et significative. Le futur du Web est le futur du monde, car tout ce que nous faisons aujourd’hui implique le net et ce sera tout aussi nécessaire pour tout ce que nous ferons demain. À présent, il souhaite brader cette confiance, uniquement parce que les principaux fournisseurs de contenu verrouilleront leur « contenu » en utilisant Flash s’ils ne parviennent pas à obtenir de veto sur l’innovation issue du Web. Cette menace n’est pas nouvelle : les grands studios avaient promis de boycotter la télévision numérique américaine si elle ne rendait pas les DRM obligatoires. Les tribunaux américains ont refusé de leur accorder cette aubaine, et pour autant, la télévision numérique continue de fonctionner (si seulement Otcom et la BBC avaient tenu compte de cet exemple avant de vendre la télévision britannique aux studios américains en ce qui concerne nos propres normes de télévision numérique HD).

Flash est déjà hors course. Comme Berners-Lee vous le dira lui-même, la présence de plate-formes ouvertes, où l’innovation n’a pas besoin d’autorisation, est la meilleure façon d’inciter le monde à se connecter à vous. Un Web ouvert crée et distribue tant de valeur que chacun s’est mis à l’utiliser, délaissant ainsi les écosystèmes contrôlés semblables à Flash, entouré d’AOL et autres systèmes défaillants. Les gros studios ont plus besoin du Web que le Web n’a besoin d’eux.

Le W3C a le devoir d’envoyer au diable les colporteurs de DRM, tout comme les tribunaux américains l’ont fait lors de l’affaire de la TV numérique. Il n’y a pas de marché pour les DRM, pas de cause d’utilité publique qui justifie l’octroi d’un droit de veto à d’obscurs géants des médias qui ne voient pas plus loin que le bout de leur nez et qui rêvent d’un monde où chaque fois que vous cliquez, vous passez à la caisse et où la difficulté d’utilisation est quelque chose qui arrivent aux autres et pas à eux.

Crédit photo : Etech (Creative Commons By)




La génération GitHub

GitHub a beau être une plateforme non libre de projets libres, force est de constater que cette « forge sociale » est devenue en quelques années l’un des centres névralgiques de la communauté.

Avec sa facilité d’usage, son appel permanent au fork et l’individuation des contributions, GitHub a permis a plus de monde de participer tout en ouvrant le Libre au delà du logiciel puisqu’il n’y a pas que du code proprement dit dedans (cf la liste de l’article traduit ci-dessous).

À tel point que certains n’hésitent pas à y voir un modèle pertinent pour toutes sorte de choses à commencer par la… démocratie !

Et si une génération toute entière était effectivement en train de naître sous nos yeux ?

GitHub

La génération Github : Pourquoi vous et moi pouvons désormais faire de l’Open Source

The GitHub Generation: Why We’re All in Open Source Now

Mikeal Rogers – 7 mars 2013 – Wired Opinion
(Traduction : Moosh, Sphinx, Peekmo, Chopin, goofy, misc, Uflex + anonymes)

GitHub a été conçu pour être une plate-forme de collaboration logicielle ouverte, mais c’est devenu une plate-forme pour déposer beaucoup plus de choses que du simple code. Elle est maintenant utilisée par des artistes, des créateurs, des propriétaires de maisons et des tas d’autres gens, par des entreprises entières… et même par des municipalités.

« N’importe qui peut maintenant changer les données quand de nouvelles pistes cyclables sont aménagées, quand de nouvelles routes sont construites ou quand de nouveaux immeubles sont construits » a annoncé récemment la ville de Chicago. Les gens planifient leurs projets de rénovation de maison sur GitHub. Un cabinet d’avocats a annoncé il y a quelques jours qu’il postait des documents juridiques pour des start-ups sur GitHub. Quelqu’un a même publié toutes les lois d’Allemagne sur GitHub l’année dernière (avec, s’il vous plaît, déjà 17 pull requests pour des modifications).

Bien sûr, GitHub reste majoritairement toujours utilisé par les programmeurs et développeurs qui font voler des AR.Drones avec Node.js ou construisent des sites web avec jQuery. Mais de plus en plus de gens passent de consommateurs à producteurs, et ils redéfinissent ainsi la culture de l’open source. Je crois que GitHub transforme l’open source comme l’internet a transformé l’industrie de la publication : un fossé culturel est en train de se creuser entre l’ancienne génération de gros projets libres et la nouvelle génération d’amateurs de projets libres d’aujourd’hui.

La révolution ne sera pas centralisée

Quand la plupart des gens entendent « open » source, ils pensent démocratie, distribution, égalité : tout le monde construit des choses pour que tout un chacun les utilise.

Mais cela n’a pas toujours été le cas. La plupart des logiciels open source ont été créés et maintenus par une classe privilégiée et protégée, les développeurs professionnels, qui interagissaient avec d’autre développeurs très semblables (ils sont pourtant suffisamment différents pour avoir de belles disputes).

Avant GitHub, je passais beaucoup de temps à penser et à discuter de la meilleure façon de gérer des projets open source parce que la coordination représentait un coût important d’un projet open source. Si important que lorsqu’un projet réussissait et développait une communauté assez grande, il était logique que le projet grandisse plutôt qu’il ne se fracture en projets plus petits. Mais plus le projet du logiciel devenait grand et complexe, plus il était difficile d’y contribuer. Ainsi, un choix de membres, les commiters – étaient assignés à la gestion et à la production du projet. Cela menait souvent à des ruptures séparant ceux qui produisaient le projet et ceux qui les utilisaient.

GitHub a comblé ce fossé en faisant de l’open source quelque chose de bien plus décentralisé. C’est devenu davantage centré sur les individus que sur le projet.

La façon d’utiliser GitHub est trés personnelle. Une personne (je suis github.com/mikeal) a un compte, et tout ce qu’elle publie existe à un niveau en dessous d’elle. Si quelqu’un veut corriger quelque chose, il suffit de « forker » le projet, ce qui place une copie sous son propre compte.

Cette façon de travailler est trés stimulante : elle encourage les individus à corriger les problèmes et à prendre possession des correctifs au même niveau que le projet de départ. Cela donne également à chacun une identité dans cette nouvelle culture du libre. GitHub est actuellement le premier fournisseur d’identité pour la production collaborative sur internet pour faire plus que du développement de code.

J’ai contribué à des projets libres depuis plus de 10 ans, mais ce qui est différent maintenant est que je ne suis pas un membre d’un de ces projets, je suis un simple utilisateur, et contribuer un peu est devenu une petite partie du rôle d’un utilisateur. Des petites interactions entre moi et les mainteneurs de projets arrivent plusieurs fois par semaine sur tout type de projet que j’utilise. Et ça arrive encore plus souvent dans l’autre sens : des gens dont je n”ai jamais entendu parler m’envoient des petits bouts de code sur les petits projets que j’ai publiés.

La décentralisation comme démocratie

Les premières versions de GitHub ont très bien fait une chose : rendre la publication de votre code beaucoup plus facile (que la non-publication). Ceci était suffisant pour que beaucoup de projets connus, notamment Ruby on Rails, migrent sur GitHub presque immédiatement.

Mais ce qui s’est passé après est encore plus intéressant : les gens ont commencé à tout publier sur GitHub. Pousser du code est presque devenu une habitude, comme tweeter. En abaissant la barrière pour entrer et rendant plus facile la contribution à l’open source, GitHub a élargi la production collaborative aux utilisateurs occasionnels.

Aujourd’hui un vaste choix de logiciels simples et compréhensibles est accessible à une catégorie de gens créatifs qui n’avaient jusqu’alors pas les compétences techniques requises pour participer à des projets open source par le passé.

Ce mélange des relations entre les producteurs, les contributeurs et les consommateurs valorise naturellement les projets plus petits et plus faciles à comprendre — et a conduit à de nombreuses contributions. Au cours du mois de septembre 2012 par exemple, la moitié des utilisateurs actifs de GitHub qui ont poussé au moins un changeset, l’ont fait moins de cinq fois, avec 22% (environ 44 000 personnes) qui ont poussé seulement un seul changeset ce mois-ci.

L’accès de l’open source aux amateurs présente certains avantages évidents.

Faciliter les usages

Un des problèmes récurrents, avec le logiciel open source, a été la qualité des finitions. La documentation, le design des sites web et l’ergonomie en général ont toujours été un problème — spécialement par rapport à de nombreux concurrents propriétaires.

Mais maintenant, avec les facilités de collaboration, des utilisateurs moins portés sur la technologie et la connaissance du code peuvent plus facilement participer à améliorer les logiciels sur lesquels ils travaillent (ce qui peut être des petites choses comme l’humanisation des messages d’erreur de codage ou de légers changements graphiques en une ligne de CSS qui optimisent le rendu des sites web des navigateurs, anciennes versions incluses, et sur les téléphones mobiles).

Dans le nouvel open source, les gens veulent utiliser la technologie sans avoir besoin de devenir des experts. La facilité d’utilisation est plus valorisée que jamais.

Éviter de réinventer la roue

Les développeurs aiment les défis et plus ils ont de chances de les relever, plus leurs solutions peuvent être astucieuses. C’était parfait lorsque les utilisateurs de ces solutions étaient eux aussi des gens très compétents techniquement comme ceux qui prenaient plaisir à résoudre astucieusement ces anciens problèmes.

Mais les amateurs préfèrent les solutions qu’ils peuvent tenir pour acquises : une fois qu’un problème est résolu, ils reviennent rarement en arrière pour le réexaminer. Et dans la mesure où les amateurs ne créeront qu’à partir des solutions les plus compréhensibles, cela contraint les développeurs à élaborer des solutions simples qui rendent les problèmes complexes plus faciles à appréhender.

Soutenir un écosystème plus vaste

Node.js, projet dans lequel je suis activement impliqué, définit des modèles suffisamment simples pour que les gens puissent écrire de petites bibliothèques indépendantes et les publier à leur gré. Tous ceux qui s’impliquent dans l’écosystème peuvent en tirer profit sans coordination. C’est le pôle inverse de l’énorme pile verticale qui accompagne des tas d’outils et fonctionnalités (tels que dans les systèmes intégrant des plugins, comme Ember, Dojo et YUI) qui sont nécessaires pour réussir à développer dans des environnement propriétaires (pensez à Cocoa et au développement pour iOS). Dans les environnements ouverts, tels que Node.js sur GitHub, nous constatons que des API bien plus légères peuvent facilement tirer parti du reste de l’écosystème sans coordination. Moins il y a de coordination entre les développeurs et les bibliothèques et plus nous pouvons créer de la valeur.

GitHub a donné les capacités à une nouvelle génération de collaborer, de créer, de produire. Beaucoup de développeurs regretteront l’abandon des normes culturelles précédentes, telles que le statut des commiters (ceux qui sont autorisés à envoyer le code sur le dépôt) ou la bonne vieille guerre pour le choix de la bonne licence — mais l’avenir est déjà entre les mains d’une nouvelle génération qui a évolué.

Ce n’est pas un simple outil : c’est à la naissance d’une nouvelle culture à laquelle nous assistons.




Un salon de beauté conçu avec Blender et Cycles (en lieu et place de 3ds Max)

Dans le milieu du design et de la CAO, la part belle est encore trop souvent faite aux logiciels propriétaires.

Mais il n’y pas que 3ds Max & co dans la vie logicielle. On peut faire tout aussi bien, voire mieux, avec le libre Blender et son moteur de rendu Cycles.

C’est que ne nous prouve par l’exemple cet entretien du talentueux ukrainien Igor Shevchenko.

Backstage - Blender

Un salon de beauté conçu et visualisé grâce à Blender et Cycles

Beauty salon designed and visualized with Blender and Cycles

Alexandre Prokoudine – 25 février 2013 – LibreGraphicsWorld.org
(Traduction : Alpha, Max, KoS + anonymes)

Parmi toutes les choses intéressantes qui sont réalisables à l’aide de logiciels libres, ce que LGW aime faire le plus, c’est produire un travail commandé qui soit reconnu. Parlons d’un cas particulier, celui de l’utilisation de Blender et Cycles pour la visualisation d’architectures commerciales.

Je suis récemment tombé sur ce travail sur Behance (NdT : une plateforme de partage de projets de design pour les professionnels) et je n’ai pas pu résister à l’envie de contacter Igor Shevchenko, son auteur.

Igor travaille pour une entreprise ukrainienne appelée « Magis ». Il s’occupe de la modélisation, du texturage et du rendu d’intérieur. « Backstage », le salon de beauté en question, est un véritable établissement qui a ouvert à Kiev en septembre 2012.

Igor, s’agit-il de ton premier projet sérieux réalisé à l’aide de Blender ? Le reste de ton album sur Behance semble porter les étiquettes de 3DS Max, Adobe Photoshop et d’autres logiciels du même genre.

Oui, c’est vrai, c’est le premier vrai projet que l’on m’a commandé et que j’ai réalisé avec Blender. J’étais vraiment curieux de savoir s’il allait être possible de réaliser un tel projet uniquement avec un logiciel libre et de voir les difficultés auxquelles on pouvait s’attendre. Lorsque j’ai commencé à travailler sur le projet, j’ai eu peur que ma connaissance de Blender ne soit pas suffisante pour le mener à bien et de devoir retourner sous 3DS Max. Ça ne s’est pas produit.

Combien de temps cela a-t-il pris ?

Le travail sur le design intérieur a été fait en 3 mois. Mais les rendus du portfolio pour Behance ont été une toute autre affaire. Je suis parti de rien, surtout pour Behance.

Vraiment ?

L’année dernière, en novembre, notre administrateur système m’a demandé de lui envoyer quelques rendus de ce que j’avais fait avec Blender. Il souhaitait les montrer à un ami qu’il tentait de convaincre que Blender était en fait un outil très correct. J’ai donc fouillé parmi mes fichiers et je fus horrifié de constater que je n’avais aucun rendu lissé. J’ai alors décidé de repartir de zéro pour refaire les rendus du projet « Backstage ».

Attends, donc tu n’as pas fait ces visualisations pour le client ?

Le client ne voulait pas des rendus de haute qualité dans un premier temps. Nous avons juste fait le design et décrit le reste avec des mots.

OK, donc de combien de temps as-tu eu besoin pour réaliser la version portfolio du projet ?

Je n’avais aucune date limite, ça ne pressait donc pas, je l’ai fait pendant mon temps libre. Je pense qu’en m’y mettant et en ne faisant rien d’autre, ça m’aurait pris une journée pour faire la modélisation, une autre pour peaufiner les détails et encore une autre pour effectuer le rendu global.

Backstage - Blender

D’où vient ton intérêt pour Blender ?

Il y a environ trois ans, j’ai fini par en avoir marre d’utiliser 3DS Max, j’ai donc commencé à chercher des alternatives. J’ai d’abord essayé Maya et Cinema 4D et j’ai opté pour Maya. Cependant, je me suis rendu compte que soit je n’arrivais pas à trouver le temps pour apprendre à l’utiliser, soit il ne me convenait pas. Peut-être un peu des deux.

J’ai fini par revenir à 3DS Max, faute d’autre chose. Notre administrateur système, qui est un grand adepte du logiciel libre m’a suggéré d’utiliser Blender, mais il s’agissait de la version 2.49 que je n’ai vraiment pas appréciée.

Fin 2011, j’ai lu un article sur « Sintel » le film libre, je l’ai alors regardé. J’ai adoré à la fois l’histoire et les visuels, j’ai donc donné une seconde chance à Blender : j’ai téléchargé une version plus récente et je me suis mis à lire les tutoriels d’Andrew Price, j’ai alors commencé à comprendre comment ce logiciel fonctionnait.

Puis, Cycles est arrivé, et ça a achevé de me convaincre. Mi-2012, j’étais déjà en train de réaliser des petits projets avec Blender, puis « Backstage » est devenu le premier grand projet pour lequel je m’en suis servi. Ça n’a pas été facile, mais je ne suis pas déçu. Avant je considérais que les logiciels libres performants ne pouvaient pas exister. Blender est une exception remarquable dans ce domaine.

L’un dans l’autre, une expérience positive ?

Oui. Mes collègues ont remarqué que je travaillais plus rapidement. Blender a une logique réellement différente, pas comme dans 3DS Max :

  • manipulation d’objets,
  • personnalisation facile de l’interface,
  • approche différente de la modélisation de polygone,
  • paramétrage nodal des matériaux,
  • traitement « post-processing » intégré,
  • modificateurs (il n’y en pas beaucoup, mais ils sont très efficaces pour accélérer le processus de modélisation),
  • raccourcis clavier (il y en a beaucoup et ils améliorent grandement mon efficacité).

Blender possède des fonctionnalités sans lesquelles je ne m’imagine pas travailler aujourd’hui. 3DS Max n’en possède pas autant.

Cette liste pourrait s’allonger mais le plus important est que Blender est tout simplement mon type d’application.

Et Cycles ?

Cycles est un formidable moteur de rendu. J’ai récemment implémenté le matériau caoutchouc dans 3DS Max pour les pneus, et c’était vraiment la misère : paramétrage, rendu, paramétrage, rendu ainsi de suite… Dans Cycles, j’ai juste ajusté les paramètres et vu le résultat immédiatement.

Vois-tu une utilité au moteur de rendu interne de Blender dans ton travail quotidien ?

Non, c’est plutôt inutile en ce qui me concerne.

Est-ce que l’aspect libre et gratuit, en plus de la faible taille du fichier à télécharger a joué un rôle ?

Tout à fait. À plusieurs reprises, j’ai eu besoin de télécharger Blender lors d’un rendez-vous avec un client sur son ordinateur (5 minutes), de le lancer (2 secondes) et de travailler sur un projet. Ça fait une grande différence.

Au vu de tout ça, est-ce que l’un de tes collègues a déjà eu envie d’utiliser Blender ?

Non, et je ne m’attends pas à ce qu’ils le fassent. Soyons réalistes, la seule façon pour que cela arrive, c’est de les forcer à l’utiliser, et rien de bon n’en sortira. En réalité, les gens n’ont soit pas le temps, soit pas l’envie d’apprendre de nouvelles choses, et certains ne savent même pas que des alternatives existent.

Quels types de difficultés as-tu rencontrés lorsque tu travaillais avec Blender sur le projet « Backstage » ?

Le principal défaut de Blender est que la phase de développement actif a commencé assez récemment et beaucoup de fonctionnalités de base ne sont pas encore présentes. Il y a aussi les problèmes de compatibilité avec les formats de fichiers : c’est difficile d’ouvrir des fichiers Blender dans AutoCAD et dans 3DS Max, c’est même quasiment impossible.

As-tu rencontré des problèmes purement techniques avec Cycles ? Quelque chose qui manque ?

J’ai un peu de mal à me rappeler ce qui manque. De manière générale, les fonctionnalités compatibles par défaut dans les autres moteurs de rendu. La gestion des fichiers IES (NdT : qui gèrent la répartition de la lumière) en faisait partie il y a peu, mais ça a été résolu.

D’un autre côté, j’ai trouvé des méthodes parfaitement fonctionnelles pour contourner la plupart — sinon toutes — des fonctionnalités manquantes. La seule chose que je n’arrive pas à contourner c’est que Cycles est plutôt inutile sans une carte graphique chère.

Penses-tu que la fréquence des mises à jour de versions interfère avec les méthodes de travail en entreprise ? Les studios seraient plus enclins à n’utiliser que des mises à jour importantes et à ne les mettre à jour que pour corriger les bugs, c’est assez connu.

La fréquence d’apparition des nouvelles versions semble être une des principales particularités des logiciels libres. Je pense qu’en réalité, Blender en tire profit, parce qu’il reste beaucoup de choses à faire.

En plus, Blender a une bonne compatbilité ascendante et, de cette manière, rien n’empêche un studio de se limiter à une version particulière et à l’utiliser pendant quelques années.

Backstage - Blender

La galerie complète du projet « Backstage » est disponible sur Behance.