Google Art Project : Une petite note discordante dans un concert de louanges

Antonio Pollaiuolo - Public DomainGoogle vient de sortir un énième nouveau projet : Google Art Project.

Il est ainsi décrit dans cette dépêche AFP : « Google a lancé une plate-forme permettant aux amateurs d’art de se promener virtuellement dans 17 des plus grands musées du monde, dont le MoMA de New York et le Château de Versailles, grâce à sa technologie Street View, familier des utilisateurs du site de cartes Google Maps ».

La présentation vidéo de Google est spectaculaire et la visite virtuelle l’est tout autant. Ce qui m’a le plus impressionné c’est le fait que chaque musée offre l’une de ses œuvres à une précision numérique hors du commun (7 milliards de pixels !). Regardez un peu ce que cela donne dans le détail pour La Naissance de Vénus de Boticceli.

Faites un zoom sur son visage et vous serez peut-être comme moi saisi par une certaine émotion. Et si j’ai pris cet exemple ce que j’étais encore récemment devant le vrai tableau à Florence. L’émotion est tout autre, sans commune mesure, elle est bien plus intense évidemment, mais pouvoir regarder à la loupe un tel chef-d’œuvre n’est pas sans intérêt[1].

On a alors vu toute la presse, petit et grande, s’enthousiasmer sur ce nouveau service gratuit (cela allait sans dire avec Google). J’ai ainsi pu comptabiliser plus d’une centaine d’articles dans… Google Actualités (sic, on n’en sort pas !), et jamais je n’y ai lu la moindre critique.

La seule question que l’on se pose éventuellement est de se demander furtivement si un tel projet peut se substituer à la visite réelle. Et la réponse, aussi bien du côté Google que du côté musées, est au contraire que cela stimule la curiosité et amplifie le désir de venir. Un peu comme la vitrine d’un magasin vous donne envie de rentrer en somme. Et puis pour ceux qui ne peuvent vraiment pas y aller comme les enfants d’Afrique ou d’Amérique Latine, c’est toujours bien mieux que rien.

Personne n’est donc venu apporter un seul bémol. On aurait pu souligner que c’est encore et toujours du Google, qui de projets sympas en projets sympas, commence à atteindre une taille intrinsèquement monstrueuse. On aurait pu regretter que pour pouvoir bénéficier d’un parcours individualisé et former ses propres collections il faille évidemment un compte Google (c’est gratuit mais c’est bien là le prix à payer à Google). Plus subtil mais pas moins important, on aurait pu se demander quelles étaient exactement les conditions juridiques des accords entre Google et les musées, notamment pour ce qui concerne l’épineuse question de la reproduction d’œuvres dans le domaine public (d’ailleurs on voit déjà fleurir dans Wikimedia Commons des reproductions d’œuvres directement issues des reproductions de Google Art Project !).

Personne, sauf peut-être Adrienne Alix, présidente de Wikimedia France, qui a publié sur son blog personnel sa « vision critique » du projet, dans un billet que nous avons reproduit ci-dessous parce que nous partageons sa perplexité.

« Les wikimédiens passent énormément de temps à prendre de belles photographies de ces œuvres pour les mettre librement à disposition sur Wikimedia Commons et permettre à tous de les réutiliser. Il est souvent difficile de faire admettre aux musées qu’il est bon de permettre cette très large diffusion de la culture. Les choses changent peu à peu, le dialogue s’engage ces derniers temps, et c’est une très bonne chose (…) Quelle est ma crainte ? Que ces musées qui commencent timidement à ouvrir leurs portes et se lancent avec nous en faisant confiance, en prenant le pari de la diffusion libre de contenus dans le domaine public, se replient sur une solution verrouillée comme celle proposée par Google Art Project, où l’internaute ne peut absolument pas réutiliser les œuvres ainsi montrées. On visite, on ne touche pas. On ne s’approprie pas. On est spectateur, et c’est tout. Je crains que par envie de contrôle de l’utilisation des reproductions d’œuvres conservées dans les musées, la notion de domaine public recule. »

Vous trouverez par ailleurs en annexe, un petit clip vidéo montrant un photographe wikipédien à l’œuvre. Quand Google nous propose une visite virtuelle clinquante mais balisée et pour tout dire un brin étouffante, Wikipédia donne envie d’arpenter le vaste monde et d’en garder traces au bénéfice de tous.

Google Art Project : vision critique

URL d’origine du document

Adrienne Alix – 3 février 2011 – Compteurdedit
Licence Creative Commons By-Sa

Depuis deux jours, le web (et notamment le web « culturel », mais pas seulement) s’enthousiasme pour le dernier-né des projets développés par Google, Google Art Project.

Le principe est compréhensible facilement : Google Art Project, sur le modèle de Google Street View, permet de visiter virtuellement des musées en offrant aux visiteurs une vue à 360°, un déplacement dans les salles. On peut aussi zoomer sur quelques œuvres photographiées avec une très haute résolution et pouvoir en apprécier tous les détails, certainement mieux que ce qu’on pourrait faire en visitant réellement le musée.

Et donc, tout le monde s’extasie devant ce nouveau projet, qui permet de se promener au musée Van Gogh d’Amsterdam, au château de Versailles, à l’Hermitage, à la National Gallery de Londres, etc. En effet c’est surprenant, intéressant, on peut s’amuser à se promener dans les musées.

En revanche, au-delà de l’aspect anecdotique et de l’enthousiasme à présent de rigueur à chaque sortie de projet Google, j’aimerais pointer quelques petits points, qui peuvent paraître pinailleurs, mais qui me semblent importants.

1- d’une part, la qualité n’est pas toujours là. Vous pouvez en effet vous promener dans le musée, mais ne comptez pas forcément pouvoir regarder chaque œuvre en détail. On est dans de la visite « lointaine », un zoom sur une œuvre donnera quelque chose de totalement flou. Les deux captures d’écran ci-dessous sont, je pense, éloquentes.

2- Google rajoute une jolie couche de droits sur les œuvres qui sont intégrées dans ces visites virtuelles. Une part énorme de ces œuvres est dans le domaine public. Pourtant, les conditions générales du site Google Art Project sont très claires : cliquez sur le « Learn more » sur la page d’accueil. Vous verrez deux vidéos expliquant le fonctionnement du service, puis en descendant, une FAQ. Et cette FAQ est très claire :

Are the images on the Art Project site copyright protected?

Yes. The high resolution imagery of artworks featured on the art project site are owned by the museums, and these images are protected by copyright laws around the world. The Street View imagery is owned by Google. All of the imagery on this site is provided for the sole purpose of enabling you to use and enjoy the benefit of the art project site, in the manner permitted by Google’s Terms of Service.

The normal Google Terms of Service apply to your use of the entire site.

On y lit que les photos en haute résolution des œuvres d’art sont la propriété des musées et qu’elles sont protégées par le « copyright » partout dans le monde. Les images prises avec la technologie « street view » sont la propriété de Google. Les images sont fournies dans le seul but de nous faire profiter du Google Art Projetc. Et on nous renvoie vers les conditions générales de Google.

En gros, vous ne pouvez rien faire de ce service. Vous pouvez regarder, mais pas toucher.

3 – D’ailleurs vous ne pouvez techniquement pas faire grand chose de ces vues. Y compris les vues en très haute définition. Effectivement le niveau de détail est impressionnant, c’est vraiment une manière incroyable de regarder une œuvre. Mais après ? Vous pouvez créer une collection. Soit, je décide de créer une collection. Pour cela il faut que je m’identifie avec mon compte google (donc si vous n’avez pas de compte google, c’est dommage pour vous, et si vous vous identifiez, cela fait encore une donnée sur vous, votre personnalité, que vous fournissez à Google. Une de plus). Je peux annoter l’œuvre (mettre un petit texte à côté, sauvegarder un zoom, etc). Que puis-je faire ensuite ? Et bien, pas grand chose. Je peux partager sur Facebook, sur Twitter, sur Google Buzz ou par mail.
Mais en fait, je ne partage pas réellement l’œuvre, je partage un lien vers ma « collection ». C’est à dire que jamais, jamais je ne peux réutiliser cette œuvre en dehors du site.

Donc si par exemple je suis professeur d’histoire ou d’histoire de l’art, je suis obligée de faire entrer mes élèves sur ce site pour leur montrer l’œuvre, je ne peux pas la réutiliser à l’intérieur de mon propre cours, en l’intégrant totalement. Ni pour un exposé. Je ne peux pas télécharger l’œuvre. Qui pourtant est, dans l’immense majorité des cas, dans le domaine public. Il faut donc croire que la photographie en très haute résolution rajoute une couche de droits sur cette photo, ce qui pourrait se défendre, pourquoi pas, mais aujourd’hui ça n’est pas quelque chose d’évident juridiquement.


Vous me direz qu’après tout, cela résulte de partenariats entre des musées et Google, ils prennent les conditions qu’ils veulent, c’est leur problème, on a déjà de la chance de voir tout cela. Ok. Mais ce n’est pas la conception de partage de la culture que je défends.

Je me permettrai de rappeler que, en tant que wikimédienne, et défendant la diffusion libre de la culture, je suis attachée à la notion de « domaine public ». Au fait que, passé 70 ans après la mort d’un auteur, en France et dans une très grande partie du monde, une œuvre est réputée être dans le domaine public. Et donc sa diffusion peut être totalement libre. Sa réutilisation aussi, son partage, etc.

Les wikimédiens passent énormément de temps à prendre de belles photographies de ces œuvres pour les mettre librement à disposition sur Wikimedia Commons et permettre à tous de les réutiliser. Il est souvent difficile de faire admettre aux musées qu’il est bon de permettre cette très large diffusion de la culture. Les choses changent peu à peu, le dialogue s’engage ces derniers temps, et c’est une très bonne chose. Nos points d’achoppement avec les musées tiennent souvent à la crainte de « mauvaise utilisation » des œuvres, le domaine public leur fait peur parce qu’ils perdent totalement le contrôle sur ces œuvres (notamment la réutilisation commerciale). Ils discutent cependant avec nous parce qu’ils ont conscience qu’il est impensable aujourd’hui de ne pas diffuser ses œuvres sur internet, et Wikipédia est tout de même une voie royale de diffusion, par le trafic énorme drainé dans le monde entier (pour rappel, plus de 16 millions de visiteurs unique par mois en France, soit le 6e site fréquenté).

Quelle est ma crainte ? Que ces musées qui commencent timidement à ouvrir leurs portes et se lancent avec nous en faisant confiance, en prenant le pari de la diffusion libre de contenus dans le domaine public, se replient sur une solution verrouillée comme celle proposée par Google Art Project, où l’internaute ne peut absolument pas réutiliser les œuvres ainsi montrées. On visite, on ne touche pas. On ne s’approprie pas. On est spectateur, et c’est tout. Je crains que par envie de contrôle de l’utilisation des reproductions d’œuvres conservées dans les musées, la notion de domaine public recule.

Alors certes, la technologie est intéressante, le buzz est légitime, l’expérience de visite est plaisante. Mais au-delà de cela, est-ce vraiment une vision moderne et « 2.0 » du patrimoine qui est donnée ici ? Je ne le pense pas. J’ai même une furieuse impression de me retrouver dans un CD-ROM d’il y a 10 ans, ou dans le musée de grand-papa.

Pour terminer, je vous invite à aller vous promener sur Wikimedia Commons, dans les catégories concernant ces mêmes musées. C’est moins glamour, pas toujours en très haute résolution, mais vous pouvez télécharger, réutiliser, diffuser comme vous voulez, vous êtes libres…

Au cas où il serait nécessaire de le préciser : je m’exprime ici en mon nom personnel, et uniquement en mon nom personnel. Les opinions que je peux exprimer n’engagent en rien l’association Wikimédia France, qui dispose de ses propres canaux de communication.

Annexe : Vidéo promotionnelle pour Wiki loves monuments

Réalisée par Fanny Schertzer et Ludovic Péron (que l’on a déjà pu voir par ailleurs dans cet excellent reportage).

—> La vidéo au format webm

URL d’origine du document

Notes

[1] Illustration : Portrait de jeune femme, Antonio Polaiolo, fin XVe siècle, MoMatélécharger librement…)




Selon François Fillon, Microsoft représente l’avenir de l’économie mondiale

Tophee - CC by-nc-saNon seulement Microsoft « représente l’avenir de l’économie mondiale » mais aussi Microsoft « symbolise beaucoup des priorités de la politique économique du Gouvernement » !

La citation exacte, prononcée par François Fillon le 27 janvier dernier à l’occasion d’une visite au siège de Microsoft pour y parler de l’emploi des jeunes, est la suivante :

« Je voulais depuis longtemps venir ici à Microsoft, parce que l’entreprise symbolise beaucoup des priorités de la politique économique du Gouvernement, à la fois parce qu’elle représente la très haute technologie, l’avenir de l’économie mondiale et qu’elle a fait un choix d’implanter une grande partie de ses activités, notamment de ses activités de recherche en France et je sais qu’un certain nombre de mesures que nous avons prises, comme le crédit impôt recherche n’y est pas étranger. »

Je vous laisse juge de la pertinence du propos.

Notre Premier ministre poursuit : « Et puis ensuite, et c’est la raison pour laquelle je suis avec Xavier Bertrand et Nadine Morano ici ce matin, parce que Microsoft est une entreprise exemplaire en matière d’alternance, en matière d’apprentissage, 5 % de ses recrutements sont en alternance c’est plus que le niveau légal minimum. ET il se trouve que cela correspond à une priorité absolue du Gouvernement. »

(intégralité de l’allocution en texte ou en vidéo)

Que Microsoft soit « exemplaire » en matière d’emplois des jeunes et qu’on soit bien content que la société ait décidé d’implanter son siège européen en France, je n’y trouve a priori rien à redire. Sauf peut-être. que le « vrai » siège lui est en Irlande, pour d’évidentes raisons fiscales, et que c’est autant d’argent qui n’est pas redistribué dans l’économie nationale. Et puis n’oublions pas également que Microsoft tire principalement ses revenus de ses vaches à lait que sont Windows et MS Office, qui bénéficient d’une rente de situation de fait (cf le problème de la vente liée) non propice à développer l’informatique locale (et tous les emplois qui vont avec, CQFD). Inutile de rappeler qu’il en va autrement chez le logiciel libre.

Ajoutons que pour un site comme Framasoft qui fait ce qu’il peut depuis des années pour dénoncer la trop grande place faite à Microsoft dans l’Éducation nationale française, ce vibrant hommage, venu du plus haut sommet de l’État, n’est pas forcément une bonne nouvelle. Cela va compliquer plus encore les négociations avec les décideurs de rue de Grenelle. En plus je croyais que c’était plutôt le modèle Apple ou Google qui avait le vent en poupe ces derniers temps chez les observateurs du Nasdaq.

En tout cas, si « Microsoft symbolise les priorités économiques du Gouvernement », je comprends mieux pourquoi cela ne ne se passe pas bien[1].

En toute objectivité, et quelles que soient vos respectables opinions politiques, nous nous sommes choisis, me semble-t-il, le pire gouvernement qui soit pour ce qui concerne les nouvelles technologies. La gauche, les écologistes, le centre la droite non inféodée et même Le Pen (qui, si, si, sait distinguer une licence GPL d’une licence BSD) auraient certainement fait mieux !

Dans un an ce sera l’heure du bilan et il me sera bien difficile de dégager du positif dans ce quinquennat pour l’Internet, le logiciel libre, sa culture et ses enjeux.

Addendum : Dans ce contexte, on pourra s’amuser à relire l’article Fillon, ce « vrai geek »… de Libération, qui commence ainsi : « Fondu d’informatique, le Premier ministre ? Dans un entretien au magazine SVM, il confie vouloir essayer toutes les nouveautés… »

Notes

[1] Crédit photo : Tophee (Creative Commons By-Nc-Sa)




WebM contre H.264 : La FSF soutient le choix de Google

Dawn - CC byCe n’est pas forcément tous les jours que la Free Software Foundation (FSF) de Richard Stallman applaudit et soutient ouvertement Google dans ses choix de format vidéo pour le Web. Et d’appeler les internautes à en faire de même.

Google est même qualifié d’audacieux, puisque l’adoption d’un format ouvert – WebM – s’accompagne de la suppression d’un format fermé – H.264.

Pour en savoir sur le sujet, nous ne saurions trop vous conseiller notre article : Bataille de la vidéo sur le Web : Quand Google restreint pour mieux ouvrir ?[1].

Pas de double standard : soutenir l’appui de Google à WebM

No double standards: supporting Google’s push for WebM

Brett Smith – 19 Janvier 2011 – FSF.org (Traduction Framalang : Cheval boiteux, Jérémie et Antistress)

Nous avons décidé de soutenir le projet WebM et nous encourageons les autres fondations et organisations à nous rejoindre pour connaître la marche à suivre. Aujourd’hui, nous exhortons également les gestionnaires de sites web à distribuer les vidéos dans le format WebM et à abandonner le H.264.

La semaine dernière, Google a annoncé qu’il planifiait la suppression du support du codec vidéo H.264 des ses navigateurs au profit du codec WebM qui a récemment été libéré. Depuis, il y a eu beaucoup de discussions concernant les incidences possibles sur l’avenir du Web, au moment où la spécification HTML5 — dont la balise video — mûrit.

Nous applaudissons Google pour ce changement : c’est une avancée positive pour le logiciel libre, ses utilisateurs, et pour chaque personne qui utilise le Web. Cela fait un moment déjà que regarder une vidéo sur le Web peut s’avérer périlleux. La plupart d’entre elles sont publiées à l’aide de Flash qui est un logiciel non-standard et propriétaire. Les alternatives libres comme GNU Gnash sont disponibles, mais l’expérience utilisateur n’est pas toujours à la hauteur.

Quand le travail a commencé sur la nouvelle version du standard HTML, HTML5, le travail sur la diffusion et la lecture des vidéos était une priorité. Mais, bien que tout le monde était d’accord sur ce à quoi la balise <video> devait ressembler, il n’y avait pas de consensus sur le format d’encodage des vidéos. Microsoft et Apple soutenaient H.264, Mozilla et Opera soutenaient WebM et Ogg Theora. Jusque là, Google supportait tous ces codecs, mais aujourd’hui il a fait preuve d’audace en décidant de supporter les standards libres et ouverts et de laisser tomber H.264.

Ceci est une bonne nouvelle, car si H.264 devenait le standard de fait pour la vidéo sur le Web, cela ne serait pas mieux que la situation actuelle. H.264 est un codec lourdement breveté ; le consortium MPEG LA oblige les développeurs qui l’implémentent à accepter une licence de brevet. Cette licence est fondamentalement incompatible avec les logiciels libres. Elle exige des développeurs qu’ils restreignent l’utilisation qui sera faite de leur logiciel, et permet la collecte d’une redevance dans la plupart des situations.

Afin de s’assurer que le Web reste libre et ouvert pour tous, nous avons besoin qu’un codec libre s’impose comme standard de fait pour HTML5. WebM peut être ce codec : Google fournit avec le standard une licence de brevet qui est compatible avec les licences des logiciels libres et propose même une implémentation libre. Ils promeuvent également avec force ce codec, et leur décision de laisser tomber H.264 est une étape de plus dans cette direction.

Des réactions au geste de Google ont suggéré que cela représentait un pas en arrière pour les standards sur le Web, car H.264 est supporté par un plus grand nombre de matériels et de logiciels. Ces commentaires révèlent une incompréhension fondamentale de la vision d’un Web libre et ouvert. Nous ne pouvons être libres que si nous rejetons les formats de données qui sont assujettis à brevets.

Mais la question n’est pas encore règlée. C’est le moment pour tout le monde d’agir et de faire en sorte que WebM soit effectivement adopté par le plus grand nombre À cette fin, nous avons décidé de soutenir le projet WebM et nous encourageons les autres fondations et organisations à nous rejoindre — écrivez à webmaster AT webmproject.org pour connaître la marche à suivre. Aujourd’hui, nous exhortons également les gestionnaires de sites web à distribuer les vidéos dans le format WebM et à abandonner le H.264.

Bientôt, nous allons transformer notre campagne PlayOgg en PlayFreedom et nous allons mettre l’accent sur les moyens permettant à chacun d’encourager l’adoption de WebM. Vous pouvez vous inscrire dès maintenant pour en savoir plus sur la manière d’aider. Ensemble, nous pouvons veiller à ce que le Web remplisse sa promesse d’être libre pour tout le monde.

Notes

[1] Crédit photo : Dawn (Creative Commons By)




Bataille de la vidéo sur le Web : Quand Google restreint pour mieux ouvrir ?

Justin De La Ornellas - CC byLa semaine dernière Google annonçait que Chrome, le navigateur de la firme, ne supporterait plus dorénavant le format vidéo fermé et payant H.264 pour la vidéo sur le Web, préférant promouvoir exclusivement les formats vidéo libres et gratuits tels que WebM (VP8) et Ogg Theora.

Cette décision a été diversement accueillie, certains félicitant Google de continuer à peser de tout son poids pour faire émerger un standard libre et gratuit pour la vidéo sur le Web (on se souvient que Google a racheté l’année dernière la société On2 à l’origine du codec vidéo VP8 – que l’on retrouve dans le format WebM – pour permettre à chacun de l’implémenter et de l’utiliser gratuitement). Tandis que d’autres ont reproché à Google son incohérence en continuant de supporter dans le même temps le greffon propriétaire Flash.

En effet, jusqu’à présent la vidéo sur le Web nécessitait un greffon (typiquement Flash, de la société Adobe, omniprésent) qui agissait comme une boite noire en s’intercalant entre le navigateur et l’utilisateur. La récente mise à jour de la spécification HTML (qui sert à créer et afficher les pages Web) offre depuis la possibilité d’afficher les vidéos directement dans n’importe quel navigateur à jour, sans avoir à dépendre d’un unique logiciel appartenant à une unique société privée avec tous les dangers que cela représente[1].

Mais il reste pour cela à se mettre d’accord sur le choix du format dans lequel encoder la vidéo. Apple (Safari) refuse d’implémenter autre chose que le format payant H.264 qu’il souhaiterait voir s’imposer, ce qui placerait la vidéo sur le Web entre les mains d’un consortium de sociétés privées chargé de récolter les redevances et créerait un péage incontournable pour toute société qui souhaiterait innover sur le Web (avec ce système, Firefox et bien d’autres n’auraient jamais pu voir le jour). Pour leur part, Mozilla (Firefox), Opera et Google (Chrome) soutiennent WebM et Ogg Theora en tant que technologies libres et gratuites pouvant être mises en œuvre par n’importe qui sans restriction. Pendant ce temps Microsoft compte les points, n’excluant aucune des solutions

Tristan Nitot, Président de Mozilla Europe, l’explique bien : « Si le Web est si participatif, c’est parce qu’il n’y a pas de royalties pour participer et créer un contenu. (Faire le choix du H.264) serait hypothéquer l’avenir du Web. On créerait un îlot technologique, un club de riches : on pourrait produire du texte ou des images gratuitement, mais par contre, pour la vidéo, il faudrait payer. »

Nous avons choisi de reproduire ici la réponse de Haavard, employé chez Opera Software, à ceux qui dénoncent la récente décision de Google.

Le retrait de Chrome du codec H.264 conduit-il à moins d’ouverture ?

Is the removal of H.264 from Chrome a step backward for openness?

par Haavard, employé chez Opera Software, le 13 janvier 2011
(Traduction Framalang : Antistress et Goofy)

Dans un long article publié sur le site Ars Technica, Peter Bright soutient que retirer de Chrome le support d’un standard fermé conduit à moins d’ouverture.

Je suis fermement en désaccord avec cette assertion et je vais essayer d’expliquer rapidement pourquoi et ce qui cloche avec les arguments mis en avant dans l’article.

1. « H.264 est un standard ouvert »

Malheureusement H.264 est un format breveté et vous ne pouvez l’utiliser sans bourse délier. Conformément à la politique du W3C sur les brevets, cela est incompatible avec la définition d’un standard ouvert, spécialement dans le contexte du Web. D’après la définition même de « ouvert », H.264 ne peut être ouvert car il ne peut être utilisé sans payer.

2. « VP8 n’est pas un standard ouvert »

Ce point est exact, en effet. Le format VP8 est une technologie avec une spécification, pas un standard. Pourtant Google a choisi de concéder à chacun le droit de l’utiliser sans payer de redevance. Ce qui signifie que VP8 est en fait un bon candidat pour devenir un véritable standard ouvert pour le Web.

3. « H.264 est libre d’utilisation à certaines conditions »

Rappelez-vous que H.264 coûte toujours de l’argent. Et même si des produits avec une faible base d’utilisateurs peuvent être exemptés dans un premier temps, vous devez toujours ouvrir votre portefeuille à un moment donné si vous voulez réaliser quelque chose sur le Web. Le consortium MPEG-LA a intelligemment « offert » la première dose. Une fois que vous êtes accro, ils peuvent commencer à vous présenter la facture.

C’est un leurre destiné à vous appâter.

4. « Le support de H.264 n’est pas requis dans la spécification HTML5 »

Mais cela deviendrait un autre standard de fait, fermé, comme l’était Internet Explorer 6. Et nous avons tous à l’esprit les dégâts que cela a causés au Web.

5. « Google fournit Chrome avec le greffon Flash préinstallé ; son attitude est hypocrite »

Cela revient à comparer des pommes avec des poires. Flash est un greffon que Google a choisit de fournir en même temps que son navigateur car il y a beaucoup de contenus qui nécessitent Flash sur le Web. H.264, loin de n’être qu’un simple greffon, ferait partie du navigateur lui-même.

Une chose qu’il est important d’avoir à l’esprit c’est que Flash est d’ores et déjà omniprésent. Si vous voulez profiter de la vidéo sur le Web, vous n’avez pas le choix : il vous faut Flash. Pourtant la « bataille » de la vidéo directement dans le navigateur, via HTML5, fait toujours rage sans qu’on puisse encore désigner le vainqueur. Mais à présent que Google laisse tomber le codec fermé H.264 dans son navigateur, la probabilité qu’un codec libre et ouvert finisse par s’imposer augmente.

Que Google continue de fournir le greffon Flash avec son navigateur est parfaitement compréhensible. La plupart des contenus vidéo sur le Web sont en Flash et Google Chrome peut ainsi continuer de les afficher, en attendant qu’un codec ouvert s’impose pour la vidéo directement dans le navigateur. Il n’y a aucune hypocrisie ici, seulement du pragmatisme.

Finalement le reproche fait à Google de livrer le greffon Flash avec son navigateur sert à détourner l’attention de la véritable question : est-ce que la vidéo directement dans le navigateur se fera au moyen d’une technologie ouverte ou fermée ?

Mise à jour : Certains brandiront iOS comme contre-argument mais ça ne résiste pas à l’analyse. Il y a une raison pour laquelle beaucoup d’utilisateurs d’iPhone/iPad sont prêts à payer même pour des solutions de transcodage de piètre qualité sur iOS : ils ne peuvent accéder à la plupart des sites de vidéos. La raison pour laquelle iOS trace sa route avec H.264 c’est basiquement que YouTube (le site d’hébergement de vidéos de Google, qui s’avère être le plus important sur le Web) le supporte. La vaste majorité des sites vidéo requièrent encore Flash. Cela dit, je comprends que certains des fans les plus importants d’Apple soient ennuyés par l’initiative de Google de promouvoir WebM. Perdre le support de YouTube serait un coup terrible pour Apple.

6. « H.264 est partout et le Web n’existe pas en vase clos »

Le fait qu’un format soit répandu en dehors d’Internet ne signifie pas qu’il convient pour le Web. Puisque le Web nécessite des formats ouverts, H.264 n’est pas adapté comme format de référence pour le Web, par définition.

Et l’argument selon lequel H.264 est partout et chacun devra faire avec ne tient pas la route à mon avis. Des sites comme YouTube doivent convertir et compresser les vidéos de toute façon, de sorte que très peu d’entre elles sont publiées telles qu’elles sortent de votre caméra.

Autrement dit : la recompression sera toujours là, et au lieu de réencoder le fichier en H.264 pour réduire sa taille et le jouer en ligne, il peut très bien être réencodé dans un format ouvert.

7. « H.264 peut être utilisé à la fois pour les vidéos en Flash et les vidéos HTML5, assurant une transition douce »

Comme je l’ai déjà expliqué, les vidéos sont habituellement recompressées d’une façon ou d’une autre. En effet, la plupart des sites offrent des vidéos de différents débits et de différentes tailles. Ils convertissent déjà les vidéos ! ils pourraient simplement les convertir dans un format ouvert à la place.

8. « Les utilisateurs de Firefox pourraient voir les vidéos H.264 en utilisant le greffon développé par Microsoft »

Notez bien le mot « greffon ». Cela veut dire que nous abandonnons la vidéo HTML5 pour retourner aux greffons. Tous les bénéfices de la vidéo directement dans le navigateur s’évanouissent (sans compter que le greffon n’existe que pour Windows 7). Par contre je pense qu’il est raisonnablement facile d’ajouter le support de WebM à Safari et Internet Explorer en complétant la liste des codecs supportés par le système d’exploitation[2].

9. « La part de marché des navigateurs qui supportent H.264 dépasse celle des navigateurs qui supportent WebM »

Google, avec son monopole de la publicité en ligne, met les bouchées doubles pour que ça n’arrive pas. Si je ne me trompe pas, la part des navigateurs basés sur les standards ouverts croît au détriment d’Internet Explorer. Bien qu’il soit impossible de mesurer de manière fiable les parts de marché de chaque navigateur, la plupart des données semblent le confirmer.

10 « La décision de Google restreint le choix des utilisateurs »

Nous attaquons maintenant le cœur du problème. Et malheureusement, c’est le format H.264 qui supprime le choix. Pendant que le format WebM maintient le Web comme plateforme ouverte, H.264 est un standard fermé détenu par un cartel d’industriels qui essaie d’éradiquer sans ménagement toute tentative de faire émerger une alternative.

Je suis également estomaqué de voir que Google est accusé de restreindre le choix des utilisateurs alors que Microsoft et Apple ne sont même pas mentionnés. Ils refusent de supporter WebM après tout.

11. « VP8 est contrôlé par Google et est propriétaire »

Je ne suis pas certain que cela fasse partie des griefs mais c’est l’interprétation que j’en ai. Et c’est un grief non fondé. Lisez la licence de WebM pour plus d’information]. WebM est un projet libre sponsorisé par Google et il est gratuitement disponible du fait de sa licence.

Propos finaux :

L’article tente de montrer que la décision de Google conduit à moins d’ouverture. En réalité l’article met sur la table toutes sortes de choses qui sont sans rapport avec cette question. Cela, je crois, pour embrouiller les choses, alors que la question des standards ouverts est une des plus importantes !

Nous pouvons facilement analyser ce qui permet plus d’ouverture dans le contexte du Web :

  • H264 est breveté, c’est donc un standard « fermé ». Il est incompatible avec la politique du W3C sur le brevets pour un Web ouvert. Par conséquent, promouvoir H.264 comme format de référence pour la vidéo HTML5 est le contraire de promouvoir l’ouverture.
  • De l’autre côté, WebM correspond bien plus à la politique des brevets du W3C. Google concède à chacun le droit d’utiliser cette technologie sans payer de redevance. Puisque WebM est ouvert, il promeut un Web ouvert.

Conclusion : En rejetant ce qui ferme le Web tout en promouvant des technologies ouvertes, Google contribue à un Web plus ouvert contrairement à ce qu’affirme l’article.

Notes

[1] Crédit photo : Justin De La Ornellas (Creative Commons By)

[2] Télécharger les codecs libres et gratuits WebM/VP8, Ogg Theora et Ogg Vorbis pour Windows – Télécharger le codec libre et gratuit WebM/VP8 pour MacOS avec les codecs libres et gratuits Ogg Vorbis et Ogg Theora pour MacOS (déposer le fichier dans votre bibliothèque QuickTime située sur votre disque dur à cet endroit : Macintosh HD/Bibliothèque/QuickTime).




À qui la faute si les logiciels libres sous licence GPL sont éjectés de l’App Store ?

Chris Willis - CC byOn peut reprocher beaucoup de choses à Microsoft mais jamais on n’a vu un logiciel libre empêché de tourner sous Windows parce que la licence du premier était incompatible avec le contrat d’utilisation du second (sinon un projet comme Framasoft n’aurait d’ailleurs pas pu voir le jour).

Il semblerait qu’il en soit autrement avec Apple et son App Store, la plateforme de téléchargement d’applications pour les appareils mobiles fonctionnant sous iOS (iPod, iPhone et iPad).

C’est que révèle la récente « affaire VLC », célèbre logiciel libre de lecture vidéo, dont la licence semble tant et si bien poser problème à Apple qu’il a été brutalement et unilatéralement décidé de le retirer de l’App Store.

Et tout le monde se retrouve perdant, à commencer par l’utilisateur qui ne pourra plus jouir de cette excellente application sur son iPad & co[1].

Derrière ce malheureux épisode (qui n’est pas le premier du genre) se cache une question en apparence relativement simple : logiciels libres et App Store peuvent-ils cohabiter ? Un logiciel, dont les libertés d’usage, de copie, de modification et de distribution, sont garanties par sa licence, peut-il se retrouver dans un espace dont le contrat stipule un nombre limité de copies sur un nombre limité de machines ? Et comme la réponse est en l’occurrence négative, le risque est réel de voir les logiciels libres totalement écartés de l’App Store, et par extension des nombreuses autres plateformes privées qui poussent comme des champignons actuellement.

Mais attention, il s’avère que dans le détail c’est plus complexe que cela. Et c’est pourquoi nous avons pris la peine d’ajouter notre grain de sel au débat en traduisant l’article ci-dessous qui résume assez bien à nos yeux la situation. C’est complexe mais ça n’en est pas moins intéressant voire enrichissant car les particularités de la situation éclairent et illustrent de nombreux aspects du logiciel libre.

Il convient tout d’abord de préciser que ce n’est pas le logiciel libre en général mais le logiciel libre sous licence GPL (et son fameux copyleft) qui est pointé du doigt ici. Ensuite il y a l’existence d’un troisième larron en la personne de la société Applidium à qui l’on doit le portage de VLC dans iOS et sa présence dans l’App Store (dans un premier temps accepté puis aujourd’hui refusé). App Store dont les règles d’utilisation définies par Apple sont floues et changeantes. Enfin c’est bien moins la « communauté VLC » dans son ensemble que l’un de ses développeurs qui est impliqué dans cette histoire.

Choisir de placer son logiciel sous licence libre, a fortiori sous licence GPL, n’est pas un acte anodin. La liberté « en assurance-vie » que vous offrez là à vos utilisateurs peut s’opposer parfois frontalement à d’autres logiques et objectifs.

Tout le monde se retrouve perdant, mais le logiciel libre le serait davantage encore s’il devait céder en y perdant son âme.

La GPL, l’App Store et vous

The GPL, the App Store, and you

Richard Gaywood – 9 janvier 2011 – Tuaw.com
(Traduction Framalang : Olivier Rosseler et PaulK)

Mon collègue Chris a rédigé un article sur l’éviction de l’App Store du célèbre logiciel de lecture video VLC, après la plainte d’un développeur du projet sur la base d’une violation de la GNU Public License (l’application a depuis été mise à disposition sur Cydia pour les appareils jailbreakés).

Les réactions de la blogosphère Mac ont été virulentes après cette décision, et Chris s’est admirablement fait l’avocat des plaignants. Mais il ne faut pas oublier qu’une histoire a toujours plusieurs versions (et que la vérité se trouve souvent à mi-chemin entre les deux). Aujourd’hui, je me fais avocat de la défense : pourquoi Rémi Denis-Courmont était parfaitement dans son bon droit. Mais pour mieux étayer mon argumentation, je vais revenir un peu sur l’historique de l’Open Source. Alors accrochez-vous !

Commençons par le commencement : pourquoi VLC a été retiré de l’App Store

L’histoire a déjà été traitée, mais voici quelques faits que vous devez connaître. VLC (hébergé à l’adresse http://videolan.org) est un lecteur audio et vidéo complet, multi-plateforme qui a maintes fois fait ses preuves. VLC est publié sous la version 2 de la licence GNU Public License (GPL). Une entreprise nommée Applidium, sans lien avec le projet, a utilisé le code source de VLC pour en faire une application pour iOS gratuite, afin que les utilisateurs d’iPhone et d’iPad puissent s’en servir pour lire plus de formats de fichiers que leur appareil n’en supporte nativement, comme les fichiers AVI et MKV. En accord avec la GPL, Applidium a libéré le code source de la version modifiée de VLC.

L’accueil reçu par ce projet sur les listes de diffusion des développeurs de VLC fut contrasté. Alors que certains développeurs n’y voyaient pas d’inconvénient, le portage de leur travail (censé être ouvert) sur une plateforme, iOS, connue pour sa fermeture et ses restrictions sur la ré-utilisation du code des applications distribuées sur l’App Store, gênait les autres. En point d’orgue de cette histoire, l’un des développeurs, Rémi Denis-Courmont (auteur d’une bonne partie du code de VLC) demanda à Apple de retirer l’application VLC pour iOS de l’App Store pour violation de la GPL, à laquelle est soumise sa contribution au projet.

Finalement, quelques mois plus tard, il semblerait qu’Apple ait obtempéré sans poser de question puisque l’application a été retirée. Denis-Courmont s’interroge malgré tout sur les délais. Si c’était effectivement la réponse d’Apple à sa demande, l’entreprise aurait pu agir bien plus tôt.

Et donc, qui est dans le vrai ?

Une courte histoire des licences Open Source

Tout d’abord, à quoi sert l’Open Source ? Parfois, des programmeurs initient des projets sur leur temps libre (ou en tant qu’universitaire, ne subissent pas les pressions commerciales, tous les systèmes d’exploitation basés sur Unix trouvent leurs racines dans l’Open Source et dans les universités, ce qui n’est pas une coïncidence), puis ils deviennent trop gros pour s’en sortir seuls. Une aide extérieure est la bienvenue, par exemple pour réparer les bogues ou pour ajouter de nouvelles fonctionnalités, et grâce à Internet les volontaires sont nombreux. Ils mettent donc le code sous une licence Open Source afin d’en publier la source et de recruter des collaborateurs.

Dit ainsi, ça paraît assez utopique, mais le fait est que de nombreux logiciels de qualité sont nés ainsi, grâce à l’Open Source : le compilateur C GCC, le noyau Mach, le serveur web Apache HTTPd, l’interface de commande bash, les langages de programmation Perl et Python et le moteur de rendu Webkit utilisé par Safari. Ces quelques exemples ainsi que des centaines d’autres sont tous Open Source et font tous partie de Mac OS X. Apple utilise donc clairement l’Open Source.

Au-delà des logiciels, nous devons Wikipedia à la famille des licences Creative Commons, créées pour étendre les idées des logiciels Open Source à d’autres activités créatives. On peut même dire que l’Open Source reproduit approximativement les processus scientifiques où les chercheurs publient leurs méthodes et leurs découvertes librement afin que d’autres chercheurs puissent s’appuyer sur leurs travaux. Ce sont là des concepts très importants à mes yeux puisque je suis titulaire d’un doctorat en informatique. Je pense que l’on peut s’accorder sur le fait que les idées derrière les logiciels libres nous sont bénéfiques à tous.

Prenons l’exemple d’Alice, une programmeuse qui a écrit un petit utilitaire. Un autre programmeur, Pierre, apprécie beaucoup son programme, mais il voudrait le modifier pour qu’il réponde mieux à ses besoins. Alice décide alors de dévoiler le code source de son programme pour que Pierre puisse y apporter des changements.

La licence la plus simple qu’Alice puisse appliquer à son code est celle du domaine public. Cela signifie que l’auteur a volontairement abandonné tous ses droits sur le code et que chacun peut en faire ce qu’il veut. Pierre peut faire ses modifications et garder la nouvelle version pour lui-même, ou ouvrir sa boutique et la vendre. Il peut même en parler à son patron, Paul, chez Microsoft, et peut vendre l’outil d’Alice dans la prochaine version de Windows, sans qu’elle ne touche jamais un centime. Si vous vous dites que c’est pas très juste pour Alice, vous n’êtes pas les seuls. Gardez cet exemple à l’esprit.

Alice a également le choix entre des familles de licences similaires : la licence MIT, la licence BSD et la licence Apache. Grâce à elles, Alice conserve son droit d’auteur sur le code, mais elles octroient également à quiconque le télécharge le droit légal de le modifier et d’en distribuer la version modifiée. Différentes variantes de ces licences imposent également à Pierre de mentionner le nom d’Alice quelque part dans le logiciel, à l’instar de la licence Creative Commons Attribution. Mais rien ne l’empêche de le vendre sans rien verser à Alice en échange.

La GPL et les autres licences copyleft

En réponse à ce problème, la Fondation pour le Logiciel Libre (FSF) a créé la GNU Public License. Elle est aussi appelée copyleft pour bien marquer la rupture qu’elle représente par rapport aux autres licences dont il est question ici. Philosophiquement, la GPL a été créée pour assurer aux utilisateurs de logiciels sous GPL les quatres libertés suivantes :

  • La liberté d’exécuter le logiciel, pour n’importe quel usage ;
  • La liberté d’étudier le fonctionnement d’un programme et de l’adapter à ses besoins, ce qui passe par l’accès aux codes sources ;
  • La liberté de redistribuer des copies ;
  • La liberté de faire bénéficier à la communauté des versions modifiées.

Évidement, la licence en elle-même est un charabia juridique assez dense, dont le but est d’assurer une validité légale à cette philosophie, mais ces quatre libertés en sont vraiment le cœur. Vous remarquerez que la deuxième et la quatrième libertés imposent que le code source de tout programme sous GPL soit mis à disposition en plus de l’exécutable, que l’on utilise vraiment. C’est la raison pour laquelle de nombreuses entreprises qui font usage de code sous GPL dans leurs produits hébergent des pages entières de code source, comme le fait Netgear par exemple. Alors, évidemment, leurs concurrents peuvent analyser le fonctionnement exact de leurs produits, pourtant ils estiment que cet inconvénient est largement compensé par les avantages qu’il y a à s’appuyer sur des produits Open Source.

Si on reprend notre histoire d’Alice et Pierre, voyons ce qu’il se passe maintenant. Alice rend son code source public. Pierre rédige son patch et décide sournoisement de vendre cette nouvelle version du programme d’Alice. Mais Alice n’est pas bête et voit bien ce qu’il se trame. Elle pose alors un ultimatum à Pierre : soit il rend public le code source de sa version modifiée , soit ils se retrouveront devant un juge pour rupture du contrat grâce auquel il a obtenu la version d’Alice (c’est à dire, la GPL). Bob s’incline évidemment et publie son code. Aucun cas n’est allé jusqu’au tribunal dans la vraie vie. Pour beaucoup, cela prouve que la GPL est valide et incontournable : personne n’ose la contester.

L’App Store et la GPL peuvent-ils co-exister ?

Le conflit le plus évident entre l’App Store et la GPL réside dans la troisième liberté ? « La liberté de redistribuer des copies ».

Ce sujet a été largement débattu, chaque camp avançant ses arguments. Malheureusement, la résultat est que : premièrement, c’est un terrain plutôt flou et deuxièmement, il ne sera jamais certain qu’une des deux partise a plus raison que l’autre sans décision de justice. Il est peu probable que l’on en arrive à une telle situation car Apple (en tant que distributeur de logiciel pour tout l’App Store) n’ira probablement pas se battre en justice pour un logiciel Open Source. Concrètement, tant que le contraire n’est pas prouvé, l’App Store et la GPL sont incompatibles. C’est sans doute l’avis d’Apple en tout cas, ils n’auraient sûrement pas supprimé VLC (et d’autres logiciels Open Source comme GNU Go) de l’App Store dans le cas contraire.

Les membres de la Fondation pour le Logiciel Libre (FSF), auteurs de la GPL ne pensent pas non plus que l’on puisse concilier la GPL et l’App Store. Leur principal argument réside dans la clause suivante de la GPL v2 :

À chaque fois que vous redistribuez un programme (ou n’importe quelle réalisation basée sur le programme), l’utilisateur final reçoit automatiquement une licence du détenteur originel du programme l’autorisant à copier, distribuer et modifier le programme sujet à ces termes et conditions. Vous ne devez imposer à l’utilisateur final aucune autre restriction à l’exercice des droits garantis par la licence.

Regardons maintenant les Règles d’utilisation des produits App Store :

(i) Vous êtes autorisé à télécharger et synchroniser un Produit à des fins personnelles et non commerciales sur tout produit de la marque Apple tournant sur iOS (« Produit iOS ») que vous possédez ou contrôlez.

(ii) Si vous êtes une société commerciale ou un établissement scolaire, vous êtes autorisé à télécharger et synchroniser un Produit destiné à être utilisé soit (a) par une seule personne sur un ou plusieurs Produits iOS que vous possédez ou que vous contrôlez, soit (b) par plusieurs personnes sur un Produits iOS partagé dont vous êtes propriétaire ou que vous contrôlez. Par exemple, un seul salarié peut utiliser le Produit aussi bien sur son iPhone que sur son iPad, ou encore, plusieurs étudiants peuvent utiliser le Produit en série sur un seul iPad situé dans un centre de ressources ou une bibliothèque.

(iii) Vous pourrez simultanément stocker des Produits App Store à partir d’un nombre maximum de cinq Comptes différents sur des Produits iOS compatibles, tels qu’un iPad, un iPod ou un iPhone.

(iv) Vous pourrez procéder à la synchronisation manuelle de Produits App Store à partir d’un ou plusieurs appareils autorisés par iTunes vers des Produits iOS munis d’un mode de synchronisation manuel, à condition que le Produit App Store soit associé à un Compte existant sur l’appareil principal autorisé par iTunes, étant précisé que l’appareil principal est celui qui a été synchronisé en premier avec le Produit iOS ou celui que vous avez ultérieurement désigné comme tel en utilisant l’application iTunes.

Le conseil Légal de la FSF considère ces termes comme des restrictions à l’utilisation que peut faire l’utilisateur des logiciels obtenus sur l’App Store, c’est donc directement une atteinte à la GPL. Il importe peu que le port de VLC sur iOS soit libre. En fait, il aurait été plus simple d’imaginer qu’il ne l’était pas.

Imaginez, si Applidium avait fait payer 5$ pour leur port de VLC, tout en distribuant le code source complet sur leur site web. Rien dans la GPL n’empêche les développeurs de facturer leurs logiciels dérivés, c’est donc convenable. Mike achète une copie du logiciel pour 5$ et veut donner une copie à son ami Steve (c’est son droit, garanti par la GPL), mais il ne peut pas. Steve peut acheter sa propre copie à 5$, mais ne peut pas l’avoir par Mike ; il doit aller voir Apple.

Dans la réalité, VLC était gratuit, ce n’est donc pas gênant pour Steve de ne pas pouvoir dupliquer la copie de Mike ; mais ce ne sera pas forcément le cas avec d’autres logiciels et dans tous les cas, ça ne change rien, étant donné que les termes de la GPL n’acceptent pas plus que l’on restreigne la liberté de partager le logiciel parce que le logiciel dérivé se trouve être gratuit.

Notez que la FSF considère également le fait de ne pouvoir installer la même application que sur cinq iOS en même temps comme une autre restriction aux droits de l’utilisateurs ; cela semble être une erreur, puisque ce terme du contrat n’apparaît que sur la partie dédiée au contenu iTunes du Contrat de l’Utilisateur et ne s’applique donc pas aux applications de l’iOS. Il est également possible que le Contrat de l’Utilisateur pour iTunes ait été modifié après la publication de l’article de la FSF.

Qu’en est-il des autres programmes sous GPL présents dans l’App Store ?

On croit souvent, à tort, que lorsqu’un code est publié sous GPL, il ne peut plus l’être sous une autre licence. Ce n’est pas vrai. Si tous les ayants-droits, c’est-à-dire toutes les personnes ayant contribué au code, se mettent d’accord, le logiciel peut être placé sous une double licence.

Prenez l’exemple de Java. Java est placé sous GPL et Apple a pourtant utilisé la source de Sun pour la modifier (afin que la machine virtuelle Java sous OS X soit mieux intégrée à cet environnement) sans pour autant distribuer le code source de la version modifiée. Comment ? Simplement parce qu’ils ont utilisé le code source de Sun sous une autre licence, ce que Sun pouvait proposer car (à l’époque) le code de Java leur appartenait. Libre à eux donc de l’offrir au monde entier sous GPL tout en le proposant à Apple sous une autre licence.

Mais pour les grands projets, comme VLC, qui acceptent des correctifs publics de la communauté depuis longtemps, il n’est pas envisageable d’obtenir la permission rétroactive de tous les contributeurs pour appliquer une licence double. D’autres projets, en revanche, sont proposés sous GPL mais n’ont jamais accepté de correctifs extérieurs, ce qui signifie que leur code est toujours sous le contrôle d’une seule et même personne ou entreprise. On peut citer l’exemple de Doom, qui est sur l’App Store. BeTrains en est un autre exemple et les développeurs ont récemment décrit comment ils arrivent à concilier GPL et App Store.

Doit-on modifier la GPL pour la rendre compatible avec l’App Store ?

Cette question ne relève plus du problème légal, mais plutôt de la politique des logiciels. Les défenseurs de la GPL adoptent souvent une attitude méfiante, ce qui est, à mes yeux, souvent perçu comme du fanatisme en dehors de la communauté Open Source. Mais pourtant, les violations de la GPL sont malheureusement courantes. Par exemple, une étude récente de Matthew Garret montre que parmi des centaines de tablettes Android, la quasi-totalité violent la GPL. En d’autres termes, les systèmes de tous ces fabricants s’appuyent à 99% sur du code libre mais contiennent 1% de leurs propres modifications. Ensuite ils les vendent comme s’ils étaient à l’origine de la totalité du système.

Il va sans dire que les développeurs qui ont participé à ces projets sur leur temps libre sont indignés par ces pratiques, c’est pourquoi ils condamnent aussi facilement tout ce qui ressemble de près ou de loin à une violation de la GPL. C’est souvent pris pour du fanatisme ou même de l’hostilité, mais au fond, c’est juste l’expression du dégoût de groupes de bénévoles face aux pratiques d’entreprises qui tentent de se faire de l’argent facile avec leur travail.

Sans oublier cette peur que tout signe d’indulgence fasse basculer les choses du mauvais côté, que cela encourage plus encore les entreprises à violer la GPL, et que la FSF, avec ses maigres ressources, n’ait plus les moyens d’identifier et de menacer les entreprises qui se comportent mal pour qu’elles respectent la communauté sur laquelle elles s’appuient.

Les règles de l’App Store doivent-elles changer pour être compatibles avec la GPL ?

C’est ce qu’aimeraient certains développeurs de VLC, comme Ross Finlayson. Plutôt que de voir VLC banni de l’App Store, ils préfèreraient que ses règles soient modifiées afin de créer une exception pour les applications sous GPL. Rien n’est impossible, mais Apple (pourtant bien enclin à piocher largement dans l’Open Source pour créer Mac OS X) n’est pas vraiment réputé pour son ouverture aux compromis lorsqu’on touche à l’App Store. Il y a très peu de chance qu’un tel changement arrive, surtout pour des applications gratuites qui ne rapportent rien à Apple.

Est-ce que VLC pourrait être publié sous une autre licence ?

Actuellement, il serait presque impossible que VLC puisse paraître sous une autre licence, même réservée uniquement à Applidium, car chaque développeur ayant travaillé sur le projet devrait donner son accord, ce qui n’est pas gagné pour certains, dont Denis-Courmont.

Si VLC n’avait jamais été publié sous GPL, ou plutôt, s’ils n’avaient jamais accepté de contributions extérieures placées sous GPL, alors il n’y aurait pas de problème. Mais sans la forte protection apportée par la GPL, ils n’auraient certainement pas attiré autant de contributeurs. Impossible de dire si le projet aurait abouti ou pas.

Conclusion

Lorsqu’un projet choisit une licence comme la GPL ou tout autre licence copyleft, en opposition à des licences plus ouvertes, comme la MIT ou la BSD, les développeurs veulent s’assurer que toutes les œuvres dérivées seront libres. Cette protection a cependant un prix. En choisissant la GPL, l’équipe de développement originelle de VLC a fait la promesse à tous ses futurs collaborateurs que leur travail resterait libre, pour toujours. Ce que dit ouvertement la FSF et ce que concède implicitement Apple, c’est que l’App Store ne reconnaît cette définition de la liberté. Aucune des deux organisations n’est réputée pour accepter des compromis, donc, jusqu’à ce que l’une d’entre eux cède, les applications construites sur du code sous GPL, comme VLC, n’honoreront pas l’App Store de leur présence. C’est dommage, c’est sûr, mais pour les deux camps c’est une question de principes bien plus importants que quelques applications.

Je finirai en m’adressant aux commentateurs : ce débat englobe bien d’autres aspects, certains que j’ai juste abordés, d’autres que j’ai complètement omis, parfois par souci de clarté ou encore par manque de compétence. Je vous demanderai donc simplement d’être indulgents car c’est un sujet complexe et même un article de cette longueur ne permet pas d’en faire le tour. Mais je vous en prie, débattez-en !

Notes

[1] Crédit photo : Chris Willis (Creative Commons By)




TF1 réclame (sans rien risquer) Google censure (sans vérifier)

Vidberg © LeMonde.fr Sur le Framablog, on ne manque pas une occasion d’agir contre la censure, ou de publier le témoignage d’un citoyen s’élevant contre les menaces et restrictions faites à nos libertés fondamentales [1]. Parce qu’après tout, et comme me le fit un soir remarquer Benjamin Bayart, qu’est-ce qui nous motive tous dans le mouvement du Logiciel Libre ? Et dans la défense de la neutralité du réseau qui lui est indispensable ? Qu’est-ce qui nous réunit, si ce n’est la liberté d’expression ? Cette petite flamme fragile et dangereuse qui vacille au souffle du pouvoir et nécessite, pour être entretenue, notre attention constante.

Le témoignage que nous vous proposons aujourd’hui est celui de Theocrite, un « administrateur système » engagé pour le Logiciel Libre, qui nous explique comment TF1 [2] a silencieusement fait censurer par Google un extrait vidéo de débat à l’Assemblée Nationale.

On savait déjà que certains n’hésitent pas à attaquer, en vertu du Copyright de sa bande son, une vidéo compromettante, au mépris du « fair-use » largement accordé aux vidéos de lolcats. Mais cet extrait, posté par La Quadrature du Net, n’a lui pour seule bande son que le discours à l’Assemblée des députés de la République. Cela n’a pourtant pas arrêté TF1 [3] dans son coup de poker, son nouveau coup de poignard dans le dos de l’éthique et de notre liberté d’information.

Cette vidéo, c’est celle du rejet intégral par l’Assemblée Nationale du projet de loi HADOPI 1 le 9 avril 2009, et, pour illustrer le principe selon lequel une tentative de censure s’avère toujours contre-productive pour le censeur, la voici, archivée dans notre collection Framatube :

—> La vidéo au format webm

TF1 censure des vidéos HADOPI sur YouTube

Et Google ne vérifie pas la véracité des accusations

Theocrite – 1er novembre 2010

En me promenant sur le compte YouTube de la Quadrature du Net, j’ai découvert récemment dans les paramètres du compte que certaines vidéos étaient listées comme pouvant « comporter un contenu appartenant à un tiers ».

Theocrite - CC By Sa

Hm, c’est possible… Intrigué, je clique sur le lien proposé et je m’aperçois que la vidéo en question est la vidéo du rejet de la loi HADOPI l’Assemblée Nationale.

Theocrite - CC By Sa

Bigre ! Voilà que des vidéos contenant des discours « prononcés dans les assemblées politiques » serait en contradiction avec le droit d’auteur. Voilà qui est bien étrange.

Pour en savoir plus, je clique sur « Afficher les informations sur les droits d’auteur ».

Theocrite - CC By Sa

On y apprend des choses très intéressantes… Comme le fait que les vidéos produites dans l’hémicycle seraient la propriété de « lgl_tf1 ». Un peu présomptueux de la part de la vieille chaîne qui descend.

Bon, portons réclamation. Après avoir lu une page chiante à mourir, on accède à un formulaire de réclamation, fortement limité, mais je suis décidé à faire avec.

Theocrite - CC By Sa

Theocrite - CC By Sa

Je fais alors subtilement remarquer que dans la législation française, les débats politiques sont publics… Puis je valide l’envoi du formulaire.

Theocrite - CC By Sa

Le lendemain, je constate que j’ai obtenu gain de cause : la vidéo est débloquée. Mais pour combien de temps ? Google n’a pas pris la peine de nous notifier que la vidéo était à nouveau disponible. On pouvait toujours attendre en relevant notre boîte mail.

Theocrite - CC By Sa

Bilan

Google est réactif, mais pas spécialement poli. Pas de notifications lors du blocage de la vidéo, ni lors du déblocage.

La vidéo a été bloquée pendant un certain temps. Combien de temps ? Aucune idée. Mais TF1 a tenté et a réussi à faire censurer la vidéo, peu importe combien de temps, et ce sans rien risquer. C’est un jeu permanent dans lequel les plaignants ne peuvent pas perdre et les internautes ne peuvent pas gagner.

Ce n’est pas une nouvelle, pour TF1 quand il s’agit d’HADOPI, tous les moyens sont bons pour supporter la loi. Que ce soit en inventant un plébiscite lors d’un vote, en censurant son rejet comme nous venons de le voir ou encore en s’occupant des « salariés qui, manifestement, aiment tirer contre leur camp. »

Mais sur YouTube, TF1 ne s’arrête pas à HADOPI. TF1 sort le bulldozer. Je vous invite à rechercher lgl_tf1 dans un moteur de recherche. Celui de nos amis possesseurs de YouTube par exemple, ou bien sur un moteur de recherche libre, vous y trouverez des réactions unanimes d’Internautes énervés, soit parce que lgl_tf1 a bloqué des vidéos de France 2. Soit parce que TF1 a bloqué des vidéos sur lesquelles elle a acquis les droits de diffusions pour une certaine partie du monde, et se passe de demander aux auteurs s’ils autorisent cette rediffusion.

Notes

[1] Telles que garanties par la déclaration des droits de l’Homme et du citoyen, et rappelées par le « considérant n°12 » de la décision n°2009-580 DC du 10 juin 2009 du Conseil Constitutionnel concernant HADOPI 1 par exemple.

[2] Crédit première illustration : Vidberg © LeMonde.fr, reproduite avec l’aimable autorisation de l’auteur. Licence équivalente à une CC-By-NC-ND avec autorisation préalable requise.

[3] Ou peut-être un imposteur, que le chaîne laisserait agir « en son nom » depuis plus de deux ans.




Le contrôle des redirections

Kudumomo - CC BySi les redirections [1] sont à peu prêt aussi vieilles que le web, elles n’étaient, jusqu’à l’apparition des micro-blogs, que rarement utilisées, mises en place par les connaisseurs, lors du déménagement d’un document important.

Dans ce contexte, quand Kevin Gilbertson proposa en 2002 le premier service en-ligne de rétrécissement d’URL (TinyURL.com), permettant de créer à la demande, une redirection depuis une une adresse courte vers l’adresse de son choix, il n’eut qu’un succès modéré. L’initiative tomba presque dans l’oubli, et ce n’est qu’une demi-décennie plus tard, avec l’essor de Twitter que ce service rencontra d’un coup un large public. En effet, le principe de Twitter étant de proposer un blog dont les billets sont plus courts que des SMS, pouvoir réduire une URL devint un enjeu de taille, si j’ose dire. En effet, d’une part certaines URL sont simplement trop longues pour être gazouillées, et d’autre part, une fois l’adresse collée dans un micro-billet il ne reste plus beaucoup de place pour en expliquer l’intérêt.

TinyURL.com fut donc dans un premier temps directement proposé depuis l’interface du site de microblogage pour aider à la rédaction des messages. Puis devant le succès rencontré par cet intermédiaire, de nombreux concurrents vinrent occuper leurs parts de marché, tel que Bit.ly, qui se démarqua par les statistiques offertes sur l’utilisation des liens courts qu’il produit.

Et progressivement, chaque gros acteur du web se mit à proposer son propre service de rétrécissement, pour faire plaisir à ses utilisateurs avec un service techniquement trivial, ne pas dépendre d’un tiers et enfin pour mettre la main, chacun, sur sa parcelle de statistiques d’usage !

Car utiliser un raccourcisseur d’URL revient en fait à ajouter une barrière de péage d’autoroute entre les personnes auxquelles vous communiquez le lien court, et le document que vous souhaitiez porter à leur attention. Bien sûr, c’est une barrière pour laquelle tout le monde est abonné (pour l’instant), et elle ne fait que ralentir un peu le trafic, mais surtout, elle identifie au passage qui l’a franchi, quand et combien de fois.

Or, si cette information était jusque là collectée par l’émetteur du document de destination seulement, elle n’était pas aussi facilement recoupable et monnayable que si c’est un acteur central qui collecte toutes les visites effectuées suivant les recommandations des millions d’utilisateurs de Twitter, de Facebook ou de Google…

Et puis, d’un point de vue pragmatique, au-delà de la seconde d’attente ajoutée après le clic, ou du respect de la vie privée, un autre problème se pose, celui de la pérennité de ces étapes intermédiaires. Aujourd’hui, TinyURL.com se vante de servir des milliards de redirections par mois, mais ce service, qui n’est pas géré par une entreprise, est voué à disparaître, car son nom (qui avait besoin d’être explicite au début) est trop long pour être efficace aujourd’hui. Or, quand les serveurs de TinyURL seront éteints, c’est plus d’un milliard d’adresses qui, d’un coup, ne mèneront plus à rien.

Alors, quand on voit avec quel empressement les entreprises se sont mises à proposer ce gadget en apparence anodin, on peut avoir envie de ne pas se laisser enfermer nous non plus par une compagnie particulière, de suivre cet exemple en s’installant chacun son raccourcisseur d’URL à soi. Après tout, ça ne sera qu’une corde de plus à mettre à l’arc de la NoBox.

Toutefois, la question de la pérennité des redirections mises en place reste posée… En ce premier novembre, il est presque de bon ton de se demander ce qu’on fera du serveur personnel d’un défunt.

Mais pour l’heure, place au détail de l’enfer des redirections vers lequel on nous mène, et qui transforme progressivement le web en maison qui rend fou des 12 travaux d’Astérix… [2]

Le web se dirige-t-il vers un cauchemar de redirections ?

Is the Web heading toward redirect Hell?

22 septembre 2010 – Royal.Pingdom.com
(Traduction Framalang : Zitor, Barbidule, Daria, Goofy, Siltaar)

Google le fait. Facebook le fait. Yahoo le fait. Microsoft le fait. Et bientôt, Twitter le fera.

Nous parlons de la manie qu’ont tous les services web d’ajouter une étape intermédiaire pour échantillonner ce sur quoi nous cliquons avant de nous envoyer vers notre vraie destination. Ça dure déjà depuis un certain temps, et c’est progressivement en train de devenir un enfer de redirections. Cela a un coût.

Du trafic déjà en trop

Il y a déjà beaucoup de redirections en place, auxquelles vous ne songez pas forcément. Par exemple :

  • Chaque fois que vous cliquez sur un résultat de recherche dans Google ou Bing, il y a un passage obligé par les serveurs du moteur de recherche pour analyse avant d’être redirigé vers le site réellement ciblé;
  • Chaque fois que vous cliquez sur un titre dans un flux RSS Feedburner, vous êtes aussi redirigé avant d’arriver à la véritable cible;
  • Chaque fois que vous cliquez sur un lien sortant de Facebook, il y a une étape intermédiaire passant par un serveur de Facebook avant de vous rediriger vers où vous voulez aller.

Et ainsi de suite, et ainsi de suite, et ainsi de suite. C’est, bien sûr, parce que Google, Facebook et les autres sociétés en ligne aiment suivre les clics et le comportement de leurs utilisateurs. Vous connaître est une vraie ressource pour ces sociétés. Cela peut les aider à améliorer leur service, à le monétiser plus efficacement et dans de nombreux cas, ces données elles-mêmes valent de l’argent. Au final ce suivi de clic peut aussi être bon pour les utilisateurs finaux, en particulier s’il permet à un service d’améliorer sa qualité.

Mais…

Les choses sont en train de déraper

S’il ne s’agissait que d’une seule étape supplémentaire, cela pourrait aller. Mais si vous regardez autour, vous vous rendrez compte que ces redirections sont en train de s’empiler, chaque service interceptant des informations sur le clic lors du cheminement vers la destination finale. Vous savez, celle que l’utilisateur a vraiment demandée.

Cela peut vite devenir incontrôlable. Nous avons vu des scénarios où les liens sortants de Facebook, par exemple, vous redirigent d’abord vers un serveur Facebook, puis vers un racourcisseur d’URL (par exemple bit.ly), qui à son tour vous redirige vers une URL plus longue qui elle-même génère plusieurs redirections avant que FINALEMENT vous parveniez à la cible. Il n’est pas rare qu’il y ait plus de trois redirections vers différents sites qui, du point de vue de l’utilisateur, sont du trafic superflu.

Le problème, c’est que ce trafic supplémentaire n’est pas gratuit. Cela rallonge le temps nécessaire pour atteindre l’objectif, et cela rajoute d’autres liens (au sens propre !) dans la chaîne, ce qui peut la briser ou la ralentir. Cela peut même faire apparaitre des sites comme indisponibles alors qu’ils ne le sont pas, simplement parce que quelque chose sur le chemin est tombé en panne.

Et il semble que cette pratique soit de plus en plus répandue sur le Web.

Un exemple récent de cette « mode de la redirection » : Twitter

Vous souvenez-vous de cette vague de raccourcisseurs d’URL qui est venue quand Twitter a commencé à devenir populaire? C’est là que commence notre histoire.

Twitter a d’abord utilisé le déjà établi TinyURL.com comme raccourcisseur d’URL par défaut. C’était un partenaire idéal pour Twitter et sa limite de 140 caractères par message.

Puis vinrent Bit.ly et une pléthore d’autres raccourcisseurs d’URL, qui voulaient eux aussi surfer sur le succès grandissant de Twitter. Bit.ly a rapidement réussi à remplacer TinyURL comme réducteur d’URL par défaut pour Twitter. Grâce à cela, Bit.ly a mis la main sur une foule de données : la liste d’une bonne partie des liens postés sur Twitter, et de leur popularité, chaque clic pouvant être tracé.

Ce n’était qu’une question de temps avant que Twitter ne veuille garder ces données pour lui seul. Pourquoi s’en priverait-il ? Cela lui permet d’avoir le contrôle total de l’infrastructure nécessaire à son fonctionnement, tout en récupérant des informations sur ce que les utilisateurs aiment s’échanger, et ainsi de suite. Twitter a donc créé récemment son propre raccourcisseur d’URL, t.co. Dans le cas de Twitter, cela peut parfaitement se comprendre.

Cela est bel et bon, mais voici maintenant la partie la plus intéressante qui est la plus pertinente pour cet article : d’ici la fin de l’année, Twitter va rediriger TOUS les liens vers son raccourcisseur d’URL, y compris les liens déjà raccourcis par d’autres services comme Bit.ly ou Goo.gl, le raccourcisseur de Google. En canalisant tous les clics vers ses propres serveurs, Twitter va acquérir une connaissance précise de la façon dont son service est utilisé, et de ses utilisateurs. Cela lui donne le contrôle total sur la qualité de son service. C’est une bonne chose pour Twitter.

Mais qu’arrive-t-il quand tout le monde veut un morceau du gâteau ? Redirection après redirection après redirection avant d’arriver à notre destination ? Oui, c’est exactement ce qui se passe, et vous aurez à vivre avec ce trafic supplémentaire.

Voici ce à quoi le partage de liens pourrait ressembler une fois que Twitter aura commencé à soumettre tous les clics à son propre service :

  1. Quelqu’un partage un lien goo.gl sur Twitter, il est alors transformé en un lien t.co.
  2. En cliquant sur le lien t.co, l’utilisateur est alors redirigé vers les serveurs de Twitter pour convertir le lien t.co en lien goo.gl et se voit réorienté dessus.
  3. Le lien goo.gl dirige l’utilisateur vers les serveurs de Google pour y être résolu et ré-orienter enfin l’utilisateur vers la cible qu’il souhaitais atteindre.
  4. Rien n’empêche cette cible de n’être à son tour qu’une nouvelle redirection…

Vous en avez la tête qui tourne, hein ?

Encore plus de niveaux de redirection ?

Il y a un an, nous avons écrit un article sur les inconvénients potentiels des raccourcisseurs d’URL, et il s’applique parfaitement à ce scénario plus général avec de multiples redirections entre les sites. Les conséquences de ces redirections sur les performances, la sécurité et la confidentialité sont les mêmes.

Nous soupçonnons fortement que le chemin pris par Twitter (échantillonner et enregistrer les clics avant expédition vers la cible, avec ou sans raccourcisseurs d’URL) laisse présager des pratiques à venir chez les autres services Web qui ne le font pas déjà.

Et même quand les services principaux ne le font pas, de plus en plus d’intermédiaires et d’applications tierces, comme les raccourcisseurs d’URL, apparaissent tous les jours. L’autre jour, le fabricant d’antivirus McAfee a annoncé la version-bêta de McAf.ee, un raccourcisseur d’URL « sécurisé ». C’est peut-être super, qui sait, mais à la lumière de ce que nous vous avons dit dans cet article, il est difficile de ne pas penser : quoi, encore une autre niveau de redirection ? Est-ce vraiment vers cela que le Web évolue ? Est-ce vraiment ce que nous voulons ?

Notes

[1] Ce mécanisme du protocole HTTP permettant de faire rebondir la navigation vers une autre page au chargement d’une URL.

[2] Crédit photo : Kudumomo (Creative Commons Parternité)




Quand on ne peut rivaliser, on se déclare ouvert pour masquer son incompétence

Tuftronic10000 - CC bySavez-vous ce qu’est un « FUD » ? C’est l’acronyme de Fear, Uncertainty and Doubt et Wikipédia nous dit que c’est une technique rhétorique consistant « à tenter d’influencer la perception de son audience en disséminant des informations négatives, souvent vagues et inspirant la peur ».

J’ai comme l’impression que le responsable Microsoft de l’Amérique Latine est un orfèvre en la matière, à en juger par les cinglantes déclarations ci-dessous[1].

Elles sont rapportées par un envoyé spécial brésilien dont on apprend en fin d’article qu’il a voyagé sur invitation de Microsoft.

Microsoft critique la position du gouvernement brésilien concernant le logiciel libre

Microsoft critica posição do governo brasileiro sobre o software livre

Bruno Romani – 14 septembre 2010 – Folha.com
(Traduction Framalang : Thibz)

Le president de Microsoft Amérique Latine, Hernán Rincón, a envoyé un message au gouvernement brésilien : l’innovation des logiciels ne se trouve pas dans le secteur public mais dans le secteur privé.

La déclaration a été faite après qu’il fut interrogé sur la position du gouvernement brésilien et son soutien aux logiciels libres en général et à Linux en particulier.

Lors d’une rencontre entre journalistes d’Amérique Latine à Bellevue, dans l’État de Washington, il a affirmé : « Les gouvernements doivent s’interroger : leur rôle est-il de servir les citoyens ou de développer des logiciels ? L’innovation est dans le secteur privé. ».

Selon Rincón, les logiciels libres demandent plus de travail et d’investissement de la part d’un gouvernement pour les maintenir en bon fonctionnement et à jour, ce qui ne serait pas le cas lorsque les entreprises se chargent de le faire à la place des gouvernements.

Mais Rincón pense que les deux modèles, logiciels libres et propriétaires, continueront à coexister.

Concurrence

Rincón a aussi épinglé la concurrence qui parie sur les standards ouverts et gratuits, comme Google. Il a ainsi affirmé : « Quand on ne peut pas rivaliser, on se déclare ouvert pour masquer son incompétence. ».

Et Rincón d’ajouter : « Au moment opportun, les entreprises se déclarent ouvertes. Elles l’utilisent pour leur propre bénéfice. ».

Chiffres

Rincón a aussi présenté des chiffres optimistes sur la région.

Selon lui, lors de ces 7 dernières années, la région a eu de la croissance économique (sauf en 2008). Et le secteur technologique y a fortement contribué puisqu’en Amérique Latine, il a été, en moyenne, 2 à 3% supérieur à la croissance de la région. L’année dernière par exemple, la croissance du PIB regional a été de 5% alors que celle de la technologie de l’information a augmenté de 7% à 8%.

Le Brésil, dit Rincón, a eu un rôle de premier plan dans ce processus.

Et Microsoft Amérique Latine a accompagné cette croissance. Rincón dit que sa division est celle qui croît le plus parmi toutes les divisions régionales. Le chiffre d’affaires actuel serait ainsi 3 fois supérieur à ce qu’il était il y a 7 ans.

Selon lui, 95% des ordinateurs d’Amérique Latine seraient sous Windows, 1,3% sous Apple et entre 2% et 3% sous Linux.

Le journaliste a voyagé sur invitation de Microsoft.

Notes

[1] Crédit photo : Tuftronic10000 (Creative Commons By)