Et si l’on créait ensemble une forge libre pour les métiers de l’édition ?

Forgeron - Nadège DauvergneVoilà, on y est. Après la musique, c’est désormais la sphère du livre qui est pleinement impactée, voire bousculée, pour l’arrivée inopinée et intempestive du numérique.

Le second connaîtra-t-il les mêmes difficultés et résistances que le premier ?

On en prend le chemin… Sauf si l’on décide de s’inspirer fortement de la culture et des outils du logiciel libre.

Le samedi 24 septembre prochain, dans le cadre du BookCamp Paris 4e édition, Chloé Girard animera avec François Elie un atelier intitulé « Fabrication mutualisée d’outils libres pour les métiers de l’édition ».

Il s’agira de réflechir ensemble à comment « soutenir et coordonner l’action des professionnels du livre pour promouvoir, développer, mutualiser et maintenir un patrimoine commun de logiciels libres métiers » en développant notamment un forge dédiée destinée à « l’ensemble des acteurs de l’édition (éditeurs, distributeurs, diffuseurs, privés, publics, académiques…) »

L’expérience et l’expertise du duo sont complémentaires. François Elie, que les lecteurs du Framablog connaissent bien, sera en effet ici Monsieur Forge (en théorie dans son livre Économie du logiciel libre et en pratique depuis de nombreuses années au sein de la forge pour les collectivités territoriales ADULLACT). Chloé Girard, partenaire de Framasoft dans le cadre du projet Framabook, fera quant à elle office de Madame Métiers de l’édition.

C’est un entretien avec cette dernière que nous vous proposons ci-dessous.

C’est évidemment l’occasion de mieux connaître l’ambition et l’objectif de cette forge potentielle, en profitant de la tribune pour lancer un appel à compétences. Mais nous avons également eu envie d’en savoir davatange sur la situation générale et spécifique de l’édition d’aujourd’hui et de demain, sans taire les questions qui fâchent comme celle concernant par exemple Google Books 🙂

Remarque : Même si le site est encore en construction, nous vous signalons que les avancées du projet pourront être suivies sur EditionForge.org.

Edit : Finalement François Elie ne sera pas disponible pour l’atelier. Mais il reste bien entendu partie prenante du projet.

Une forge Métiers de l’édition – Entretien avec Chloé Girard

Chloé Girard bonjour, peux-tu te présenter succinctement à nos lecteurs ?

Chloé GirardJe travaille depuis quatre ans avec David Dauvergne au développement d’un logiciel libre pour les éditeurs, La Poule ou l’Oeuf. C’est une chaîne éditoriale destinée à une édition mixte, papier et électronique.

Nous avons parallèlement créé une entreprise de service en informatique libre pour l’édition et travaillons avec plusieurs éditeurs et prestataires de services aux éditeurs pour de la production, parfois industrielle, de livres numériques. Nous travaillons également à la mise en place d’un processus interne de fabrication électronique lié au traditionnel processus papier.

Je suis également responsable de fabrication papier et électronique pour l’éditeur suisse d’érudition La Librairie Droz, et aborde le problème depuis le point de vue de l’éditeur, aspect financier compris.

Je suis donc au croisement entre l’édition associative, l’intégration et le service en logiciel libre métier et la fabrication de livres, papier et numérique chez un acteur traditionnel de la profession. Ces différentes expériences m’ont naturellement portées à me poser certaines questions qui sont à l’origine de mon intérêt pour cette notion de forge. Questions que nous ne sommes d’ailleurs pas les seuls à nous poser. Les différents BookCamp, salons du livre, commissions du CNL (Centre national du livre), associations professionnelles et éditeurs s’interrogent eux aussi sur les besoins, les outils, les limites, les possibles interactions, les manques, les évolutions, les formes, ou encore les formats dans la fabrication et l’exploitation des livres dans leur(s) version(s) numérique(s).

Comment vois-tu l’évolution actuelle du monde de l’édition, fortement impacté si ce n’est secoué, par les nouvelles technologies ?

Chez les petits éditeurs rien n’a changé. Les processus de fabrication sont toujours les mêmes, les livres sont conçus pour sortir en version papier, les processus de fabrication électronique, quand il y en a, sont externalisés et fortement subventionnés. Car peu d’éditeurs ont les ressources techniques, humaines et financières pour mettre au point de nouveaux mode de production en interne. Et leurs partenaires traditionnels n’en savent souvent pas plus qu’eux, d’autant que la question se pose encore de ce qu’il faut faire, de la pérénité des sources électroniques produites aujourd’hui, de ce qu’il faudra re-produire demain. Le marché s’amorce grace aux subventions à la production électronique. Elles se tariront forcément une fois le marché établi.

Pour autant il faudra bien le suivre ! Or les acteurs en bout de chaîne sont difficilement contrôlables. Par exemple les exigences de validité des fichiers ePUB par Apple sur le eBook Store changent régulièrement et renvoient des messages d’erreur que seuls des développeurs peuvent comprendre, et encore. Bref, beaucoup reste à faire. Une chose a changé au cours des trois dernières années c’est que les éditeurs ont compris qu’ils n’ont plus d’autre que d’y aller.

Je pense qu’il faut donner les moyens à tous les éditeurs de prendre les rênes de ces nouvelles technologies pour maintenir dans l’offre électronique une diversité de contenus et de formes que eux seuls, avec leurs auteurs, peuvent imaginer.

Une « forge Métiers de l’édition », mais quel est donc cet ambitieux nouveau projet ?

Une forge est une forme de département de recherche et développement (R&D) externalisé et, surtout, mutualisé. L’idée est de donner aux professionnels de l’édition les moyens de faire développer et évoluer ensemble les logiciels dont ils ont besoin pour leur métier.

Cela consiste en deux choses : d’une part réunir en un même lieu, atelier et magasin, les outils et compétences informatiques qui peuvent travailler ensemble, si nécessaire. Et, d’autre part, encadrer les éditeurs, imprimeurs, distributeurs, dans la rédaction des cahiers des charges de ces nouveaux outils (bureau d’étude).

Évidemment il est plus que souhaitable que ces outils soient libres, pour des questions d’interopérabilité, d’extensibilité, de transfert de compétences… mais aussi d’économies. Le code étant libre il est payé une fois pour son développement puis disponible pour tous. Disponible pour utilisation mais aussi pour le faire évoluer en fonction de nouveaux besoins, de nouveaux outils, de nouveaux support…

Tu évoques aussi « une place de marché entre clients métier, entrepreneurs et communauté du logiciel libre ». Peux-tu nous en dire plus et nous donner quelques exemples réels ou fictifs de situations où la forge est potentiellement un avantage ?

Les forges logicielles, horizontales, réunissent les acteurs du développement d’une application. Ici nous avons une forge cliente mise en place par les utilisateurs (professionnels de l’édition) qui y rencontrent les développeurs (représentés par les forges logicielles) aussi bien que les sociétés leur permettant de créer et de mettre en production ces outils. Les professionnels de l’édition peuvent donc lancer des appels d’offre auprès de prestataires qui peuvent y répondre ensemble ou séparément. Nous avons donc une réelle place de marché métier avec des clients et des vendeurs.

L’intérêt, par rapport à un système d’achat/vente classique de service informatique, c’est la mutualisation des expertises, du code et des services. Les éditeurs aujourd’hui rencontrent de nouveaux besoins, très techniques. Juger de la façon d’y répondre demande une expertise rare et coûte cher (voire très cher). Très peu d’éditeurs savent et peuvent assumer cela seuls et risquent d’y perdre beaucoup.

Imaginons qu’un éditeur convertisse aujourd’hui son catalogue d’ouvrages dans un format donné de livres électroniques. Que fera-t-il, ou plutôt comment fera-t-il si les supports de lecture de livre de demain, ebooks, tablettes ou PC, lisent un autre format que celui-là ou une version plus récente ? Nous sommes ici dans une situation parfaitement concrète et déjà réelle.

Sachant que la conversion d’un ouvrage papier en ePUB aujourd’hui coûte au minimum 1€ la page, qu’environ 60 000 ouvrages sont publiés par an en France et que le patrimoine à convertir regroupe des centaines de milliers d’ouvrages on peut imaginer les conséquences s’il faut re-produire ces fichiers.

Aujourd’hui cette conversion est largement subventionnée. Mais lorsque le marché du livre électronique sera suffisamment amorcé, ces subventions baisseront ou disparaîtront. Il faudra alors que les éditeurs assument seuls l’évolution de leur catalogue électronique. Et qu’ils en assurent l’évolution régulière. Une forge leur permettrait par exemple, si le format de départ est ouvert, de faire développer collectivement un outil de mise à jour automatisée du catalogue. Et de faire évoluer cet outil, avec une réactivité bien plus importante que s’il fallait attendre d’un éditeur de logiciel propriétaire qu’il décide lui-même de la sortie de la mise à jour nécessaire.

Les éditeurs y gagnent en matière d’autonomie, de réactivité sur leur marché et de capacité d’innovation. D’autant que les acteurs logiciels de la forge peuvent y déposer des « appels de demandes » c’est-à-dire des propositions d’innovation ou de développements auxquels les clients n’auraient pas forcément pensé. On a donc un lieu de propositions techniques en même temps que de marché, dans un cadre d’expertise partagée.

L’exemple simple d’évolutivité des formats est un problème que les éditeurs connaissent déjà bien ou qui les retient de se lancer dans l’édition numérique. Mais ils sont confrontés à bien d’autres problèmes : la réunion des processus papier et électronique (PDF imprimeur/ePUB, XML InDesign/XML divers…), l’exploitation des contenus en réseau (schémas de métadonnées, protocoles de communication entre catalogues et serveurs, schémas XML de description de contenus), le chiffrement des fichiers électroniques garantissant l’intégrité d’un document, l’enrichissement d’un ouvrage avec des contenus dynamiques ou multimédia, le lien livres et réseaux sociaux, l’offre de sorties s’adaptant à des écrans divers (graphisme), à des lecteurs divers (niveau de lecture, multilinguisme), sans perdre la notion de référence intellectuelle commune, les livres-applications, la gestion documentaire, les liens éditeurs/distributeurs/diffuseurs, la gestion des droits d’auteur, le lien entre l’exploitation du catalogue et les outils internes de gestion, de facturation, etc. Et encore, ces exemples ne sont qu’un petit apperçu des besoins et questions. Sachant que les réponses vont devoir évoluer au même rythme que les supports de lecture et les systèmes d’exploitation. Et que les problématiques ne sont pas les mêmes selon que l’on édite des romans, des thèses, des livres d’art, des manuels scolaires de la documentation technique ou des revues scientifiques.

Évidemment, chaque éditeur peut faire développer ses propres outils ou payer des licences pour chaque logiciel nécessaire. Mais gérer l’interopérabilité entre ces applications et un système un peu intégré deviendra impossible ou extrêmement onéreux. J’en suis témoin au quotidien. Les professionnels de l’édition ne pourront suivre l’évolution de leur métier, et la maîtriser, que collectivement.

Sauf s’ils décident de tout confier à Google Books !

Il faut considérer Google comme un prestataire comme les autres. Sauf que, étant donné la puissance du prestataire il vaut mieux être théoriquement et technologiquement averti et exigeant ! D’où la nécessité d’avoir ses propres outils pour ne pas être trop vulnérable.

En ce qui concerne leurs livres épuisés Google offre aux éditeurs une solution de facilité pour remettre sur le marché des livres qui n’y sont plus et n’y seront plus sans cela, étant donné le coût que cela représente. Pourquoi pas. La difficulté est alors de rester maître du cahier des charges et il vaut sans doute mieux posséder ses propres sources à négocier auprès de Google Books que de laisser Google convertir puis discuter des conditions.

Dans le passé beaucoup d’éditeurs ont confié la mise en page et l’impression de leurs ouvrages à des prestataires extérieurs, plus petits, plus locaux que Google, sans jamais réclamer en retour ni leurs fichiers natifs ni même les PDF imprimeurs ! Ils sont ainsi aujourd’hui dans certains cas obligés de racheter leurs propres fichiers à ces prestataires ou repartent du papier pour reconstituer leurs sources ! À eux de voir si ils veulent renouveler l’expérience.

Avoir des outils disponibles pour produire leurs sources efficacement et les faire évoluer, leur permettrait de négocier différemment avec Google aujourd’hui mais aussi demain. Parce que demain Google va offrir de nouveaux services sur ces sources. S’il est encore le seul à pouvoir, techniquement, les offrir, il sera à nouveau en position de force. Or ces épuisés constitueront sans doute une part non négligeable des ventes. Il vaut donc mieux se préparer à récupérer ces sources et à les exploiter intelligemment soi-même. Face aux équipes de développement de Google un éditeur seul, ou n’importe lequel de ses prestataires en édition numérique, à intérêt à avoir de sacrés moyens pour offrir des solutions concurrentes.

Pour les publications récentes et nouvelles la question se pose différemment. La question n’est pas seulement de mettre en ligne, de mettre à disposition pour achat, mais bien aussi de créer des versions numériques qui apportent quelque chose de plus par rapport au papier : pour le lecteur, pour l’exploitation des savoirs, pour la conservation du patrimoine. C’est un acte éditorial, ce n’est donc pas Google qui peut s’en charger.

Après, si Google offre des solutions libres assurant l’interopérabilité avec les outils internes de fabrication et de gestion des éditeurs, distributeurs, imprimeurs, etc. Si Google produit des sources ouvertes que les éditeurs peuvent récupérer, retirer, si l’on peut interfacer des outils libres de gestion de droits avec Google Books, si… alors bienvenue à Google au sein de la forge « métiers de l’édition » ! À voir…

Face à Google comme face à n’importe quel prestataire et plateforme d’exploitation il faut que les éditeurs travaillent ensemble, et avec leurs distributeurs, diffuseurs, etc, à des solutions qui leurs permettent de maîtriser leurs oeuvres et leur métier.

Après Google, en quoi cette forge se distingue-t-elle des API censés « ouvrir le contenu aux développeurs » telles que proposées par Amazon ou tout récemment par Pearson ?

L’initiative de Pearson est géniale ! « L’idée est de regarder si la créativité des développeurs permet d’amener l’exploitation de ces contenus dans des directions que les éditeurs n’avaient pas explorées jusqu’alors ». Mais ce qui est intéressant dans l’article de Guillaud c’est aussi sa dernière phrase : « Assurément, Pearson lance un mouvement que les plus gros ne devraient pas tarder de prolonger… »

Que vont faire les petits et moyens éditeurs pendant ce temps-là ? Et les diffuseurs, les libraires ? Je crois que la forge, la mutualisation, un patrimoine d’outils communs, leur permettront justement d’accéder à ce type de moyens d’exploitation, de plateformes éditoriales ouvertes aux codeurs, aux innovations. Demandez aux éditeurs, au hasard, si ils savent ce qu’est une API ! Il faut une sacrée expertise pour mettre en oeuvre ce type d’accès et les faire évoluer, sur les plans technique mais aussi juridique d’ailleurs. Même les gros éditeurs ont besoin, pour la plupart, de mutualiser, au moins en partie, les frais de R&D pour développer et innover dans de tels services. Or c’est ce que tous cherchent à faire. Mais je ne suis pas sûre que Pearson va leur donner ses trucs demain !

Est-ce une application directe et concrète des propositions de François Elie dans son livre Économie du logiciel libre ?

Oui, absolument. Et François Élie nous accompagne dans la réflexion et la présentation du projet, fort de son expérience de l’Adullact (Association des Développeurs et des Utilisateurs de Logiciels Libres pour l’Administration et les Collectivités Territoriales) et de son verbe coloré. La killer application openCimetiere fait toujours son petit effet !

« On ne peut utiliser que des logiciels qui existent » et « un logiciel libre est gratuit une fois qu’il a été payé ». Ces deux phrases extraites de son livre résument bien l’intérêt que peuvent trouver clients et développeurs libres au sein d’une telle forge : 1) coté client : maîtriser ses outils métier, gagner en réactivité, faire, éventuellement, des économies 2) coté développeurs : financer en amont le développement libre, intégrer une place de marché active réunissant des compétences multiples pour ne pas réinventer la roue.

Quels sont les principaux freins que vous risquez de rencontrer et qu’il faudra dépasser d’après toi ? Le poids des habitudes ? L’absence d’une réelle culture de la mutualisation ? La concurrence non libre ?

La forge Adullact, comme son nom l’indique, s’adresse à des clients et des fonds publics. L’idée de dépenser des fonds publics une seule fois pour tous est (semble !) naturelle. Dans le cas d’une forge métiers de l’édition nous nous adressons en grande partie à des acteurs privés. Et le premier frein que nous avons rencontré est bien celui de la mutalisation des fonds : « pourquoi est-ce que je paierais pour des logiciels dont tous bénéficieront, y compris ceux qui n’auraient pas participé ? » Le problème n’est pas seulement celui du partage mais de la perte d’un avantage concurenciel.

En ce qui concerne le partage ce n’est pas très difficile à argumenter : ceux qui en profiteront ne tarderont pas à participer, à hauteur de leurs moyens et de leurs besoins. D’autre part plus un logiciel sera utilisé plus il sera pérenne.

Pour la question de la concurrence c’est plus délicat puisque le service autour des livres électroniques devient un enjeu économique. Il ne s’agit plus seulement de vendre des exemplaires mais aussi des services sur les contenus. Or les outils de fabrication ont un impact sur les possibilités de services commerciaux en aval. Imaginons par exemple un outil offrant de fabriquer des livres avec plusieurs niveaux de contenus auxquels les lecteurs auraient accès ou non selon qu’ils sont acheteur unique, abonnés ou abonnés premium.

Mais les éditeurs sont libres de faire développer certains outils, qui leurs semblent moins concurrenciels dans cette logique de mutualisation, et de faire développer chacun pour soi des extensions ou des modules d’exploitation qui leurs seraient propres. Une forge n’implique pas d’y faire produire tous ses projets. Quitte à se rendre compte finalement qu’il est plus intéressant de les y verser pour les faire maintenir et évoluer collectivement.

Cette logique de mutualisation dans une économie privée et auprès d’acteurs dont les finances sont souvent fragiles n’est pas gagné. Pourtant nous travaillons avec plusieurs éditeurs qui en rêvent. Ils n’ont ni les compétences ni les moyens de faire développer seuls les outils qu’il leur faut et que personne ne leur propose aujourd’hui.

Un autre obstacle est l’absence de culture du logiciel libre dans l’édition : elle était celle que l’on peut imaginer dans un milieu très peu technophile et surtout préoccupé de ne pas avoir à mettre les mains dans le cambouis, l’image du logiciel libre étant celle de la ligne de code dans un terminal. D’autant que les besoins étaient en (très) gros jusqu’ici celui d’un seul outil, de mise en page, propriétaire, cher, produisant un PDF, unique besoin des imprimeurs.

Depuis quelques années la notion de format ouvert fait cependant son chemin, notamment avec le format ePUB et le XML. Mais on est encore dans la logique du bon format, plutôt que dans celle du format ouvert.

J’ai quand même entendu il y a un an et demi un responsable de l’édition électronique chez un éditeur important affirmer qu’il n’utiliserait plus en fabrication que des logiciels libres. Pour des questions de pérénité et de maîtrise de son catalogue.

Mais pour répondre à cela il faut des acteurs et des outils libres qui répondent aux besoins de marchés importants, de volumes importants et d’éditeurs pressés. Il faut des partenaires libres solides, aisément identifiables, dans un écosystème libre métier qui permet de répondre rapidement aux évolutions des besoins.

C’est ce à quoi nous appelons aujourd’hui. Nous devons présenter dès l’origine de cette forge les acteurs du logiciel libre, éditeurs de logiciels, communautés, intégrateurs, pertinents, compétents et innovants pour répondre aux besoins de ces métiers. Nous connaissons un certains nombre de ces ressources et acteurs, mais pas tous. D’autant que certaines des compétences dont ont besoin les éditeurs aujourd’hui étaient jusque-là exploitées dans d’autres domaines métiers, telles que la gestion documentaire.

Nous avons besoin de constituer un catalogue de ressources libres à présenter aux éditeurs pour amorcer cette forge.

Ensuite se posera la question de sa gouvernance puisque, comme pour l’Adullact, la forge est un outil monté par les clients pour les clients, donc par les éditeurs pour les éditeurs. Je pense qu’une association professionnelle métier devrait prendre en charge ce projet comme une forme de nouveau service offert à ces membres.

Deux réunions sont prévues pour envisager concrêtement les actions à mettre en oeuvre pour que cette forge soit effective : le 24 septembre au BookCamp Paris 4 qui se tiendra au Labo de l’Édition (atelier 13) et début octobre dans une réunion organisée par le MOTif, organisme de politique du livre de la Région Île de France.




WebM contre H.264 : La FSF soutient le choix de Google

Dawn - CC byCe n’est pas forcément tous les jours que la Free Software Foundation (FSF) de Richard Stallman applaudit et soutient ouvertement Google dans ses choix de format vidéo pour le Web. Et d’appeler les internautes à en faire de même.

Google est même qualifié d’audacieux, puisque l’adoption d’un format ouvert – WebM – s’accompagne de la suppression d’un format fermé – H.264.

Pour en savoir sur le sujet, nous ne saurions trop vous conseiller notre article : Bataille de la vidéo sur le Web : Quand Google restreint pour mieux ouvrir ?[1].

Pas de double standard : soutenir l’appui de Google à WebM

No double standards: supporting Google’s push for WebM

Brett Smith – 19 Janvier 2011 – FSF.org (Traduction Framalang : Cheval boiteux, Jérémie et Antistress)

Nous avons décidé de soutenir le projet WebM et nous encourageons les autres fondations et organisations à nous rejoindre pour connaître la marche à suivre. Aujourd’hui, nous exhortons également les gestionnaires de sites web à distribuer les vidéos dans le format WebM et à abandonner le H.264.

La semaine dernière, Google a annoncé qu’il planifiait la suppression du support du codec vidéo H.264 des ses navigateurs au profit du codec WebM qui a récemment été libéré. Depuis, il y a eu beaucoup de discussions concernant les incidences possibles sur l’avenir du Web, au moment où la spécification HTML5 — dont la balise video — mûrit.

Nous applaudissons Google pour ce changement : c’est une avancée positive pour le logiciel libre, ses utilisateurs, et pour chaque personne qui utilise le Web. Cela fait un moment déjà que regarder une vidéo sur le Web peut s’avérer périlleux. La plupart d’entre elles sont publiées à l’aide de Flash qui est un logiciel non-standard et propriétaire. Les alternatives libres comme GNU Gnash sont disponibles, mais l’expérience utilisateur n’est pas toujours à la hauteur.

Quand le travail a commencé sur la nouvelle version du standard HTML, HTML5, le travail sur la diffusion et la lecture des vidéos était une priorité. Mais, bien que tout le monde était d’accord sur ce à quoi la balise <video> devait ressembler, il n’y avait pas de consensus sur le format d’encodage des vidéos. Microsoft et Apple soutenaient H.264, Mozilla et Opera soutenaient WebM et Ogg Theora. Jusque là, Google supportait tous ces codecs, mais aujourd’hui il a fait preuve d’audace en décidant de supporter les standards libres et ouverts et de laisser tomber H.264.

Ceci est une bonne nouvelle, car si H.264 devenait le standard de fait pour la vidéo sur le Web, cela ne serait pas mieux que la situation actuelle. H.264 est un codec lourdement breveté ; le consortium MPEG LA oblige les développeurs qui l’implémentent à accepter une licence de brevet. Cette licence est fondamentalement incompatible avec les logiciels libres. Elle exige des développeurs qu’ils restreignent l’utilisation qui sera faite de leur logiciel, et permet la collecte d’une redevance dans la plupart des situations.

Afin de s’assurer que le Web reste libre et ouvert pour tous, nous avons besoin qu’un codec libre s’impose comme standard de fait pour HTML5. WebM peut être ce codec : Google fournit avec le standard une licence de brevet qui est compatible avec les licences des logiciels libres et propose même une implémentation libre. Ils promeuvent également avec force ce codec, et leur décision de laisser tomber H.264 est une étape de plus dans cette direction.

Des réactions au geste de Google ont suggéré que cela représentait un pas en arrière pour les standards sur le Web, car H.264 est supporté par un plus grand nombre de matériels et de logiciels. Ces commentaires révèlent une incompréhension fondamentale de la vision d’un Web libre et ouvert. Nous ne pouvons être libres que si nous rejetons les formats de données qui sont assujettis à brevets.

Mais la question n’est pas encore règlée. C’est le moment pour tout le monde d’agir et de faire en sorte que WebM soit effectivement adopté par le plus grand nombre À cette fin, nous avons décidé de soutenir le projet WebM et nous encourageons les autres fondations et organisations à nous rejoindre — écrivez à webmaster AT webmproject.org pour connaître la marche à suivre. Aujourd’hui, nous exhortons également les gestionnaires de sites web à distribuer les vidéos dans le format WebM et à abandonner le H.264.

Bientôt, nous allons transformer notre campagne PlayOgg en PlayFreedom et nous allons mettre l’accent sur les moyens permettant à chacun d’encourager l’adoption de WebM. Vous pouvez vous inscrire dès maintenant pour en savoir plus sur la manière d’aider. Ensemble, nous pouvons veiller à ce que le Web remplisse sa promesse d’être libre pour tout le monde.

Notes

[1] Crédit photo : Dawn (Creative Commons By)




Bataille de la vidéo sur le Web : Quand Google restreint pour mieux ouvrir ?

Justin De La Ornellas - CC byLa semaine dernière Google annonçait que Chrome, le navigateur de la firme, ne supporterait plus dorénavant le format vidéo fermé et payant H.264 pour la vidéo sur le Web, préférant promouvoir exclusivement les formats vidéo libres et gratuits tels que WebM (VP8) et Ogg Theora.

Cette décision a été diversement accueillie, certains félicitant Google de continuer à peser de tout son poids pour faire émerger un standard libre et gratuit pour la vidéo sur le Web (on se souvient que Google a racheté l’année dernière la société On2 à l’origine du codec vidéo VP8 – que l’on retrouve dans le format WebM – pour permettre à chacun de l’implémenter et de l’utiliser gratuitement). Tandis que d’autres ont reproché à Google son incohérence en continuant de supporter dans le même temps le greffon propriétaire Flash.

En effet, jusqu’à présent la vidéo sur le Web nécessitait un greffon (typiquement Flash, de la société Adobe, omniprésent) qui agissait comme une boite noire en s’intercalant entre le navigateur et l’utilisateur. La récente mise à jour de la spécification HTML (qui sert à créer et afficher les pages Web) offre depuis la possibilité d’afficher les vidéos directement dans n’importe quel navigateur à jour, sans avoir à dépendre d’un unique logiciel appartenant à une unique société privée avec tous les dangers que cela représente[1].

Mais il reste pour cela à se mettre d’accord sur le choix du format dans lequel encoder la vidéo. Apple (Safari) refuse d’implémenter autre chose que le format payant H.264 qu’il souhaiterait voir s’imposer, ce qui placerait la vidéo sur le Web entre les mains d’un consortium de sociétés privées chargé de récolter les redevances et créerait un péage incontournable pour toute société qui souhaiterait innover sur le Web (avec ce système, Firefox et bien d’autres n’auraient jamais pu voir le jour). Pour leur part, Mozilla (Firefox), Opera et Google (Chrome) soutiennent WebM et Ogg Theora en tant que technologies libres et gratuites pouvant être mises en œuvre par n’importe qui sans restriction. Pendant ce temps Microsoft compte les points, n’excluant aucune des solutions

Tristan Nitot, Président de Mozilla Europe, l’explique bien : « Si le Web est si participatif, c’est parce qu’il n’y a pas de royalties pour participer et créer un contenu. (Faire le choix du H.264) serait hypothéquer l’avenir du Web. On créerait un îlot technologique, un club de riches : on pourrait produire du texte ou des images gratuitement, mais par contre, pour la vidéo, il faudrait payer. »

Nous avons choisi de reproduire ici la réponse de Haavard, employé chez Opera Software, à ceux qui dénoncent la récente décision de Google.

Le retrait de Chrome du codec H.264 conduit-il à moins d’ouverture ?

Is the removal of H.264 from Chrome a step backward for openness?

par Haavard, employé chez Opera Software, le 13 janvier 2011
(Traduction Framalang : Antistress et Goofy)

Dans un long article publié sur le site Ars Technica, Peter Bright soutient que retirer de Chrome le support d’un standard fermé conduit à moins d’ouverture.

Je suis fermement en désaccord avec cette assertion et je vais essayer d’expliquer rapidement pourquoi et ce qui cloche avec les arguments mis en avant dans l’article.

1. « H.264 est un standard ouvert »

Malheureusement H.264 est un format breveté et vous ne pouvez l’utiliser sans bourse délier. Conformément à la politique du W3C sur les brevets, cela est incompatible avec la définition d’un standard ouvert, spécialement dans le contexte du Web. D’après la définition même de « ouvert », H.264 ne peut être ouvert car il ne peut être utilisé sans payer.

2. « VP8 n’est pas un standard ouvert »

Ce point est exact, en effet. Le format VP8 est une technologie avec une spécification, pas un standard. Pourtant Google a choisi de concéder à chacun le droit de l’utiliser sans payer de redevance. Ce qui signifie que VP8 est en fait un bon candidat pour devenir un véritable standard ouvert pour le Web.

3. « H.264 est libre d’utilisation à certaines conditions »

Rappelez-vous que H.264 coûte toujours de l’argent. Et même si des produits avec une faible base d’utilisateurs peuvent être exemptés dans un premier temps, vous devez toujours ouvrir votre portefeuille à un moment donné si vous voulez réaliser quelque chose sur le Web. Le consortium MPEG-LA a intelligemment « offert » la première dose. Une fois que vous êtes accro, ils peuvent commencer à vous présenter la facture.

C’est un leurre destiné à vous appâter.

4. « Le support de H.264 n’est pas requis dans la spécification HTML5 »

Mais cela deviendrait un autre standard de fait, fermé, comme l’était Internet Explorer 6. Et nous avons tous à l’esprit les dégâts que cela a causés au Web.

5. « Google fournit Chrome avec le greffon Flash préinstallé ; son attitude est hypocrite »

Cela revient à comparer des pommes avec des poires. Flash est un greffon que Google a choisit de fournir en même temps que son navigateur car il y a beaucoup de contenus qui nécessitent Flash sur le Web. H.264, loin de n’être qu’un simple greffon, ferait partie du navigateur lui-même.

Une chose qu’il est important d’avoir à l’esprit c’est que Flash est d’ores et déjà omniprésent. Si vous voulez profiter de la vidéo sur le Web, vous n’avez pas le choix : il vous faut Flash. Pourtant la « bataille » de la vidéo directement dans le navigateur, via HTML5, fait toujours rage sans qu’on puisse encore désigner le vainqueur. Mais à présent que Google laisse tomber le codec fermé H.264 dans son navigateur, la probabilité qu’un codec libre et ouvert finisse par s’imposer augmente.

Que Google continue de fournir le greffon Flash avec son navigateur est parfaitement compréhensible. La plupart des contenus vidéo sur le Web sont en Flash et Google Chrome peut ainsi continuer de les afficher, en attendant qu’un codec ouvert s’impose pour la vidéo directement dans le navigateur. Il n’y a aucune hypocrisie ici, seulement du pragmatisme.

Finalement le reproche fait à Google de livrer le greffon Flash avec son navigateur sert à détourner l’attention de la véritable question : est-ce que la vidéo directement dans le navigateur se fera au moyen d’une technologie ouverte ou fermée ?

Mise à jour : Certains brandiront iOS comme contre-argument mais ça ne résiste pas à l’analyse. Il y a une raison pour laquelle beaucoup d’utilisateurs d’iPhone/iPad sont prêts à payer même pour des solutions de transcodage de piètre qualité sur iOS : ils ne peuvent accéder à la plupart des sites de vidéos. La raison pour laquelle iOS trace sa route avec H.264 c’est basiquement que YouTube (le site d’hébergement de vidéos de Google, qui s’avère être le plus important sur le Web) le supporte. La vaste majorité des sites vidéo requièrent encore Flash. Cela dit, je comprends que certains des fans les plus importants d’Apple soient ennuyés par l’initiative de Google de promouvoir WebM. Perdre le support de YouTube serait un coup terrible pour Apple.

6. « H.264 est partout et le Web n’existe pas en vase clos »

Le fait qu’un format soit répandu en dehors d’Internet ne signifie pas qu’il convient pour le Web. Puisque le Web nécessite des formats ouverts, H.264 n’est pas adapté comme format de référence pour le Web, par définition.

Et l’argument selon lequel H.264 est partout et chacun devra faire avec ne tient pas la route à mon avis. Des sites comme YouTube doivent convertir et compresser les vidéos de toute façon, de sorte que très peu d’entre elles sont publiées telles qu’elles sortent de votre caméra.

Autrement dit : la recompression sera toujours là, et au lieu de réencoder le fichier en H.264 pour réduire sa taille et le jouer en ligne, il peut très bien être réencodé dans un format ouvert.

7. « H.264 peut être utilisé à la fois pour les vidéos en Flash et les vidéos HTML5, assurant une transition douce »

Comme je l’ai déjà expliqué, les vidéos sont habituellement recompressées d’une façon ou d’une autre. En effet, la plupart des sites offrent des vidéos de différents débits et de différentes tailles. Ils convertissent déjà les vidéos ! ils pourraient simplement les convertir dans un format ouvert à la place.

8. « Les utilisateurs de Firefox pourraient voir les vidéos H.264 en utilisant le greffon développé par Microsoft »

Notez bien le mot « greffon ». Cela veut dire que nous abandonnons la vidéo HTML5 pour retourner aux greffons. Tous les bénéfices de la vidéo directement dans le navigateur s’évanouissent (sans compter que le greffon n’existe que pour Windows 7). Par contre je pense qu’il est raisonnablement facile d’ajouter le support de WebM à Safari et Internet Explorer en complétant la liste des codecs supportés par le système d’exploitation[2].

9. « La part de marché des navigateurs qui supportent H.264 dépasse celle des navigateurs qui supportent WebM »

Google, avec son monopole de la publicité en ligne, met les bouchées doubles pour que ça n’arrive pas. Si je ne me trompe pas, la part des navigateurs basés sur les standards ouverts croît au détriment d’Internet Explorer. Bien qu’il soit impossible de mesurer de manière fiable les parts de marché de chaque navigateur, la plupart des données semblent le confirmer.

10 « La décision de Google restreint le choix des utilisateurs »

Nous attaquons maintenant le cœur du problème. Et malheureusement, c’est le format H.264 qui supprime le choix. Pendant que le format WebM maintient le Web comme plateforme ouverte, H.264 est un standard fermé détenu par un cartel d’industriels qui essaie d’éradiquer sans ménagement toute tentative de faire émerger une alternative.

Je suis également estomaqué de voir que Google est accusé de restreindre le choix des utilisateurs alors que Microsoft et Apple ne sont même pas mentionnés. Ils refusent de supporter WebM après tout.

11. « VP8 est contrôlé par Google et est propriétaire »

Je ne suis pas certain que cela fasse partie des griefs mais c’est l’interprétation que j’en ai. Et c’est un grief non fondé. Lisez la licence de WebM pour plus d’information]. WebM est un projet libre sponsorisé par Google et il est gratuitement disponible du fait de sa licence.

Propos finaux :

L’article tente de montrer que la décision de Google conduit à moins d’ouverture. En réalité l’article met sur la table toutes sortes de choses qui sont sans rapport avec cette question. Cela, je crois, pour embrouiller les choses, alors que la question des standards ouverts est une des plus importantes !

Nous pouvons facilement analyser ce qui permet plus d’ouverture dans le contexte du Web :

  • H264 est breveté, c’est donc un standard « fermé ». Il est incompatible avec la politique du W3C sur le brevets pour un Web ouvert. Par conséquent, promouvoir H.264 comme format de référence pour la vidéo HTML5 est le contraire de promouvoir l’ouverture.
  • De l’autre côté, WebM correspond bien plus à la politique des brevets du W3C. Google concède à chacun le droit d’utiliser cette technologie sans payer de redevance. Puisque WebM est ouvert, il promeut un Web ouvert.

Conclusion : En rejetant ce qui ferme le Web tout en promouvant des technologies ouvertes, Google contribue à un Web plus ouvert contrairement à ce qu’affirme l’article.

Notes

[1] Crédit photo : Justin De La Ornellas (Creative Commons By)

[2] Télécharger les codecs libres et gratuits WebM/VP8, Ogg Theora et Ogg Vorbis pour Windows – Télécharger le codec libre et gratuit WebM/VP8 pour MacOS avec les codecs libres et gratuits Ogg Vorbis et Ogg Theora pour MacOS (déposer le fichier dans votre bibliothèque QuickTime située sur votre disque dur à cet endroit : Macintosh HD/Bibliothèque/QuickTime).




Prix unique du livre, même numérique ?

Michael Mandiberg - CC-by-sa Nouvel exemple du refus des tenants d’industries du siècle dernier de considérer l’ère du numérique (ouverte par l’informatique et Internet [1]) comme une opportunité nouvelle et non comme une menace passagère, les sénateurs examineront bientôt une proposition de loi visant à imposer une recette sociale adaptée à l’économie matérielle d’objets, au commerce que l’on qualifiait encore il y a peu de « virtuel », des œuvres numériques, disponibles en-ligne et à volonté.

Tel est en effet l’objectif de cette proposition de loi : appliquer le prix-unique du livre également sur Internet. Si, naïvement, l’idée peut sembler bonne de prime abord, puisqu’elle a sûrement contribué à sauver les petites librairies françaises, elle dénote surtout une incompréhension chronique par la classe politique et les marchants de culture, de la notion de fichier d’ordinateur, ce support numérique réplicable en un instant et sans véritable coût à l’échelle de la population mondiale.

Sans en arriver aux extrémités répressives qu’instaure la loi HADOPI II, ce nouveau mouvement législatif se traduit par une énième tentative de limitation des fantastiques possibilités d’une économie nouvelle, dans le but de la faire entrer dans le moule rassurant des précédents modèles. Ici encore, au lieu d’explorer et d’exploiter au mieux ce qu’Internet rend possible, le législateur s’entête à refuser le potentiel d’un réseau numérique mondial, en s’entêtant aveuglément à transposer avec le minimum de réflexion possible ce qui marchait bien avant. D’autres pays plus pragmatiques vivent avec le Net, s’y adaptent et connaissent (est-ce lié ?) les plus forts taux de croissance de la planète depuis ces dix dernières années, mais pendant ce temps, nos sénateurs ont à cœur de préserver les recettes du passé, quitte à gâcher, pour un temps, celles du futur.

Si le Framablog parle rarement d’économie, nous vous parlons plus régulièrement d’œuvres libres, partagées par leurs auteurs à grande échelle via Internet. Or, cette loi ignore tout simplement la question et entre en contradiction avec l’essence même des licences libres, confirmant pour le moins que si la voie est libre, la route semble encore bien longue avant que les paradigmes du libre ne soient connus, compris et reconnus en haut lieu.

À l’heure de la sortie imminente de deux nouveaux Framabooks, Framasoft se joint donc aux inquiétudes soulevées par ses partenaires Adullact et AFUL dans leur dernier communiqué commun :

Le prix unique du livre numérique doit-il s’opposer à la création libre ?

14/10/2010 – URL d’origine

L’ADULLACT et l’AFUL s’inquiètent de la proposition sénatoriale de loi sur le prix [unique] du livre numérique, dont la rédaction actuelle menace sans nécessité la création sous licence libre. Leurs représentants au CSPLA s’en expliquent dans ce communiqué.

Nous avons eu récemment connaissance de la proposition de loi faite au Sénat par Mme Catherine DUMAS et M. Jacques LEGENDRE [2] relative au prix [unique] du livre numérique.

Nous comprenons le souci de la représentation nationale de préserver la filière du livre dans le monde numérique [3], en reprenant une formule qui s’est montrée efficace pour le livre imprimé traditionnel [4].

Cependant le monde numérique n’est pas le monde des supports matériels traditionnels et, s’il pose les problèmes que nous connaissons depuis plusieurs années, notamment en ce qui concerne la multiplication des copies illicites, c’est précisément parce qu’il obéit à des lois économiques nouvelles. En un mot : une fois l’œuvre créée, la production de copies peut se faire à un coût essentiellement nul.

Cela n’implique nullement qu’il soit légitime de faire ces copies sans l’accord des titulaires des droits, mais cela implique la possibilité et, de fait, l’existence de nouveaux modèles de création et d’exploitation des œuvres, modèles qui sont tout aussi légitimes que les modèles traditionnels issus du monde de l’imprimé.

Pour ne citer qu’un exemple, l’association Sésamath produit des livres numériques "homothétiques" (selon la terminologie de l’exposé des motifs), disponibles sous licence Creative Commons By-Sa. Cette licence implique que ces livres peuvent être exploités commercialement par quiconque, quelle que soit la forme que pourrait prendre cette exploitation, mais que les livres sont toujours cédés avec cette même licence sans contrainte nouvelle. Cela exclut en particulier toute contrainte de prix, ce qui est essentiel à la dynamique de création mutualisée et de maximisation du public recherchée par les auteurs.

Il ne s’agit nullement d’un phénomène marginal, même s’il est ignoré par certains rapports officiels [5]. Les versions imprimées des livres de Sésamath représentent environ 15% du marché qui les concerne, ce qui est loin d’être négligeable. Ces œuvres participent déjà au rayonnement de la France dans plusieurs pays francophones. C’est manifestement un modèle de création qui se développe : il a d’ailleurs fait l’objet des travaux d’une Commission Spécialisée [6] du Conseil Supérieur de la Propriété Littéraire et Artistique (CSPLA) où nous siégeons tous deux.

Il y a donc tout lieu de s’inquiéter de la compatibilité de la proposition de loi avec ces nouveaux modèles.

Ainsi l’article 2 prévoit la fixation d’un prix par le diffuseur commercial. Certes, les licences ouvertes – par exemple Creative Commons By-Sa – tout en permettant la diffusion gratuite et non commerciale, n’excluent nullement la diffusion commerciale, qu’elle soit le fait des créateurs initiaux ou de tiers. Mais le principe même de ces licences est par nature exclusif de toute fixation de prix puisqu’elles sont choisies par l’auteur précisément pour donner la liberté d’en décider, sans contrôle amont de l’aval de la chaîne de diffusion.

Cette loi n’a pas l’intention, on peut l’espérer, de tuer dans l’œuf ces nouveaux modes de création et d’exploitation, ce qui ne serait guère dans l’intérêt de notre pays, des créateurs concernés ou du public. Il faut donc préciser que la fixation du prix du livre numérique ne s’applique pas aux œuvres numériques libres ou ouvertes. Cela peut être réalisé très simplement par un amendement à l’article 2.3 qui prévoit déjà quelques cas d’exemption, sans aucunement porter atteinte aux modes d’exploitation commerciale que la loi vise à encadrer, au bénéfice des titulaires de droit qui souhaitent une telle protection.

Le monde du numérique et les modèles économiques associés sont complexes et mouvants, et la prudence doit probablement prévaloir avant d’y figer quoi que ce soit. Du moins faut-il préciser avec soin quels objets sont visés par le législateur. Il nous semble important que les nouveaux modèles de création et d’exploitation aient le droit de se faire entendre au même titre que les modèles traditionnels. Il y va de la compétitivité économique et culturelle de notre pays dans un univers bouleversé par le numérique. Le meilleur témoin de l’intérêt économique et social de ces modèles est le soutien que leur apportent les collectivités territoriales par leur adhésion à l’association ADULLACT présidée par l’un de nous.

Le rapport Patino préconise [7] de "mettre en place des dispositifs permettant aux détenteurs de droits d’avoir un rôle central dans la détermination des prix". Nous ne demandons rien d’autre.

Bernard LANG
Membre titulaire du CSPLA
Vice-président de l’AFUL
bernard.lang@aful.org, +33 6 62 06 16 93

François ELIE Membre suppléant au CSPLA
Président de l’ADULLACT
Vice-Président de l’AFUL
francois@elie.org, +33 6 22 73 34 96

Notes

[1] Crédit photo : Michael Mandiberg – Creative Commons Paternité Partage à conditions initiales

[2] http://www.senat.fr/leg/ppl09-695.html

[3] Le rapport de M. Bruno Patino, sur le livre numérique http://www.culture.gouv.fr/culture/actualites/conferen/albanel/rapportpatino.pdf s’inquiéte du moyen d’étendre la loi Lang au numérique (page 45).

[4] Sur ce point, discutable, voir Mathieu Perona et Jérôme Pouyet : Le prix unique du livre à l’heure du numérique http://www.cepremap.ens.fr/depot/opus/OPUS19.pdf

[5] C’est d’autant plus regrettable que les modèles explorés par Sésamath sont cités dans le monde entier comme précurseurs et innovants.

[6] http://www.cspla.culture.gouv.fr/travauxcommissions.html, Commission sur la mise à disposition ouverte des œuvres.

[7] C’est sa quatrième recommandation.




Avec Uniflow, Canon invente la photocopieuse qui espionne, refuse et dénonce

Timshell - CC-by-nd En l’absence de l’habituel maître des lieux
Les lutins du Framablog font bien de leur mieux
Écumant le web, en quête de sujets sérieux
Ils espérent que ces billets vous rendront joyeux
À défaut de nous aider à ouvrir les yeux
Sur des technologies qui derrière un vœu pieu
Menacent nos libertés et nos échanges précieux

« On arrête pas le progrès » aimait à répéter mon grand père, mais aujourd’hui, je me demande ce qu’il aurait pensé des dernières inventions de Canon…

En effet, si l’esprit du hacker est de bidouiller une technologie pour en trouver de nouveaux usages, les grandes firmes s’ingénient elles bien souvent à limiter les possibilités de leurs produits, pour créer une illusion de contrôle.

Dans notre cas, Canon a créé des photocopieuses qui inspectent au plus près les documents qu’on leur donne à reproduire, et s’y refusent si ces derniers contiennent l’un des mots de la liste noire située sur le serveur central des installations Uniflow.

Tout d’abord, ces photocopieuses illustrent exactement la menace qui plane sur la neutralité d’Internet. Imaginez qu’il ne soit plus possible de se parler qu’à l’aide de textes envoyés d’une photocopieuse à une autre et vous aurez un bon aperçu de comment fonctionne Internet. En effet, chaque message y circule, par petits bonds, d’un ordinateur à un autre entre votre machine et celle à laquelle vous tentez d’accéder de l’autre côté du réseau. Chaque machine rencontrée photocopie simplement les messages qu’elle reçoit vers la sortie qui les rapprochera de leur destination. Pour l’instant, les routeurs de l’Internet transportent les messages de manière aussi neutre qu’une simple photocopieuse, sans le moindre soupçon d’analyse de contenu. Mais Canon vient donc de briser la neutralité des photocopieuses, en créant un système de « deep photocopy inspection » bien sûr associés à un système centralisé de censure.

Ensuite, comme le remarquait Benoit Sibaud sur Identi.ca, nous nous trouvons là devant un cas concret d’informatique déloyale, telle que définie par l’April, où des utilisateurs se trouvent confrontés à des systèmes soit-disant « de confiance », et qui sous prétexte de sécurité ne remplissent tout simplement plus la tâche pour laquelle ils sont conçu si les conditions arbitraires d’une entité tierce de contrôle ne sont pas réunies.

Je parlais d’une illusion du contrôle, car comme toujours le moyen mis en œuvre pour « sécuriser l’usage » est aisément contournable, les documents n’étant (pour l’instant) analysés qu’à l’aide d’un logiciel OCR, incapable donc de percevoir les notes manuscrites, ou les mots (volontairement) mal orthographiés.

Alors à quoi bon mettre en place des systèmes aux performances finalement ridicules au regard du niveau stratégique de l’objectif ? Et quel peut être l’objectif d’imprimantes allergiques à certains mots ?

Tout d’abord, déployer un système à l’efficacité embryonnaire c’est toujours faire un premier pas, ça finance la génération suivante et ça piège les non avertis… [1] Ensuite dans le cas présent, on peut pallier les manques du système en contraignant le reste de l’environnement, et si on trouve une application admise par les contrôleurs et les contrôlés ça pourrait même rendre service.

Mais pourquoi empêcher d’imprimer ? Pour pallier, d’une certaine manière, au « trou analogique ». Le trou analogique c’est le nom donné à un phénomène simple : aussi sophistiqué que puisse être le système de protection d’un fichier (chiffrement, DRM), pour qu’il soit lu il faut bien à un moment le rendre présentable pour un humain. Et à partir de là, il est toujours possible de renumériser les données… Un MP3, même plombé par un DRM, quand il finit par être lu, rien ne m’empêche de l’enregistrer avec un dictaphone, si j’ai peur de ne pas m’en souvenir tout seul. Dans notre cas, l’intérêt est donc de combler en partie le trou analogique, en évitant que des copies papiers de documents identifiés comme « secrets » ne soient créées.

Toutefois, ça peut vite devenir comique, si une entreprise empêche l’impression de documents contenant le nom de ses clients par exemple, espérons qu’ils ne traitent pas avec Apple, Orange ou même Canon, sinon ils vont vite finir par ne plus pouvoir imprimer grand chose.

Néanmoins, après les imprimantes qui mentent sur leur niveau d’encre et les imprimantes qui laissent des micro-traces pour s’identifier sur toutes leurs copies, Canon invente aujourd’hui les imprimantes qui choisissent ce qu’elles impriment… [2]

Canon promet une sécurisation à base de mots-clés pour ses scanners et imprimantes

Canon promises keyword-based document scanning and printing security

Alan Lu – 12 octobre 2010 – ITPro.co.uk
Traduction Framalang : Siltaar, Julien R., KooToX, Daria

Canon a fait une démonstration d’Uniflow 5, la dernière version de son système de gestion de documents, capable d’empêcher les utilisateurs d’imprimer ou de copier des documents contenant certains mots, grâce à un système de sécurité intelligent basé sur des mots-clés.

Uniflow est un système de gestion de documents qui permet, depuis longtemps, de contrôler imprimantes, scanners et photocopieurs de manière centralisée. Cela permet de conserver le compte des impressions de chaque utilisateur à des fins de facturation. C’est indispensable dans les professions qui facturent les clients à l’heure ou à la quantité de travail, comme les avocats et les architectes. Le système requiert à la fois un serveur Uniflow sur votre réseau et des périphériques d’imagerie Canon, compatibles Uniflow.

La dernière version d’Uniflow possède un système de sécurité intelligent, basé sur des mots-clés. Une fois configuré par un administrateur, le système peut empêcher un utilisateur d’imprimer, scanner, copier ou faxer un document contenant un des mots-clés prohibés, tel que le nom d’un client ou le nom de code d’un projet.

Le serveur enverra alors par courriel à l’administrateur une copie PDF du document en question, au cas où un utilisateur s’y essaie. Le système peut aussi optionnellement informer l’utilisateur par courriel que sa tentative a été bloquée, mais sans identifier le mot-clé responsable, maintenant ainsi la sécurité du système.

La détection des mot-clés d’Uniflow 5 se base sur un système de reconnaissance optique de caractères (OCR), dont la licence est détenue par la firme belge Iris. Cette technologie est plus communément utilisé pour retranscrire des documents scannés en textes éditable sur ordinateur. Canon Angleterre a confirmé qu’un utilisateur éclairé et déterminé ayant repéré un des mots-clés peut contourner le système en remplaçant une lettre par une autre ou un chiffre ressemblant comme avec « z00 » au lieu de « zoo ».

Néanmoins, l’intérêt de cette fonctionnalité est immédiatement perceptible pour les secteurs traitant des documents sensibles, que se soit pour des raisons légales, concurrentielles ou commerciales. Les représentants de Canon n’ont pu avancer de date quant à la commercialisation des produits Uniflow 5.

Notes

[1] Toute ressemblance avec une loi visant à contrôler les usages sur Internet serait fortuite.

[2] Crédit photo : Timshell (Creative Commons Attribution NoDerivs).




L’échec des DRM illustré par les « Livres numériques » de Fnac.com

Cher Framablog,
En raison de l’absence du maître de céans,
Les lutins qui veillent à ton bon fonctionnement,
Ont œuvré pour publier le billet suivant,
Par votre serviteur, introduit longuement.

Témoignage d’un lecteur loin d’être débutant,
Il retrace un épique parcours du combattant,
Pour un livre « gratuit » en téléchargement,
Que sur son site web, la Fnac, propose au chaland.[1]

xverges - CC by Récemment[2] sur rue89.com, on pouvait lire : « Nothomb, Despentes : la rentrée littéraire se numérise un peu ». Et pour un fan de technologie comme je suis, ce titre résonnait plutôt comme « la rentrée littéraire se modernise un peu ». En effet, des livres numériques il en existait déjà au siècle dernier…

Côté libre, il faut avouer qu’on est plutôt bien servi. Citons par exemple cette excellente trilogie de Florent (Warly) Villard « le Patriarche » débutée en 2002, à l’occasion de son « pourcentage de temps réservé aux projets libres personnels » chez MandrakeSoft à l’époque. Citons encore la collection Framabook et ses 7 ouvrages[3], citons aussi la forge littéraire en-ligne InLibroVeritas.net et ses 13500 œuvres sous licence libre[4], ou encore le projet Gutenberg et ses 33 000 œuvres élevées au domaine public, Wikisource.org et ses 90 000 œuvres réparties sur plus de 10 langues et pour finir le portail Gallica de la BnF donnant accès à plus d’1,2 millions d’œuvres numérisées[5]… Ces livres, on peut les télécharger en un clic depuis son navigateur, les transférer dans son téléphone portable[6] en un glissé-déposé, et les lire tranquillement dans le métro, même là où ça ne capte pas[7].

Dans ces conditions, que demander de plus que de faire sa rentrée littéraire sur un écran d’ordinateur ? Pourtant, ces conditions, elles ne sont pas évidentes à rassembler. Évacuons tout de suite la question du matériel. Alors que la plupart des téléphones de dernière génération sont dotés d’un navigateur web, tous ne sont pas utilisables comme de simple clé USB, et y transférer des fichiers peut s’avérer impossible pour certains ! Je n’insisterai pas non plus sur les autres équipements proposés spécifiquement pour cet usage, et qui se révèlent le plus souvent considérablement limités. Après tout, n’importe quel ordinateur devrait pouvoir faire l’affaire.

Mais concernant l’œuvre elle même, il faut qu’elle soit libre, ou librement téléchargeable, ou au moins librement « lisible » pour que ça marche. Et pour le coup, on s’attaque à une pelote de laine particulièrement épineuse à dérouler. Avant qu’on les propose sous forme numérique, pour lire les livres d’Amélie Nothomb il fallait en acheter une copie papier, un objet physique qui coûte à produire, transporter, stocker et présenter dans des rayons. Il fallait donc payer pour obtenir un feuilleté de cellulose, qui s’use, se perd, se brûle… et se prête aussi. Et de cette somme d’argent, après avoir largement rémunéré les intermédiaires, une petite portion était finalement reversée à l’auteur. Et ça, la rémunération de l’auteur, c’est le petit détail qui manque au tableau dépeint quelques paragraphes plus haut. Si je lis « Le Prince » de Nicolas Machiavel, mort en 1527 à Florence, l’ouvrage s’est élevé au domaine public depuis fort longtemps maintenant, et la question ne se pose pas. L’auteur n’aurait plus l’usage d’une rémunération aujourd’hui. Par contre, après avoir lu « Le Patriarche » de Florent Villard, j’ai tellement aimé le bouquin que j’ai spontanément envoyé un chèque à l’auteur, pour l’encourager à écrire la suite[8]. Mais dans le cas d’Amélie malheureusement, sa maison d’édition n’a pas voulu parier sur la philanthropie des futurs lecteurs.

Les autres maisons d’éditions non plus d’ailleurs, et cette question de la rémunération des auteurs, elle se pose en France et partout dans le monde depuis des années, depuis l’arrivée du numérique. Il y a eu des hauts et débats (selon la formule consacrée) pour y répondre, mais il y a malheureusement aussi eu des bas, comme les lois DADVSI et HADOPI 1 et 2…

Les lois HADOPI, on peut les évacuer rapidement : pas une ligne de leur texte ne porte sur la rémunération des auteurs, contrairement à ce qui a pu être clamé. Avec cette initiative législative, les représentant des ayants droit et de la distribution tentèrent juste une fois de plus de plier l’économie numérique de l’abondance aux lois qui régissent l’économie des biens physiques, basée sur le contrôle matériel de l’accès aux œuvres. Au lieu de s’adapter à un marché qui évolue, les moines copistes de DVD[9] tentent encore et toujours de retenir le progrès des technologies de diffusion pour rester rentiers.

Manu_le_manu - CC by nc sa

La loi DADVSI était elle encore plus simple à comprendre. Elle avait déjà pour objectif, 4 ans plus tôt, d’essayer d’imposer une forme de contrôle à la distribution d’œuvres sur Internet, via l’utilisation de verrous numériques aussi nommés DRM. Un procédé saugrenu, consistant à couper les ailes de l’innovation, en tentant de limiter les possibilités des ordinateurs et l’usage de certains fichiers, de telle sorte qu’on ait à considérer ces fichiers comme autant d’objets unitaires et non comme une simple suite d’octets duplicables plusieurs millions de fois par secondes, d’un bout à l’autre de la planète[10], ce qu’ils sont pourtant. En permettant à chaque distributeur de restreindre le nombre de copies possibles pour un fichier, on nous promettait le décollage des offres légales de contenus numériques. Ce fut un échec assez cuisant, rien n’a décollé et encore moins côté bouquin. C’est pourtant pas faute d’avoir expliqué, déjà à l’époque, que mettre des bâtons dans les roues de ses clients n’est pas un plan d’affaires viable.[11]

Ce fut un échec mémorable, chaque distributeur ayant adopté son propre système de « complication d’usage », tenu secret et dont l’étude était punie d’emprisonnement[12], et donc bien évidement incompatible avec ceux des autres distributeurs. Des systèmes à la fois contournables en s’en donnant la peine, et compliqués à mettre en œuvre dans le cadre d’une « consommation » courante… Microsoft à même réussi la prouesse de commercialiser à l’époque des lecteurs incompatibles avec son propre système de verrous numériques[13].

Du côté « pas libre » donc, la situation des livres numériques a souffert d’une orientation stratégique contraire à l’intérêt général, d’une mise en œuvre partielle et désorganisée et globalement d’une incompréhension des technologies numériques. Des caractéristiques qui ne sont pas sans rappeler le fiasco des porte-monnaie Monéo, lancés en 1999. Vous vous souvenez sûrement de ce nouveau moyen de paiement qui devait permettre aux banques de gérer votre monnaie en plus de votre épargne (au lieu de la laisser dormir dans un fourre tout près de la porte d’entrée), et qui fut conçu de manière à coûter moins cher aux banques qu’une carte de crédit classique. Il n’était donc pas sécurisé (pas de code à taper), mais surtout, il rendait l’argent de votre compte en banque « physique », dans la carte. Si elle tombait dans une flaque d’eau, vous perdiez le montant de son rechargement. Sans parler du fait que la carte se mettait dès lors à intéresser des voleurs potentiels, attirés par les 100€ que son porte monnaie intégré (de gré ou de force) pouvait contenir. Évidemment, ce système n’a pas, non plus, rencontré le succès escompté par ses créateurs.

Et pourtant, ces deux fantômes du début de la décennie, DRM et Monéo, reviennent hanter notre univers dématérialisé ces jours-ci. Le premier dans les offres de livres numériques de cette rentrée littéraire, le second imposé dans les restaurants universitaires. Et il ne serait pas étonnant de voir bientôt à la Fnac des bornes de distribution de livres numériques infestés de DRM, et imposant (comme dans les restaurants universitaires) les paiements par Monéo.

Aujourd’hui, alors que des systèmes alternatifs et innovant se mettent en place pour permettre la rémunération des auteurs dans une économie numérique, nous avons testé pour vous l’enfer dans lequel s’entêtent les entreprises « majeures » de la distribution de culture.

Livre numérique sur Fnac.com : le parcours du vieux con battant

D’après l’expérience de Fredchat – 13 septembre 2010

J’ai testé pour vous (avec un succès modéré) le service « Livres numériques » de la Fnac.

Cherchant sur le site de cet important distributeur français un livre de Maupassant, je suis tombé sur une annonce pour un « ebook » en téléchargement gratuit. L’offre a l’air honnête et puis c’est le livre que je cherchais, alors je me dis :

« Essayons voir ce service épatant que tout le monde marketing nous pousse à consommer : le livre électronique. »

Aussi simple que télécharger un fichier ?

Je me lance donc dans l’aventure et il faut, pour commencer, valider une commande sur le site Fnac.com, pour débloquer le téléchargement d’un fichier gratuit. Ça commence donc bien, il faut avoir un compte à la Fnac. Bon, ce n’est plus vraiment gratuit, mais c’est presque de bonne guerre.

Une fois passé ce premier écueil, et une fois la commande validée, le site me donne un lien vers une page de téléchargement. À ce point-là, moi qui aime faire les choses simplement quand c’est possible, je découvre avec désarroi que ce n’est pas le livre qu’on me propose de télécharger sur cette page. Point de fichier PDF, ePub ou d’un quelqu’autre format standard et reconnaissable (voire normalisé), comme les petites icônes vantaient dans les rayons du site. Au lieu de cela, on me propose un tout petit fichier, affublé de l’extension exotique .amsc et qui se révèle ne contenir que quelques lignes de XML. Ce fichier ne contient en fait pas grand chose de plus que l’URL d’un autre fichier à télécharger, un PDF cette fois. J’ai alors l’impression d’avancer vers le but, même si je m’embête rarement autant, dans la vie, pour télécharger un simple fichier, gratuit qui plus est. Seulement voilà, on ne peut pas le télécharger directement ce PDF ! Ils sont très forts à la Fnac, leur fichier gratuit m’a déjà coûté plus de vingt minutes… et je suis toujours bredouille.

Je me renseigne plus avant sur la procédure à suivre, et au cours de cette petite séance de lecture j’apprend qu’il faut obligatoirement passer par un logiciel Adobe, lui-même tout aussi gratuit mais uniquement disponible sous Microsoft Windows et Mac OS X… Linuxiens passez votre chemin.

Mais ce n’est pas tout…

Le logiciel Adobe en question interprète le XML, détecte les informations qui vont bien et, alors que le suspens est à son comble et que l’on croit toucher au but, surprise, le texte qui apparaît enfin n’est pas celui du livre. À la place, on tombe sur un charabia composé d’explications toutes aussi surprenantes que liberticides, avec un bouton « Accepter » en bas de l’écran. Pour un téléchargement gratuit, je me retrouve donc à vendre une deuxième fois mon âme au diable.

En substance, on m’explique que pour avoir accès au livre il me faut en autoriser la lecture sur l’ordinateur en cours d’utilisation, et pour cela, je dois obligatoirement avoir un identifiant Adobe. Cet identifiant, on l’ obtient en s’inscrivant à un « club » géré par l’éditeur du logiciel et qui requiert pour son inscription toute une bordée d’informations personnelles que l’on ne m’a jamais demandées pour acheter un livre… (qui devait être gratuit, excusez-moi d’insister).

Cela fait maintenant près de 40 minutes que je m’acharne sur ma commande Fnac.com d’un livre gratuit et à ce stade, je me surprends moi-même d’avoir trouvé à franchir tous les obstacles. Mais ça y est, je le vois le livre et il commence à en avoir de la valeur à mes yeux ce fichier PDF vu le temps que j’y ai consacré. Toutefois, téléchargeable et lisible uniquement via un logiciel propriétaire Adobe, ce n’est plus vraiment un fichier PDF…

D’ailleurs, alors que je m’apprête à copier ledit fichier vers un périphérique plus adéquat à sa lecture, une petite voix me prévient que je ne peux en autoriser la lecture, via le logiciel propriétaire, que sur un maximum de 6 périphériques, et qu’il faut donc que je m’assure de vouloir vraiment le copier quelque part et entamer le décompte. Je ne suis plus à ça près.

Conclusion

Résultat des courses, je suis fiché chez deux grandes entreprises (avec les dérives d’exploitation de mes données personnelles que cela permet), je ne peux pas lire le livre sous Linux. J’ai perdu mon après-midi et je ne peux pas partager le fichier gratuit, d’une œuvre libre de droits, avec mes amis pour leur épargner l’improbable et complexe procédure de téléchargement que j’ai subie. C’est sûr, avec Fnac.com on comprend vraiment la différence entre gratuit, et libre.

Toutefois, si vous êtes séduit, vous pourrez bientôt acheter le Petit Prince dans cet alléchant format, pour la modique somme de 18€…

Épilogue

Finalement, je crois que je vais rester un vieux con et garder mes livres papier. Au moins, dans ce format je peux les lire où je veux (dans un fauteuil, dans mon lit, sur les toilettes, au bord d’une piscine, etc.), quand je veux, que je sois en-ligne ou pas, et les prêter à mes amis.

Sinon, quand je serai remis de cette mésaventure, j’irai jeter un œil sur Wikisource ou sur le projet Gutenberg, il paraît qu’on y trouve des livres numériques libres, téléchargeables en un clic et dans des formats ouverts et normalisés…

Notes

[1] Crédit photo : xverges (Creative Commons By)

[2] Introduction rédigée le 23 septembre 2010.

[3] Attention, ce qui suit dévoile des moments clés de l’intrigue : bientôt 10 😉

[4] Libres à divers degrés suivant les variations permises par les licences Creative Commons, rendant l’œuvre modifiable ou non et commercialisable ou non.

[5] Pour la plupart du domaine public, librement lisibles, mais pas librement réutilisables. Il faut en effet s’acquitter d’une licence auprès de la Bibliothèque nationale de France pour pouvoir faire un usage commercial des fichiers obtenus depuis le portail. Ça fait quand même une sacrée bibliothèque… Merci à Christophe de l’avoir rappelé dans les commentaires.

[6] Par exemple sous la forme de pages webs, débitées en tranches de 450ko, sinon le téléphone en question sature sa mémoire vive s’il s’agit d’un N95…

[7] Ou encore, en réponse anticipée à un bout de la conclusion du texte présenté, partout où un chargeur solaire parviendra à maintenir l’engin allumé…

[8] Pour la petite histoire, j’ai même envoyés deux chèques, un après la lecture du 1er tome, et un autre à la fin de la 1ère trilogie (c’est prévu pour être une longue histoire). Or, l’auteur se sentant coupable de délaisser son ouvrage n’a encaissé que le 1er chèque, et c’était il y a plus d’un an maintenant. Toutefois, de récentes mises à jour sur le site du livre laissent espérer que la suite pourrait venir sous peu.

[9] Pour reprendre l’expression de Nicolas Dupont-Aignan.

[10] Oui, je sais qu’une sphère n’a pas à proprement parler de bouts, mais elle n’a pas non plus de côtés, et … revenons à nos moutons.

[11] Crédit photo : Manu_le_manu (Creative Commons By NC SA)

[12] Peine disproportionnée que les juges n’appliquèrent pas, et qui fut limitée par le Conseil d’État deux ans plus tard, interrogé par l’April sur le sujet

[13] Comme l’analysaient Formats-Ouverts.org, PCINpact.com, Clubic.com, Numerama.com




Docteur Word et Mister Doc font de la résistance à l’Éducation nationale

Les inspecteurs de l’Éducation nationale représentent l’autorité pédagogique des enseignants. Ils sont écoutés et respectés. Ce sont un peu « les professeurs des professeurs ».

En cette nouvelle rentrée scolaire, les enseignants d’une académie sont sollicités par leurs inspecteurs pour fournir un travail en vue de préparer au mieux un changement de programme dans leur discipline. C’est une procédure tout à fait classique de consultation de la base.

Ce qui l’est peut-être moins, c’est la recommandation technique ci-dessous :

Afin de faciliter la gestion des très nombreuses productions attendues, il est impératif de n’utiliser que la fiche-réponse (un fichier au format Word à compléter) pour envoyer vos productions. Vos fichiers (un par situation d’évaluation produite) doivent être lisibles avec une installation standard de Word et aucun autre fichier ne doit être joint à votre envoi.

Vos fichiers doivent être nommés de la façon suivante (en remplaçant XXX par le numéro de votre établissement) : XXX-1.doc, XXX-2.doc, etc.

Nous vous serions reconnaissants de respecter scrupuleusement ces consignes afin d’éviter un travail important et fastidieux au groupe de relecture.

Nous sommes d’accord, les inspecteurs sont aussi faillibles et ne peuvent pas être des experts partout. Mais quelle confusion entre le logiciel (Word) et le format (doc) ! Et quel mauvais exemple renvoyé à des enseignants habitués à ce que la parole de leurs inspecteurs soit parole d’évangile !

Word, en installation « standard », désigné par ses élites Grand Facilitateur de travail à l’Éducation nationale ! Cela se passe encore comme ça à l’école française en septembre 2010…

Il y a certainement moyen de faire autrement. Pouvez-vous aider nos inspecteurs dans les commentaires ?




De l’honnêteté intellectuelle et du HTML5 – Christopher Blizzard (Mozilla)

Christopher Blizzard est évangéliste chez Mozilla (pour rappel, évangéliste n’est pas un gros mot). Il a récemment publié un billet coup de gueule sur son blog dont ZDNet et PC Inpact se sont faits l’écho.

Extrait de l’article Un évangéliste de Mozilla critique l’emprise marketing d’Apple et Google sur HTML5 de ZDNet :

Apple et Google seraient allés trop loin. Pour Christopher Blizzard, évangéliste Open Source chez Mozilla, les deux sociétés ont chacune à leur manière tiré la couverture de HTML5 à elles au détriment des autres acteurs qui contribuent à son développement, comme Mozilla. Première cible : Apple. La firme a mis en ligne sur son site des démonstrations des capacités de HTML5, CSS3 et javascript… réservées aux utilisateurs de Safari. Selon notre évangéliste, Apple donne du coup l’impression aux internautes d’être le seul à supporter ces standards en ajoutant « tous les navigateurs ne les supportent pas ».

Extrait de l’article HTML5 : Un évangéliste de Mozilla s’en prend à Apple et Google de PC Inpact :

Le HTML5 est devenu synonyme pour beaucoup de futur du Web. Au point qu’il est également devenu un argument marketing important pour plusieurs sociétés, dont Google, Apple ou encore Microsoft. Christopher Blizzard, évangéliste chez Mozilla, fulmine dans un billet sur son blog à propos de toutes les déformations que l’on peut lire ici et là.

Vous trouverez ce fameux billet traduit ci-dessous dans son intégralité.

Remarque : Les copies d’écran ont été également francisées par nos soins et ne sont donc pas directement issues du site d’Apple.

De l’honnêteté intellectuelle et du HTML5

Intellectual honesty and html5

Christopher Blizzard – 4 juin 2010 – Blog personnel
(Traduction Framalang : Julien, Goofy, Joan et Don Rico)

Je vous préviens, le billet qui suit expose ce que tout le monde sait déjà dans le milieu des navigateurs, sans oser le dire tout haut. Il est grand temps que quelqu’un fasse tomber les masques. Il est dommage que la principale victime ici soit Apple, sachant que c’est Google qui est passé maître dans ce genre de stratégie, mais après tout, Apple s’est distingué de façon si outrancière et trompeuse qu’ils méritent une volée de bois vert. (Lors de sa conférence I/O, Google a réussi à faire passer son modèle d’applications natives et Chrome store pour du HTML5 – ils se sont surpassés. Mais j’en parlerai dans un autre billet, une prochaine fois.)

Commençons d’abord par la contradiction la plus flagrante. Voilà sur quoi on tombe :

HTML5 et les standards du Web

Comme c’est beau ! Ils sont le web, j’adore ça ! J’aurais pu l’écrire. J’aurais l’écrire.

Le titre gris foncé classique au-dessus du texte gris clair typique de chez Apple que tout le monde adore. Et le texte : les standards, les CSS, JavaScript, les web designers, les bisounours sous l’arc-en-ciel… Comment pourrait-on ne pas être d’accord ? Du point de vue marketing, c’est impeccable – message vague, sympathique, Apple aime le web, Apple vous aime.

Mais comment le prouvent-ils ?

Only Safari

Vous avez bien lu. Si vous ne naviguez pas avec Safari, allez vous faire foutre.

Au-delà des termes un peu vifs que j’emploie pour vous aider à comprendre de quoi il retourne, voici le message qu’il faut lire entre les lignes : si vous n’avez pas accès à Safari, vous ne devez pas avoir accès au HTML5. Attendez un peu… N’y a-t-il que Safari qui gère le HTML5 ?

Eh non, c’est le cas d’un tas d’autres navigateurs. Aujourd’hui, la majeure partie des internautes a accès à des standards comme le HTML5. D’ailleurs, puisque l’on parle d’HTML5, vous pourriez vous demander quel est le navigateur qui le prend le mieux en charge actuellement… Pas Safari. Ni Chrome. Un navigateur qui, se trouve-t-il, possède également une part de marché significative — j’ai nommé Firefox.

HTML5 et navigateurs

(Le meilleur site pour obtenir des informations utiles sur le sujet est un site que malheureusement peu de gens utilisent : caniuse.com — amoureusement maintenu par Alexis Deveria sur son temps libre.)

Bien sûr, le gros problème, c’est que HTML5 finit par vouloir dire un tas de choses, principalement grâce à Google. Au fond, ils ont enfourché ce cheval de bataille, l’ont fait avancer à la cravache, et se le sont approprié. (Ça et les performances – un message marketing simple et génial. J’apprécie, même si la malhonnêteté avec laquelle c’est réalisé me fait bouillir).

Et je suis convaincu que si Apple a pondu ce site, c’est parce qu’ils sont confrontés au même problème que nous. Le meilleur exemple qu’on puisse en donner, c’est la question que nous a posée récemment un candidat lors d’un entretien d’embauche : « Hé, vous comptez supporter le HTML5 un jour ? »

Tu te fous de moi ou quoi ? Voilà la preuve que le marketing, ça marche. Le fossé entre la perception de la réalité et la réalité telle qu’elle est vraiment est énorme.

Je suis certain c’est pareil chez Apple. Ils doivent se dire en interne « Flûte, tout le monde pense qu’on ne supporte pas HTML5, il faut qu’on prouve le contraire ! On va créer des tests ! Des démos ! La vérité éclatera enfin au grand jour et on nous percevra de nouveau comme les fers de lance du projet Webkit, lui aussi plein de bisounours et d’arcs-en-ciel ! ».

Et c’est comme ça qu’on se retrouve avec des sites de ce genre. Des sites qui passent complètement à côté de la vraie nature du web, de l’interopérabilité, des standards et du HTML5. Les démos qu’ils ont mis en ligne ne contiennent rien d’autre que des trucs bricolés par Apple, qui ne sont pas du HTML5, et qui entament à peine le processus de standardisation. Ça fait partie du CSS3 ? Plus ou moins, mais encore en plein développement et toujours en phase de feedback.

Soyons clairs. Si je suis sarcastique, c’est surtout pour attirer votre attention. Parce que c’est vraiment important. Et si vous ne deviez lire qu’un paragraphe, ce serait celui-ci :

La caractéristique la plus importante du HTML5, ce ne sont pas les nouveaux trucs comme la balise vidéo ou la balise canvas (que Safari comme Firefox ont intégrées depuis longtemps), c’est bel et bien de permettre une interopérabilité absolue. Même chez ces vieux raseurs de Microsoft, qui ont fait de leur mieux pour freiner le web pendant presque une décennie, on a compris ça : vous allez le voir en long et en large pendant leur campagne marketing pour IE9 (leur slogan est « balisage unique » – ouvrez l’œil, vous le verrez partout dans leur communication). C’est l’idée que des balises identiques, même si elles comportent des erreurs, auront un rendu en tout point semblable. HTML5 représente une bonne occasion pour les navigateurs Internet de travailler ensemble et de trouver un terrain d’entente.

Avant que l’on ne se méprenne sur mes propos, je précise que c’est une tout autre question que celle de l’innovation sur les navigateurs. Les standards font partie du processus, mais les standards suivent bien plus souvent qu’ils ne guident. Le HTML5 recèle un grand nombre de nouveautés qui ne proviennent pas d’IE, qui donne donc l’impression d’innover, mais chez Mozilla, on utilise la majeure partie du HTML5 comme on respire. Nous travaillons avec depuis des années. Aujourd’hui, ce qui nous intéresse le plus, c’est l’étape suivante.

Hélas, je crois qu’il est inévitable que les navigateurs s’affrontent sur le mieux-disant HTML5. Il est pourtant indispensable de s’interroger : quand quelqu’un commence à se vanter, quel est son véritable but ? Se trouve-t-on face à un test bidonné par le constructeur ? La démo d’une fonctionnalité qui va bien au-delà des standards existants ? (Elle a tout à fait sa place mais devrait être présentée pour ce qu’elle est !) Est-ce un test destiné à exhiber les bogues des autres navigateurs de façon articulée et constructive ? La personne qui conduit les tests sait-elle ce qu’elle fait, et tient-elle compte des commentaires constructifs ?

À l’évidence, Apple a pour objectif de crier sur les toits qu’ils adorent le web, mais leurs démos et le fait qu’on ne peut y accéder en utilisant un autre navigateur que le leur ne collent pas avec leur slogan. Il s’agit d’un manque flagrant d’honnêteté intellectuelle.

Puisque vous m’avez lu jusqu’ici, je vais vous faire une promesse. Je ne peux pas réparer les erreurs commises par le passé, mais je peux donner des idées pour bâtir un avenir meilleur. Moi qui suis en bonne partie à l’origine de la communication qui émane de Mozilla (même si ça risque de changer après ce billet !), voici à quoi je m’engage :

  • Je serai aussi honnête que possible pour expliquer ce que nous faisons, ce que cela implique pour les autres navigateurs et même pour le le nouvel enfant chéri du web, le HTML5.
  • Je ferai tout ce que je peux pour m’assurer que les démos que crée Mozilla fonctionnent sur autant de navigateurs que possible, même s’il faut leur proposer gentiment une solution de repli.
  • Les démos et les messages qui sont destinés à montrer des trucs qui ne sont conformes à aucun standard seront identifiés clairement comme tels.

Le HTML5 est un terrain miné, car tout le monde veut se l’attribuer, mais personne n’en est au même point sur sa prise en charge ni même sur sa définition. Je ne peux pas m’engager pour d’autres entreprises, mais je peux au moins annoncer comment moi je vais me comporter. Chez Mozilla, l’honnêteté intellectuelle n’est pas un vain mot, et c’est également le cas pour moi de façon personnelle. C’est pourquoi je pense que nous ne nous abaisserons jamais à de telles pratiques. Pour nous, le web et ses utilisateurs importent plus que n’importe quel standard ou navigateur particuliers. Et vous retrouverez cette philosophie dans mes billets et dans nos campagnes marketing.