De la question des marques dans le logiciel libre

Le navigateur Firefox étant libre, vous pouvez l’adaptez à vos besoins, le modifier et le distribuer mais vous n’aurez plus nécessairement le droit, sauf autorisation de la Fondation Mozilla, de l’appeler Firefox. Dans le cas contraire il faudra lui trouver un autre nom.

Même chose s’il vous prend l’envie de vendre des tee-shirts avec le célèbre logo du panda roux entourant la terre. Sans autorisation de la fondation cela ne vous sera pas légalement possible.

On pourrait presque dire que dans le logiciel libre tout est libre sauf sa marque (nom, logo…).

Cela se conçoit bien car il est important de savoir qui fait quoi, mais c’est souvent une surprise pour l’utilisateur.

Ce billet de Benjamin Mako Hill évoque donc de cette question du branding qui doit être au service du projet et non mettre des bâtons dans les roues de sa communauté.

Roadsidepictures - CC by-nc-nd

Open Brands

Open Brands

Benjamin Mako Hill – 2 septembre 2012 – Copyrighteous (blog personnel)
(Traduction : GPif, ehsavoie, Fe-lor, goofy_chromium, Louson, JoKoT3, Penguin, pwetosaurus, Giant Jack)

Fin juillet, les membres de l’Awesome Foundation m’ont invité à participer, lors de leur conférence, à une interessante discussion au sujet des marques ouvertes (NdT : Open Brands). Awesome est un jeune regroupement d’organisations qui s’interroge pour savoir s’il faut, et si oui comment, controler ceux qui utilisent le terme Awesome dans leur nom. Ils m’ont demandé d’intervenir pour présenter comment la communauté du logiciel libre abordait ce problème.

La gouvernance d’un logiciel libre est souvent étonnamment floue sur le sujet. J’ai assisté et participé a des discussions houleuses sur cette question de la marque, dans chaque projet de logiciel libre (réussi) où j’ai travaillé. Plusieures années en arrière, Greg Pomerantz et moi avons écrit, autour de quelques bières, un brouillon de politique de marque déposée pour la distribution Debian. J’ai également travaillé avec le responsable du projet Debian, Stefano Zacchiroli et un avocat de du Software Freedom Law Center afin d’aider à la rédaction d’un brouillon pour la politique de marque déposée du projet Debian dans son ensemble.

Grâce à ces réflexions, j’en suis venu à élaborer trois principes, qui, à mon avis, mènent à des discussions plus claires pour déterminer si la culture libre et le logiciel libre doivent enregistrer une marque déposée et, s’ils le font, comment ils doivent concevoir d’accorder ou non l’utilisation de la marque à d’autres (et sous quelles conditions). J’ai listé, ci-dessous, ces principes par ordre d’importance.

1. Nous voulons que les gens utilisent nos marques.

Les discussions concernant les marques déposées semblent tourner à un exercice consistant à imaginer tous les abus possibles de l’image de la marque déposée. C’est à la fois idiot et erroné. Il faut être très clair sur ce point : Notre problème n’est pas que les gens n’utilisent pas correctement nos marques, mais qu’ils ne sont pas assez nombreux à les utiliser. Le but primordial d’une politique de protection des marques devrait être d’en rendre possible et facile son utilisation légitime.

Nous voulons que les gens fabriquent des tee-shirts avec nos logos. Nous voulons que les gens écrivent des livres sur nos logiciels. Nous voulons que les gens créent des groupes d’utilisateurs et tiennent des conférences. Nous voulons que les gens utilisent, parlent, et fassent la promotion de nos projets, commercialement ou non.

Or le branding peut limiter la diffusion de notre marque et va ainsi nuire à nos projets. Parfois, après avoir soigneusement considéré ces inconvénients, nous pensons que ces compromis en valent la peine. Et c’est parfois le cas. Cependant, les projets sont souvent trop prudents, et en conséquence font l’erreur de trop vouloir contrôler. Je pense que le désir des projets libres de contrôler leur marque a fait plus de dommage que tous les mauvais usages des marques mis bout à bout.

2. Nous voulons que nos projets soient capables d’évoluer.

La création d’une marque déposée donne le pouvoir légal de contrôler une marque dans les mains d’un individu, d’une firme ou une organisation à but non lucratif. Même si ça n’a pas l’air d’être si important, ce pouvoir est, fondamentalement, la capacité à déterminer ce que le projet est, et ce qu’il n’est pas.

J’ai entendu dire que dans le monde politique américain, il n’y a aucune marque déposée pour les termes Républicain ou Démocrate et qu’aucune permission n’y est requise pour créer une organisation affirmant appartenir à l’un ou l’autre parti. Et cela n’implique pourtant pas de confusion générale. À travers les structures sociales et organisationnelles, on voit clairement qui en fait partie ou non, et qui est à la marge.

Plus important, cette structure permet à de nouvelles branches et des groupes extérieurs à la ligne officielle de grandir et se développer en marge. Les deux partis se disputent depuis le XIXe siècle, ont changé de position dans le spectre politique sur un grand nombre de questions, et ont été le lieu d’importantes divergences idéologiques internes. La plupart des organisations devraient aspirer à une telle longévité, à de tels débats internes et à une telle flexibilité.

3. Nous ne devrions pas troubler nos communautés.

Bien qu’ils soient souvent sources d’abus, les marques sont foncièrement en faveur des consommateurs. Le but des marques légalement déposées est d’aider les consommateurs à ne pas être induits en erreur sur la source d’un produit ou d’un service. Des utilisateurs peuvent aimer un logiciel du projet Debian, ou peuvent le détester, mais il est agréable pour eux de savoir qu’ils ont la Qualité Debian lorsqu’ils téléchargent une distribution.

Bien évidemment, protéger des marques légalement n’est pas le seul moyen pour atteindre ce but. Les noms de domaine, les politiques internes et les lois contre la fraude et l’usurpation d’identité servent également ce but. L’Open Source Initiative a fait une demande de marque déposée pour le terme open source, et leur demande a été heureusement rejetée. L’absence d’enregistrement d’une marque ne les a pas empêchés de contrôler l’utilisation de ce terme. Si certaines personnes tentent de donner le terme open source à leurs produits open source alors qu’ils ne le sont pas, elles sont rappelées à l’ordre par une communauté de personnes qui savent de quoi ils parlent.

Et puisque les avocats sont rarement dans la boucle, il est difficile de savoir si déposer une marque aiderait dans la grande majorité des cas. Il est également vrai que la plupart des structures du libre manquent d’argent, de conseils juridiques ou de temps, pour obliger à une utilisation correcte de la marque. Il est effectivement très important que votre communauté d’utilisateurs et de développeurs sache précisément ce qu’est, et ce que n’est pas, votre produit et votre projet. Mais comment nous décidons d’arriver à cela n’est pas quelque chose que nous devons considérer comme acquis et tout le monde doit être impliqué dans les décisions.

Crédit photo : Roadsidepictures (Creative Commons By-Nc-Nd)




À la rencontre des « bots » qui veillent eux aussi sur Wikipédia

Connaissiez-vous les « bots » de Wikipédia ?

Le mieux est de commencer tout d’abord par demander à Wikipédia :

« Les bots sont des agents automatiques ou semi-automatiques qui interagissent avec Wikipédia comme le fait un utilisateur, mais pour des tâches répétitives et fastidieuses pour un humain. Les bots peuvent être utilisés pour créer des articles. D’autres peuvent être utilisés pour éditer ou même détruire des articles. Certains bots sont spécialisés dans la gestion des liens d’interlangue, la résolution des homonymies, les annulations de certains vandalismes ou encore les opérations sur les catégories. Des bots bien conçus peuvent apporter un bénéfice concret à Wikipédia. Cependant, parce que le système n’a pas été conçu pour supporter des bots, même un bon bot peut avoir des effets secondaires non souhaitables. »

C’est donc de ces satanés bots dont il est question dans la traduction ci-dessous. Bien moins pour glorifier l’intelligence artificielle que pour rendre hommage à ceux bien humains qui les programment dans les coulisses.

Remarque : Les wikipédiens francophones ont quant à eux souvent à faire avec le bot Salebot (Attention, bot méchant ! nous prévient-on sur sa page « Utilisateur »), un article spécialement dédié lui avait été consacré par Camille Gévaudan sur le site Écrans en août 2008.

Kristina Alexanderson - CC by-sa

Meet the ‘bots’ that edit Wikipedia

Daniel Nasaw – 25 juillet 2012 – BBC News
(Traduction : elfabixx, Pwetosaurus, Gatitac, Jose, ProgVal, Kaya, fck)

Rencontrez les « bots » qui éditent Wikipédia

Wikipedia est écrit et maintenu par des dizaines de milliers de volontaires bénévoles dans le monde, qui sont eux-mêmes assistés par des centaines de « bots » — des programmes informatiques autonomes — qui aident à garder l’encyclopédie fonctionnelle.

« Le pénis est l’organe mâle de copulation et de miction chez les mammifères. » dit la page Wikipédia en question.

Cette affirmation est indéniablement vraie, et donc mérite d’être dans Wikipédia, mais elle n’a assurément rien à faire dans l’article du site consacré à la Cour suprême !

C’est un facétieux lecteur anonyme de Wikipédia vivant en Caroline du Sud a proposé cette contribution à l’encyclopédie mondiale en ligne la semaine dernière, et il a suffi de quelques secondes pour que cette erreur soit détectée et supprimée.

Ce vandalisme n’a pas été trouvé par un autre contributeur, mais simplement par un programme d’intelligence artificielle appelé « bot », qui est une aphérèse de « robot ».

Virtuellement invisible

ClueBot NG, car tel est son nom, réside dans un ordinateur à partir duquel il intervient sur la vaste encyclopédie pour détecter et nettoyer le vandalisme, quasiment dès que celui-ci apparaît.

Il fait partie des quelques centaines de bots qui patrouillent sur Wikipedia à tout moment. Son rôle dans la restauration immédiate de l’article sur la Cour suprême illustre comment les bots sont devenus une partie indispensable — même si virtuellement invisible — du projet Wikipédia.

« Wikipedia serait une belle pagaille sans les bots », écrivait dans un courriel un administrateur de Wikipédia, connu sur le site sous le nom de Herfold.

À elle seule, la version anglaise de Wikipedia dépasse les quatre millions d’articles ce mois-ci. Elle contient autour de 2.5 milliards de mots, équivalent à des millions de pages, et est 50 fois plus grosse que l’Encyclopædia Britannica.

Wikipedia est maintenue dans toutes les langues par des dizaines de milliers de contributeurs — dont environ 77 000 font plus de cinq éditions par mois.

Le projet est devenu avec le temps tellement vaste et sa maintenance un tel travail intensif que cela défie les capacités de ses administrateurs et simples contributeurs humains de le maintenir en ordre.

Intervenir contre les vandales

C’est là que les (ro)bots interviennent.

« On s’amuse à penser au jour où les robots se mettront en grève juste pour que tout monde se rende compte de la quantité de travail qu’ils abattent », dit Chris Grant un étudiant de 19 ans à Perth en Australie, qui fait partie du comité de Wikipédia qui supervise les robots.

« Le site demanderait beaucoup plus de travail de notre part et épuiserait davantage les contributeurs ».

Les bots effectuent ainsi de nombreuses tâches éditoriales et administratives qui sont fastidieuses, répétitives et chronophages mais néanmoins vitales.

Ils suppriment le vandalisme et les grossièretés, organisent et cataloguent les entrées, et gèrent les coulisses de l’encyclopédie, ce qui lui permet de fonctionner efficacement et de garder son apparence soignée et uniforme dans le style.

En des termes plus concrets, les bots sont comme des étudiants qui veillent sur les livres, déplacent des piles d’un étage à un autre, corrigent les codes-barres au dos des livres, et effectuent d’autres tâches ingrates, qui permettent aux bibliothécaires qualifiés de se concentrer sur les acquisitions et la politique du lieu.

Les bots peuvent-ils écrire ?

« Wikipédia s’est tellement développée que je ne sais pas comment les gens pourraient bien la gérer si tous les bots s’en allaient » nous dit Brad Jorsch, un programmeur informatique en Caroline du Nord qui gère un bot qui traque les bandeaux rappelant aux rédacteurs d’ajouter des sources aux articles.

Les bots sont présents depuis presque aussi longtemps que Wikipédia elle-même.

Le site a été fondé en 2001 et l’année suivante, un bot appelé Rambot a créé environ 30 000 articles — à un rythme du millier par jour — sur les villes individuelles des États-Unis. Le bot a puisé ses données directement à partir de tabeaux de recensement américain. Et les articles se lisaient bien comme s’ils avaient été écrit par un robot. Ils étaient courts et convenus, et contenaient à peine plus que des séries de statistiques démographiques.

Mais, une fois qu’ils avaient été créés, des rédacteurs humains prenaient le relais et remplissaient les entrées avec des détails historiques, des informations sur la politique locale et les sites touristiques.

En 2008, un autre bot a créé des milliers de courts articles sur des astéroïdes, renseignants quelques lignes de données pour chacun à partir des bases de données de la NASA.

Aujourd’hui, la communauté Wikipédia demeure divisée quant à l’apport des bots aux articles. Certains administrateurs trouvent que de petits articles composés de quelques données n’ont que peu de valeur, d’autres trouvent que tout nouveau contenu est bon à prendre.

La peur des bots malicieux

Le résultat du débat a été que les bots ne sont désormais plus autorisés à écrire des articles entiers. Cependant, leur capacité à effectuer le plus gros de la maintenance libère les vrais contributeurs humains qui disposent alors de plus de temps pour effectuer une recherche, créer ou modifier un article et vérifier l’exactitude du travail des autres.

« Je ne pense pas que les gens réalisent quelle quantité de maintenance et de travail annexe sont nécessaires sur Wikipédia » dit Grant.

Certains administrateurs craignent les dégâts qu’un bot renégat pourrait un jour occasionner à l’encyclopédie. Pensez à Skynet dans les films Terminator.


Ces peurs sont infondées, d’après Grant.

Déjà, un robot n’est pas comme une automobile : si une partie d’une opération échoue, il s’arrêtera plutôt que de se fracasser quelque part.

« Il faudrait déjà que quelqu’un demande à un programmeur de rendre le bot fou et qu’il efface tout », dit Grant.

« Les bots avec les droits de supprimer des pages, bloquer des éditeurs, et prendre d’autres décisions drastiques ne peuvent être utilisés que par des contributeurs de confiance disposant de hauts privilèges administratifs », dit Grant.

Cependant, les bots aussi font des erreurs lorsqu’ils font face à des situations pour lesquelles ils n’ont pas été conçus. ClueBot NG, le bot anti-vandlisme, a cependant un très faible taux de faux positifs (lorsqu’il confond des articles légitimes avec du vandalisme). Étant donné que Wikipédia garde une trace des éditions, les erreurs peuvent être réparées presque aussi vite qu’elles surgissent, disent les administrateurs.

Les contributeurs humains ne craignent pas d’être un jour remplacés par les bots, disent les maîtres de bots. « Ecrire un article, citer ses sources, ou encore améliorer sa grammaire et son orthographe nécessiteront toujours le concours d’une personne », conclut Jorsch.

Crédit photo : Kristina Alexanderson (Creative Commons By-Sa)




Il y a quelque chose de magique dans Firefox OS !

Le système d’exploitation Firefox OS peut libérer nos smartphones et autres tablettes en apportant une alternative à Apple et Android, un peu comme l’a fait le navigateur Firefox avec le Web en son temps.

Nous vous proposons ci-dessous le témoignage passionné (et passionnant) d’un de ses développeurs.

Rob Hawkes - CC by-sa

Il y a quelque chose de magique dans Firefox OS

There is something magical about Firefox OS

Rob Hawkes – 12 septembre 2012 – Blog personnel
(Traduction : Un gros collectif de bénévoles nocturnes issus de Framalang, Identi.ca et Twiiter)

Dans ce billet, je parle du projet Firefox OS, ce qu’il signifie, ce que réserve le futur, et ce qu’il a d’un peu magique.

Au cours des quinze derniers mois, j’ai passé de plus en plus de temps à travailler sur le dernier projet de Mozilla : Firefox OS. Rapidement, je suis tombé amoureux de ce projet et de ses valeurs, à un point que je n’avais jamais connu pour une nouvelle plateforme.

Soyons clairs ; Firefox OS est le début de quelque chose d’énorme. C’est une révolution en marche. Une bouffée d’air frais. Un point culminant de la technologie. C’est magique, et ça va tout changer.

Qu’est-ce-que Firefox OS ?

Pour ceux qui seraient un peu perdus, voici l’essentiel en deux mots :

Firefox OS est un nouveau système d’exploitation pour mobile développé par le projet de Mozilla : Boot to Gecko (B2G). Il utilise un noyau Linux et boote sur un environnement basé sur Gecko, ce qui permet aux utilisateurs de lancer des applications entièrement développées en HTML, JavaScript, et d’autres API Web ouvertes.

Mozilla Developer Network

En bref, Firefox OS consiste à récupérer les technologies dans les coulisses du Web, telles que JavaScript, et à les utiliser pour produire un système d’exploitation entier. Prenons quelques instants pour y réfléchir… un système d’exploitation pour mobile basé sur JavaScript !

Pour ce faire, une version légèrement modifiée de Gecko (le moteur derrière Firefox) a été créée dans le but d’y intégrer les différentes API JavaScript relatives à la téléphonie, comme WebTelephony pour faire des appels, WebSMS pour envoyer des messages, et la Vibration API pour… faire vibrer le téléphone.

Mais tout génial qu’il soit, Firefox OS représente plus qu’un ensemble de technologies Web dernier cris utilisées de façon démente. C’est aussi l’association de nombreux autres projets de Mozilla autour d’un concept unique — le Web en tant que plateforme. Certains de ces projets intègrent nos initiatives Open Web Apps et Persona, notre solution d’authentification sur le web (anciennement BrowserID). C’est absolument fascinant de voir tous ces différents projets de Mozilla s’unir de façon cohérente en partageant une seule et même vision.

Je n’irai pas plus loin dans la description du projet vu que le but de cet article n’est pas de le faire dans le détail, même si de plus amples informations peuvent être trouvées sur les pages de Firefox OS sur MDN. Je vous invite vivement à les lire.

Pourquoi Firefox OS ?

Vous pouvez vous dire « Ça a l’air bien, mais pourquoi utiliser JavaScript pour faire un téléphone ? » Et vous avez raison, c’est une question réellement importante. La bonne nouvelle est qu’il y a de nombreuses raisons à cela, autres que de faire la joie des développeurs Web.

Les deux principales raisons sont que Firefox OS répond à un manque dans le marché du téléphone, et qu’il constitue une alternative au paysage privativeur, restreint et contraignant du marché actuel.

Combler un manque dans le marché du téléphone

Ce n’est un secret pour personne : les smartphones sont ridiculement chers, même dans les régions du monde dont le niveau de vie est considéré comme élevé. Mais si vous les trouvez chers dans les pays qui ont les moyens de se les offrir, alors pensez un peu à ce que représente un iPhone 4S 16 Go qui vaut 615 £ dans un pays émergent comme le Brésil. C’est 100 £ plus cher que le même téléphone en Angleterre !

En fait, ces prix plus élevés au Brésil sont principalement dus aux fortes taxes d’importation. Apple semble vouloir éviter ceci dans le futur en construisant des usines dans le pays. Quoi qu’il en soit, cela montre bien que les appareils haut de gamme et hors de prix ne sont pas toujours une solution pour tous les pays. Laissons de côté le fait que dans certaines sociétés vous n’avez pas forcement l’envie d’exhiber publiquement un téléphone qui a le même prix qu’une petite voiture.

A l’heure actuelle, que faites-vous si vous souhaitez acheter un smartphone sans débourser une somme astronomique ? Vous pouvez vous tourner vers des terminaux Android d’entrée de gamme, mais ils sont souvent bien trop lents.

Heureusement, c’est là que Firefox OS intervient.

Le but de Firefox OS n’est pas de rivaliser avec des appareils haut de gamme mais d’offrir des smartphones milieu de gamme au prix de l’entrée de gamme. Ce n’est pas une plaisanterie.

Bonnie Cha

Firefox OS répond parfaitement aux attentes du marché : il offre la même expérience d’utilisation sur un matériel d’entrée de gamme que le fait Android sur du matériel plus performant. Et ce n’est pas une blague.

Par exemple, je teste en ce moment même des jeux écrits en JavaScript sur un terminal fonctionnant sous Firefox OS et qui coûte une soixantaine d’euros (clairement, un appareil très bas de gamme). On pourrait donc s’attendre à ce qu’ils fonctionnent très mal, mais non seulement ils tournent bien plus rapidement que les mêmes jeux s’exécutant dans un navigateur internet Android (Firefox ou Chrome) sur le même appareil, mais ils tournent même aussi vite, si ce n’est plus, que les mêmes jeux sous un navigateur Android sur une machine bien plus performante qui coûte 4 ou 5 fois plus cher.

Pourquoi de telles améliorations de performance par rapport aux navigateurs sur Android pour des appareils identiques ? Grâce à l’absence de couche intermédiaire entre Gecko et le hardware, permettant à des choses comme le JavaScript de tourner à plein potentiel, et en finir avec le mythe du JavaScript lent !

De telles performances de JavaScript sur un matériel aussi abordable est une des raisons qui me font penser que Firefox OS annonce le début de quelque chose d’énorme.

Je dois cependant préciser que Mozilla n’est pas forcément sur le point de lancer un appareil à 60 € : il s’agit seulement d’un terminal en particulier que nous utilisons pour le développement et les tests.

Fournir une alternative : une plateforme ouverte

La seconde réponse à la question « Pourquoi Firefox OS ? » est qu’il s’agit non seulement de créer une plateforme mobile alternative et ouverte, mais également d’essayer d’agir pour influencer les grands acteurs du mobile à changer les choses.

La mission de Mozilla depuis ses débuts en 1998, d’abord en tant que projet autour d’un logiciel, puis en tant que fondation et entreprise, a consisté à fournir des technologies ouvertes capables de rivaliser avec les produits des entreprises dominantes.

Steve Lohr

Firefox a bouleversé le marché du navigateur et montré aux utilisateurs qu’il existe une alternative. Et c’est ce que Mozilla s’efforce de reproduire avec Firefox OS, en permettant à chacun de pouvoir choisir sa façon d’utiliser le Web.

Cette fois-ci, c’est le Web mobile qui est menacé. Pas par Microsoft, mais par Apple et Google, qui sont les plateformes dominantes pour smartphones. Avec leurs applications natives, leurs catalogues d’applications propriétaires, et leurs règles imposées aux développeurs, Apple et Google relèguent le Web à l’arrière-plan.

Thomas Claburn

Sur les téléphones, le domaine qui nécessite le plus de travail est la portabilité des applications…

Avec l’excitation autour des applications mobiles, ils donnent l’impression d’être en retard sur un point : ils restreignent leurs utilisateurs à un système d’exploitation particulier, et aux appareils qui le supportent. Le Web, au contraire, a évolué de façon à ce que le contenu soit ressenti de la même façon, quel que soit le matériel. Mozilla, créateur du navigateur Web Firefox, est déterminé à rendre cela vrai également pour les smartphones.

Don Clark

Ce que Firefox OS cherche à faire, c’est utiliser l’omniprésence du Web pour créer une plateforme qui permet aux applications d’être utilisées aussi bien sur un téléphone portable, un ordinateur, une tablette, ou depuis n’importe quel appareil possédant un navigateur. Ne serait-ce pas génial de pouvoir reprendre sur votre ordinateur la partie d’Angry Birds à laquelle vous étiez en train de jouer sur votre téléphone ? Moi, j’adorerais !

Un rêve à portée de bidouille pour les développeurs

Une dernière raison pour laquelle Firefox OS est nécessaire, c’est que nous n’avons pour le moment aucune plateforme mobile aussi bidouillable (NdT hackable) (il est plus ou moins possible de personnaliser Android, mais ce n’est pas si facile).

Comme Firefox OS est construit avec HTML, JavaScript et CSS, vous n’avez besoin que de connaissances élémentaires en développement Web pour changer complètement l’expérience offerte par l’appareil. En éditant une simple ligne de CSS, vous pouvez totalement modifier l’apparence des icônes de l’écran d’accueil ; ou encore, vous pouvez ré-écrire les fichiers internes JavaScript qui gèrent les appels téléphoniques.

Il s’agit réellement d’une plateforme pour les développeurs et je suis impatient de voir jusqu’à quel point elle sera amenée au-delà de la vision de Mozilla.

Un timing parfait

S’il y a quelque chose dont je suis conscient depuis mon arrivée chez Mozilla il y a un an et demi, c’est à quel point je suis chanceux d’être ici pour le démarrage du projet Firefox OS. Si je me souviens bien, le projet a été annoncé (sous le nom Boot to Gecko) pendant mes premières semaines de travail.

C’était déjà passionnant à l’époque, mais ça l’est encore plus aujourd’hui. Firefox OS est littéralement la chose numéro 1 sur laquelle je travaille actuellement et honnêtement j’adore ça. En réalité, je me sens privilégié d’y participer.

Je me suis demandé de nombreuses fois ce que l’on pouvait ressentir en travaillant chez Mozilla durant le lancement initial de Firefox : l’excitation, la passion, la nervosité, l’incapacité d’expliquer à quel point c’est impressionnant et à quel point on devrait s’en préoccuper.

Pour être honnête, je ne pense pas que beaucoup de monde comprenne réellement ce qui se passe avec Firefox OS, ni à quel point son lancement est important. Un peu comme pour Firefox, j’imagine. Pour le moment, je suis heureux d’être chez Mozilla à un instant clef de son histoire.

À couper le souffle

Les personnes qui le comprennent sont les développeurs qui ont essayé le terminal de démonstration qui est montré occasionnellement, lors d’événements avec des Mozilliens. Il n’y a rien que j’apprécie d’avantage que de voir les différentes phases de leurs émotions lorsqu’ils jouent avec les appareils :

  1. D’abord, il y a une légère confusion, quelque chose comme « Pourquoi tu me passes un téléphone Android ? » ;
  2. La confusion est suivie par la réalisation soudaine qu’il ne s’agit pas d’Android mais d’un système en JavaScript ;
  3. Après un court moment, l’excitation leur fait lancer des « oh putain ! » ;
  4. Un instant plus tard, les voilà absorbés à explorer tous les recoins de l’appareil en posant plein de questions ;
  5. Le moment où je leur demande de me rendre l’appareil est accompagné d’une légère réticence et finalement d’un « C’était pas mal du tout, je suis impressionné ! ».

Vous devez penser que j’ai tendance à enjoliver les choses, mais je peux vous assurer que c’est réellement le genre de réaction qu’ont pu avoir les gens auxquels j’ai présenté l’appareil. C’est réellement jouissif.

Ce dont j’ai commencé à me rendre compte, c’est que plus je regarde d’autres personnes s’amuser avec un appareil sous Firefox OS, plus je suis convaincu de sa capacité à changer la donne. C’est comme s’ils s’éclataient avec, sans que j’aie besoin d’intervenir.

Des défis à relever

Il ne serait pas juste de parler de la grandeur de Firefox OS et des points sur lesquels je travaille sans détailler les principaux défis que nous devons relever.

Il y a bien sûr les problèmes classiques : comment gérer un écosystème d’applications qui est libre et sans restrictions ; ou anticiper les problèmes d’interopérabilité des appareils, comme ceux que peut connaître Android.. Ces problèmes sont importants, mais ne m’intéressent pas.

Ce qui m’intéresse le plus, c’est le défi de développer des jeux en HTML5 ; tant pour les performances apparentes que pour les véritables, sur lesquelles les développeurs se plaignent. C’est indéniablement l’un des défis spécifiques à Firefox OS (Android et iOS sont aussi mauvais l’un que l’autre), mais pour le moment, je suis entièrement consacré à Firefox OS et les façons d’améliorer ces points.

Aujourd’hui, la majorité des jeux HTML5 préexistants sur téléphone tournent soit de manière saccadée (0 à 20 images par seconde), ou tout juste fluide (20 à 30 images par secondes). La plupart du temps, ces jeux ne tournent pas à un rythme d’images stable, ce qui rend l’expérience peu plaisante.

Ce qui est intéressant, c’est qu’une grande partie de ces soucis ne semblent pas venir du terminal ou de JavaScript. Il y a quelques jeux intenses, comme Biolab Disaster, qui tournent de manière incroyable, même sur le terminal bas de gamme avec lequel j’effectue les tests (nous parlons ici d’un taux d’images par seconde entre 40 et 60FPS).

Pour moi, il est clair que si les mobiles et les plateformes sont parfois à blames (pas aussi souvent que certains le voudraient), il y a cependant beaucoup de choses que nous apprenons des jeux qui fonctionnent convenablement sur des terminaux bas de gamme, pour voir quelles techniques ils utilisent et comment éduquer au mieux les autres développeurs souhaitant utiliser HTML5 sur téléphone mobile.

Je crois vraiment que des jeux HTML5 gourmands peuvent très bien tourner sur des appareils mobiles, même sur ceux bon marché. Pourquoi suis-je si confiant à propos de ça ? Parce que les gens font déjà des jeux comme ça. Il y a deux choses dans ma vie que je crois sans douter… mes yeux.

Nous en sommes là.

Au-delà du téléphone mobile

Ce qui m’excite le plus à propos de Firefox OS n’a rien à voir avec l’appareil mobile que nous sortons l’année prochaine mais plutôt avec le futur qui nous tend les bras. J’ai abordé ce point auparavant lorsque j’ai parlé de Firefox OS comme un rêve de bidouilleurs, et comment les autres pourraient le récupérer et le développer au delà de la vision qu’en a Mozilla.

La bonne nouvelle est que c’est déjà prêt aujourd’hui. Nous avons déjà un port de Firefox OS sur le Raspberry Pi, ainsi que pour la Pandaboard. Ils ne sont pas parfaits, mais ce qui est génial c’est qu’ils existaient déjà bien avant que Firefox OS voie sa première version sortir.

Vous avez aussi la possibilité de lancer Firefox OS depuis un ordinateur sous Mac, Windows et Linux. Alors qu’il n’est pas possible d’acceder au même matériel qu’avec un appareil mobile, la version pour PC vous permet de bénéficier des autres fonctionnalités (telles que les applications qui tournent dans des processus séparés). En plus, c’est vraiment simple à mettre en place.

Je peux imaginer un futur proche où l’API Gamepad aura été implémentée dans Gecko et pourra être accessible à travers le client PC Firefox OS. Qu’y a t-il d’extraordinaire ? Il y a qu’il n’est pas difficile d’imaginer voir ce client PC être lancé depuis un appareil connecté à un téléviseur, avec un système d’exploitation personnalisé pour utiliser un gamepad plutôt qu’une souris ou un touchpad (ce n’est que du JavaScript).

Ce que vous aurez ici sera le début des consoles de jeux vidéo HTML5, et c’est en fait une chose que je suis impatient d’explorer durant mon temps libre en dehors de Mozilla.

Ce que je veux dire, c’est que nous arrivons à un moment de l’histoire où les ordinateurs peuvent à présent fonctionner avec les technologies que l’on utilise pour créer des sites Web. Que pourrions-nous faire dans un monde rempli de terminaux fonctionnant avec ces technologies, qui pourront tous communiquer en se connectant via les mêmes API ?

J’ai hâte de voir à quoi ce monde ressemblera !

Crédit photo : Rob Hawkes (Creative Commons By-Sa)




Diaspora, le projet qui se voulut aussi gros que Facebook, pas encore mort car libre

Il y a une semaine on nous a annoncé que Diaspora serait désormais livré à la communauté.

Pour rappel Diaspora est le projet d’alternative libre à Facebook mené par des étudiants newyorkais et qui avaient créé le buzz et amassé beaucoup d’argent sur Kickstarter au moment du lancement en 2010.

Il y avait énormément d’attentes autour de ce projet car réussir à se sortir des griffes de Facebook ça n’est pas rien !

Plusieurs versions de l’application ont bien vu le jour, plusieurs dizaines de milliers d’utilisateurs se sont inscrits, mais c’est globalement la déception qui a prévalu. Ils n’ont pas réussi (et englouti l’argent), alors changement de gouvernance, plus de transparence, on donne le tout à la communauté (et qu’elle se débrouille si elle pense que le projet vaut la peine d’être poursuivi). Cela ressemble plus à un renoncement plein d’amertume qu’à un cadeau bienveillant, mais les optimistes répliqueront que c’est la force du libre que de pouvoir continuer l’aventure d’un projet même lorsqu’il se trouve bloqué.

Le billet ci-dessous tente de tirer les leçons de cette histoire et de cet échec.

Échec temporaire ou définitif ? Cela va dépendre justement de la communauté.

Diaspora

Diaspora : un nouveau départ ou une mise en garde du financement participatif ?

Diaspora: A New Beginning or a Crowdfunding Cautionary Tale?

By Paul M. Davis – 29 août 2012 – Shareable.net
(Traduction : boubou, Ward, imada, Gatitac, moedium, xaccrocheur, Penguin, aKa, sheldon, martinien)

Il y a deux ans, quatre étudiants de l’université de New York surfèrent sur le sentiment anti-Facebook et ont récolté via le site Kickstarter plus de 200 000 $ pour créer Diaspora, un réseau social open source.

Les fondateurs ont annoncé lundi qu’ils livraient leur projet à la communauté open source, ce qui va peut-être relancer le développement d’une plate-forme de réseau social au-delà de ce qu’ils ont réussi à créer jusqu’à maintenant. Dans le cas contraire, nous aurions à faire avec un échec patent d’un projet issu du financement participatif (NdT Crowdfunding).

D’une certaine manière, l’histoire de Diaspora est le reflet de la jeunesse de ses créateurs : optimisme sans limite et promesses sans fins ont laissé place au scepticisme, à la déception, aux réactions négatives et même à des tragédies personnelles. Après que la campagne KickStarter a atteint 20 fois son objectif initial, les développeurs furent mis sous une pression extrême de produire un résultat. Les sorties furent repoussées, les messages et la communication devinrent confus. En moins d’un an, le sentiment négatif qui était né durant la campagne de levée de fonds semblait se retourner contre le projet lui-même.

Au milieu de tout le tapage qui a entouré le lancement et le succès de la campagne de Diaspora, un sentiment de scepticisme a commencé à apparaître. Au plus fort de la campagne, des voix importantes comme celle de Clay Shirky ont amplifié les doutes sur la possibilité que Diaspora puisse atteindre son ambitieux objectif d’une livraison de la version alpha à la fin de l’été. La sortie privée de la version alpha eut lieu en novembre 2010 et a reçu un accueil modérément optimiste parmi les donateurs et la presse spécialisée, mais ce délai et les fonctionnalités limitées ont renforcé les arguments de ceux qui doutaient. A partir de mai 2011, des blogs techniques de haut niveau comme TechCrunch commençaient à critiquer le projet comme des vieilles nouvelles et à le qualifier de vaporware.

Confirmant les soupçons des sceptiques, les fondateurs annoncèrent en juillet 2011 qu’après avoir levé 20 fois leur objectif, Diaspora était déficitaire de 238 $ (PDF). En octobre 2011, les fondateurs essayèrent de faire taire les mauvaises rumeurs avec un post sur leur blog intitulé Diaspora : ni vaporware, ni prince Nigérian”. Malheureusement, s’ensuivit rapidement le suicide de Ilya Zhitomirskiy, co-fondateur du projet. En avril dernier, l’équipe Diaspora déclara que « les choses commencent à changer » en partageant des copies d’écrans d’une campagne de hashtag ayant une ressemblance frappante avec le site makr.io, un autre projet récemment annoncé par les mêmes fondateurs de Diaspora.

Puisque le but de Diaspora a toujours été de devenir un véritable projet open source, il est trop tôt pour voir l’annonce de lundi dernier comme un échec. Mais ce transfert open source ressemble plus un renoncement qu’à un cadeau à la communauté.

Alors, à quoi ressemblera le futur de Diaspora ? Dans une interview à BetaBeat, le co-fondateur Max Salzberg a déclaré que « beaucoup de projets open source exploitent la communauté », citant Mozilla et WordPress en exemple. Même s’il est vrai que Mozilla et WordPress s’appuient sur une large communauté de contributeurs, la comparaison de Salzberg ne tient pas car les deux projets cités sont également soutenus par de gros apports financiers, qu’il s’agisse d’argent provenant du Kickbacks de Google (Mozilla) ou des services premium pour les entreprises (WordPress).

Pour envisager ce que pourrait être le futur de Diaspora, il vaut la peine de prendre en considération un projet récent inspiré par un mécontentement similaire des utilisateurs. La plateforme qui suscite actuellement la colère des geeks est Twitter, qui ne cesse de serrer la vis sur l’écosystème du développement en limitant l’accès aux API et en mettant en place une stratégie commerciale qui le fera ressembler beaucoup plus à Facebook qu’à un simple flux de messages de 140 caractères. Ceci a poussé récemment au financement réussi de app.net, un service alternatif lancé d’une manière très différente. Au lieu de construire une plateforme ouverte et décentralisée, ce que les étudiants derrière Diaspora visaient, app.net développe une plateforme sociale centralisée financée par les abonnements des utilisateurs plutôt que par la publicité. Le projet a récemment atteint son objectif de campagne de 500 000 $ par des inscriptions de membres à 50 $, en grande partie grâce à l’approbation tacite des blogueurs influents et des développeurs qui ont été parmi les détracteurs les plus virulents de Twitter ces dernières semaines.

Pour qui est fait Diaspora ?

Malgré les différences fondamentales entre Diaspora et app.net, ils partagent le même problème de base : atteindre l’effet de réseau. Le succès d’un réseau social dépend d’un certain nombre de facteurs : des utilisateurs de la première heure qui sont aussi de vrais partisans, du buzz médiatique, une nouvelle solution à un problème existant, ou, à défaut d’autre chose, de la nouveauté.

Qu’en est-il pour Diaspora ? Cela fait longtemps que le buzz s’est estompé. Et, comme Google l’a découvert avec Plus, ce n’est pas parce que les gens sont « agacés par Facebook » qu’il vont avoir le temps ou l’envie de changer de réseau social, surtout si leur amis ne le font pas.

Lancer un nouveau service social en direction de la geekratie peut sembler pertinent au démarrage à fortiori lorsque le projet est open source. Mais pour que la sauce prenne, il faut aller au-delà des geeks et être aussi rapidement adopté par la masse. Diaspora ne s’adresse-t-il pas avant tout à ceux qui ne sont pas intimidés par les commits Git ou monter une instance Heroku, à ceux, pas assez nombreux, qui ont bien conscience qu’ils vont offrir leurs données personnelles à une société contre un service Web gratuit ? Et dans ce cas, quelles différences fondamentales avec des sites déjà existants comme Slashdot, Github ou Stack Overflow ? De plus, et bien que les caractéristiques sociales de ces services soient souvent limitées, il existe déjà de nombreuses plates-formes de réseaux sociaux open source sur le marché : Drupal, Elgg, Buddypress, Pligg, Mahara, pour en nommer quelques-unes.

Le potentiel de la fédération

La dernière carte à jouer pour Diaspora peut être son architecture fédérée. Dans une époque de services centralisés et financés par la publicité, tels Facebook,Twitter et Google, il y a un attrait certain pour une plateforme sociale fonctionnant sur une architecture décentralisée.

Une telle approche devient plus impérieuse si l’on considère la facilité avec laquelle le gouvernement américain a fermé des sites prétendument coupables d’infraction ces dernières années et comment il peut accéder aux données personnelles d’activistes sur les médias sociaux, comme Malcom Harris de Shareable s’en est aperçu au cours d’un long procès concernant son activité sur Twitter. En théorie, les nœuds d’une plate-forme sociale, qui forment un réseau p2p, pourraient être tissés dans un garage ou un placard et être déconnectés facilement, avec un faible impact sur le réseau.

Mais alors on en revient au problème des effets du réseau : la valeur de Twitter pour le mouvement Occupy ne relevait pas simplement de la communication et de l’organisation mais aussi de la diffusion. Les personnes sur le terrain étaient capables de diffuser des scènes de violence policière en temps réel, non seulement aux autres membres du mouvement sur un quelconque réseau social partagé, mais également au monde entier.

Des réseaux sociaux fédérés existent déjà, tel StatusNet sur lequel repose le rival largement oublié de Twitter, identi.ca. Mais même avec la pleine connaissance des risques de confidentialité de l’utilisation de Twitter ou Facebook, la plupart des activistes d’Occupy ne diffusaient pas vers la poignée de geeks qui postent encore des conseils pour Drupal sur identi.ca. Ils se sont plutôt dirigés là ou l’audience la plus vaste et diversifiée verrait leurs message : Twitter, Facebook et Youtube.

Rien de ceci ne permet de dire qu’une solution fédérée ne peut fonctionner, seulement que les défis sont très grands. Maintenant que Diaspora a été remis entre les mains de la communauté, il est trop tôt pour le déclarer mort. Comme les fondateurs l’ont noté dans leur annonce, le compte Github de Diaspora est actif (tout comme son projet sur Pivotal Tracker).

Je reste d’un optimisme prudent quant à la capacité de la communauté open source à créer quelque chose de grand à partir du code que les fondateurs ont lâché dans la nature. Peut-être que le code existant sera forké et deviendra la base d’un nouveau projet allant bien au delà du Diaspora actuel. Mais quoi qu’il advienne, son développement tumultueux restera comme un récit de mise en garde vis-à-vis du crowdfunding, sur les dangers des promesses qu’on ne peut pas tenir.




Ce que pense Eric Raymond de la clause NC des Creative Commons (pas du bien)

CC NCEric S Raymond est une figure historique du logiciel libre, auteur notamment du désormais culte La Cathédrale et le Bazar.

Il vient de s’exprimer sur la clause NC (non commerciale) des licences Creative Commons et cela a le mérite d’une certaine clarté !

Pour rappel cette clause stipule que « vous n’avez pas le droit d’utiliser cette oeuvre à des fins commerciales » (sans l’autorisation de ou des auteur(s)), ce qui ne la rend pas libre au sens du logiciel libre et qui pose de nombreux problèmes dans la définition et le périmètre de ces fins commerciales.

CC-NC considered harmful

Eric S Raymond – 7 septembre 2012 – Blog personnel
(Traduction : tibs, Dalza, Kiwileaks, zikas, 1erefois)

CC-NC considéré comme dangereux

Je viens de poster le commentaire suivant sur un article du blog de Creative Commons traitant des attributs « Pas d’utilisation commerciale » (NC) et « Pas de modifications » (ND) :

Je parle en tant que fondateur et president honoraire de l’Open Source Initiative. L’option NC dans les licences Creative Commons a toujours été une mauvaise idée et devrait être supprimée.

Ce pourquoi elle devrait être enlevée n’a rien a voir avec aucune profonde philosophie ou politique couramment apportées dans le debat, et tout à voir avec le fait qu’il n’y a pas de critère légal de démarcation pour « activité commerciale ». Cette mauvaise définition se reflète dans les débats pour le terme commercial, qui signifie transaction financière ou lucratif, et c’est l’exacte raison pour laquelle l’Open Source Definition interdit aux licences logicielles open source de disposer de restrictions similaires.

Le groupe fondateur de l’OSI, après avoir étudié la possibilité, a conclu que l’attribut « NC » au sein d’une licence open source créerait une trop grande confusion au regard des droits et obligations, de trop nombreux effets secondaires sur des comportements que nous ne souhaitons pas encourager, et trop d’ouvertures possibles pour les plaideurs compulsifs. Ce qui est uniquement une source de contentieux au sein de notre communauté pourrait se révéler destructeur pour elle si des tribunaux antipathiques venaient à prendre des décisions défavorables, même de faible portée.

Je n’ai vu aucune raison de changer ce jugement et je pense qu’il s’applique à forces égales au Creative Commons. L’option NC est un piège dangereux et devrait être retirée.




Les administrations qui n’utilisent pas de standards ouverts travaillent contre celles qui le font

Issue d’un blog de la Commission européenne dédié à l’interopérabilité, la citation titre de ce billet révèle une fois de plus les difficultés que rencontrent les institutions souhaitant migrer vers le Libre.

Trois exemples, en Allemagne, Hongrie et Belgique, témoignent malheureusement du blocage du processus dont la cause principale est à chercher dans l’adoption antérieure de la suite Microsoft Office et de ses formats fermés (ou faussement ouverts).

Et tout ceci pris sur les deniers publics…

Vinoth Chandar - CC by

La migration des institutions vers l’open source est entravée par des problèmes d’interopérabilité


Interoperability problems frustrate authorities’ move to open source

Gijs Hillenius – 20 juillet 2012 – Joinup (European Commission)
(Traduction Framalang : Poupoul2, Martin, Quentin)

Les dépendances aux logiciels propriétaires des gouvernements européens, nationaux et locaux continuent de freiner les municipalités qui essaient de se séparer des carcans de leurs éditeurs en passant à l’open source. On trouve des exemples récents dans les municipalités de Fribourg en Allemagne, de Miskolcs en Hongrie et de Schoten en Belgique.

Le principal problème dans ces trois municipalités est l’interopérabilité des documents. Ce qui est grave, c’est que cela a amené la ville allemande de Fribourg à reconsidérer son usage actuel de la suite bureautique open source LibreOffice. Elle est en train d’étudier le retour à l’omniprésente suite bureautique propriétaire. Un porte-parole de la ville a annoncé plus tôt dans la semaine qu’une étude des problèmes de la suite bureautique sera livrée au conseil municipal en septembre.

La dépendance aux formats de documents et aux suites bureautiques propriétaires de toutes les autres administrations publiques est également la cause de problèmes pour la ville de Miskolcs. La ville hongroise utilise OpenOffice, une alternative à LibreOffice. Dans une étude que Joinup publiera dans les tous prochains jours, les officiels de la ville disent que dans quelques cas, l’administration est contrainte de revenir à la suite propriétaire, pour s’assurer que les documents et les macros embarquées soient compatibles : « Nous aimerions pouvoir demander à nos partenaires d’arrêter de nous envoyer des documents contenant des macros. La leçon que nous avons apprise ici est que des facteurs externes rendent impossible la migration totale vers des logiciels open source. »

Le même problème freine la ville belge de Schoten, confirme Jan Verlinder, le chef du département informatique de la ville. « La majorité des administrations publiques prend la voie facile et continue d’utiliser et de mettre à jour ses logiciels propriétaires. Les responsables de ces organisations informatiques ne semblent pas se préoccuper du fait qu’il s’agit de décisions coûteuses. En plus des coûts immédiats, cela force également leurs organisations à payer pour les mises à jours suivantes ».

Cependant, les administrations publiques prennent progressivement conscience des coûts du verrouillage des éditeurs, selon Verlinden. « Nous sommes de plus en plus approchés par d’autres gouvernements qui veulent également utiliser de l’open source pour résoudre ce problème ».

Verlinden : « Mais en réalité, les administrations qui n’utilisent pas de standards ouverts travaillent contre celles qui le font. »

« Changer pour un format de document ne dépendant pas d’un seul éditeur serait un excellent premier pas. Ça ne réclame même pas beaucoup de modifications aux logiciels ». En 2006, le gouvernement fédéral belge a rendu obligatoire l’utilisation d’un tel format, l’Open Document Format pour les documents échangés entre les administrations publiques « En pratique, il est à peine utilisé », fait remarquer Verlinden.

Crédit photo : Vinoth Chandar (Creative Commons By)




Madame, Monsieur le Député, pourquoi il est important de faire le choix du Libre

Signal fort et beau symbole, en 2007 il avait été décidé de passer les postes des députés sous GNU/Linux Ubuntu et OpenOffice.org (cf ces témoignages). Arrive aujourd’hui le temps du renouvellement et les députés, fraîchement élu(e)s ou réélu(e)s, ont le choix du choix, avec Windows ou Ubuntu et Microsoft Office ou LibreOffice.

François Revol est un acteur bien connu de la communauté francophone du logiciel libre. Il fait ici acte de citoyenneté en prenant le temps d’adresser une lettre détaillée et personnalisée à son député sur ce sujet à ses yeux bien plus important qu’il n’y paraît. Nous vous invitons à vous en inspirer pour en faire de même, si vous partagez ses arguments et sa préoccupation.

Nous ne souhaitons pas qu’une assemblée nationale plus rose devienne moins libre.

Takato Marui - CC by-sa

Objet : Système d’exploitation de votre ordinateur

Madame, Monsieur le Député,

Si ce n’est déjà fait, et que personne n’a choisi à votre place, vous allez devoir prendre une décision très importante, que vous pourrez considérer comme anodine mais qui pourtant est cruciale.

Pour cette législature, conformément à la demande de la questure, vous avez le choix du système d’exploitation (SE) qui sera utilisé sur votre ordinateur. La législature précédente avait permis un énorme progrès par l’installation de GNU/Linux[1] sur toutes les machines des députés auparavant sous Windows, mettant ainsi à leur disposition un système plus éthique, plus économique, plus flexible, et participant à restaurer une certaine indépendance européenne dans le secteur du logiciel. Il semble au contraire pour cette législature, pour certaines raisons obscures et surtout exprimées bien tardivement, qu’il ait été décidé de vous laisser le choix. L’histoire dira, et surtout votre choix, si c’est un recul ou un progrès, et si vous avez usé sagement de ce qui pour beaucoup d’entre nous est encore un luxe, puisque précieux mais trop peu répandu.

En effet, malgré l’interdiction par la loi de la vente liée[2], le choix du système d’exploitation lors de l’achat d’un ordinateur par un particulier relève encore du plus rare des luxes, réservé aux seules entreprises. Si l’on en croit les revendeurs et fabricants, le particulier est simplement trop stupide pour faire un choix éclairé. L’excuse d’une complexité accrue de production est également caduque, les offres existantes pour les entreprises montrant la viabilité de proposition du choix. En fait il s’agit surtout de préserver des monopoles établis, ceux d’une entreprise américaine bien connue pour avoir été sanctionnée par la Commission européenne pour cette même raison.

Pourtant le choix du système d’exploitation est important à plusieurs titres, même en laissant l’éthique de côté, ayant même des conséquences sur la relocalisation d’emplois.

Ainsi par exemple le choix d’un SE libre permet, en plus de répondre aux questions d’indépendance, d’interopérabilité, et d’adaptabilité, de générer une activité de développement logiciel locale nécessaire à une adaptation au plus près des besoins, adaptation impossible avec du logiciel propriétaire qui dépend entièrement du bon vouloir de l’éditeur. En effet, le logiciel libre, par essence, est distribué avec son code source et la liberté de modification, permettant ainsi la création et la mise en concurrence d’expertises non subordonnées à l’éditeur original. La mutualisation des coûts de production des logiciels libres participe aussi de la création de biens communs. Comme nombre de sujets connexes liés au numérique, le logiciel libre transcende donc le bipartisme.

Certains d’entre vous ont d’ailleurs signé le Pacte Logiciel Libre lors de la campagne, d’autres lors de précédentes législatures ont voté pour ou contre certains projets de loi dommageables au logiciel libre, comme DADVSI ou HADOPI, créant ainsi du tracas y compris à des universitaires français, comme les auteurs du logiciel de lecture vidéo VLC, obligés de demander à la HADOPI comment contourner les DRM[3] du BluRay. La HADOPI n’a d’ailleurs pas été d’une grande utilité pour résoudre la violation de la licence de FFmpeg/LibAV, logiciel libre auquel j’ai modestement contribué, commise par un sous-traitant d’Orange4 pendant plus d’un an. Il s’agit pourtant ici également de protection des auteurs. Il est intéressant de plus de noter qu’Orange comptait parmi les fiers sponsors officiels de l’inutile sommet « eG8 » où la question de la protection des auteurs a été abordée. La Commission européenne n’étant d’ailleurs pas en reste, tant par sa tentative de faire adopter le traité ACTA[4] que la directive sur le brevet unitaire qui bien qu’utile sur le principe laisse entrer le logiciel dans le champ de la brevetabilité, ce qui ne saurait être plus grotesque puisque le logiciel est une expression de la pensée humaine et donc naturellement sous le régime du droit d’auteur.

Tous ces problèmes ont en commun le manque de considération des « acteurs », entreprises – pourtant grandes utilisatrices de logiciel libre – comme législateur. Ceci vient autant de la perception erronée de l’informatique comme un sujet purement technique et économique, que des effets de la vente liée, effets devenant rétroactivement causes de renforcement des monopoles. Le grand public est en effet gardé dans l’ignorance, croyant que le choix qui est fait pour lui est dans son intérêt, que « ça marche comme ça », et que « Linux ça marche pas », ce qui dans la plupart des cas est dû au manque de support matériel, lui-même résultant de l’indisponibilité des spécifications techniques du matériel, puisque bien sûr les fabricants préfèrent distribuer plutôt des pilotes pour Windows que les spécifications, qui sont pourtant le « manuel utilisateur » du matériel par le logiciel et devraient être publiques, ceci étant justement la conséquence du monopole déjà évoqué.

L’ironie de la situation étant que même Microsoft a été victime de cet état de fait, puisque lors de la sortie de Windows Vista, certains périphériques fournis uniquement avec des pilotes pour les versions précédentes de Windows n’étaient plus utilisables, mettant ainsi en colère les utilisateurs devant néanmoins acheter Windows Vista avec leur nouvelle machine, sans toutefois pouvoir utiliser certains périphériques pourtant neufs mais dont le fabricant refusait de fournir un pilote mis à jour.

Quand aux très rares matériels « certifiés Linux » disponibles, ils sont généralement seulement sommairement testés une fois pour toute certification, et de plus vraiment un « luxe » au vu des prix pratiqués.

Malgré des campagnes d’information au public de la part d’associations de promotion du logiciel libre comme l’April ou l’AFUL, ainsi que plusieurs procès gagnés par des particuliers, l’inaction de la DGCCRF est manifeste, et le status quo demeure depuis maintenant plus d’une décennie.

En effet, le problème de la vente liée, loin d’être récent, est par exemple une des causes majeures de la fermeture en 2001 de Be, Inc., éditeur du système d’exploitation BeOS, que j’ai utilisé pendant 10 ans. Déjà à l’époque Microsoft s’imposait sur les ordinateurs PC par le verrouillage du processus de démarrage, et en interdisant aux revendeurs par des contrats secrets d’installer un autre SE, la seule tentative de Be, Inc. de fournir des ordinateurs pré-installés avec son système ayant été torpillée, Hitachi se contentant alors de laisser BeOS sur le disque dur mais sans le rendre disponible au démarrage, ni même documenté et donc de facto inaccessible.

Plus tard, un éditeur de logiciel allemand ayant tenté de reprendre le développement de ce même système a également dû fermer, toujours par manque de ventes et à cause du monopole de fait de Microsoft sur le marché, me causant au passage un licenciement économique.

C’est d’ailleurs l’échec commercial de BeOS qui a conduit à la création du système d’exploitation libre Haiku auquel je contribue actuellement, dans l’idée de perpétuer son originalité, comme on tenterait de préserver une espèce nécessaire à la technodiversité. Pourtant, même si c’est un projet plus ludique que commercial à l’heure actuelle, la vente liée nous pose problème tout comme aux auteurs de Linux. En effet, la non disponibilité des spécifications matérielles chez certains fabricants et de nombreux constructeurs rend impossible l’écriture des pilotes de périphériques pourtant nécessaire à leur utilisation.

Cet état de fait est d’ailleurs une régression. En effet à une certaine époque la plupart des machines électroniques (téléviseurs, électrophones, mais aussi ordinateurs) étaient livrées avec les schémas complets. J’ai ainsi par exemple, dans le manuel utilisateur de mon premier ordinateur (un ORIC Atmos), la description de son fonctionnement interne et toute la documentation permettant d’interfacer du matériel, et l’importateur avait même publié les plans. L’obsolescence programmée a pris le pas depuis lors.

Ce luxe donc, auquel vous avez droit, m’a été refusé à l’achat de mon dernier ordinateur portable. Non seulement le fabricant refuse de rembourser la licence de Windows 7 que je n’ai jamais demandée, mais il ne m’a toujours pas communiqué les spécifications nécessaires à l’adaptation du système que je désire utiliser et auquel je contribue. J’en suis donc réduit lorsque je tente de l’utiliser actuellement à une résolution graphique inférieure à ce que l’écran permet et sans aucune accélération matérielle, pas de connexion réseau, et l’impossibilité de produire du son, sans parler des fonctions moins essentielles, que pourtant j’ai payées. Pourtant, ainsi que je l’ai dit, ces spécifications constituent le « manuel utilisateur » du matériel par le logiciel, et forment donc en ce qui me concerne, des «caractéristiques essentielles »[5]. D’ailleurs, cette même machine avec GNU/Linux que j’utilise également cause régulièrement des problèmes pour la même raison, à savoir la non disponibilité des spécifications qui empêche la correction d’un bogue du pilote vidéo pourtant documenté depuis plus d’un an.

La vente liée cause du tort également à des éditeurs français, comme Mandriva, qui publiait une distribution de GNU/Linux depuis 1998, initialement appelée « Mandrake Linux », que j’ai d’ailleurs un temps utilisée, mais n’a pas réussi à s’imposer et a donc disparu récemment. On ne peu que déplorer le résultat de cette concurrence pas vraiment libre et certainement faussée.

Et pourtant le logiciel libre permet de développer de nombreux [modèles économiques différents|http://www.april.org/livre-blanc-des-modele-economiques-du-logiciel-libre], ouvrant des perspectives d’emploi pour des PME innovantes, si la loi ne le défavorise pas.

Par ces temps de crise, il ne serait d’ailleurs pas inutile de s’intéresser aux optimisations fiscales, pour ne pas parler d’évasion, que certaines entreprises multinationales pratiquent, Microsoft en premier mais également Apple. L’absence de détail des prix lors de la vente liée pose d’ailleurs des questions légitimes quand à la répartition de la TVA.

La pratique par Microsoft du verrouillage du processus de démarrage, que j’évoquais plus haut à propos des PC, est d’ailleurs toujours d’actualité puisque bien évidemment les prochaines tablettes « compatibles Windows 8 » devront implémenter obligatoirement le mécanisme dit « SecureBoot », qui au prétexte de limiter les virus rendra totalement impossible l’installation d’un système libre. Et donc alors même que le combat contre la vente liée s’éternise sur les PC, il est presque déjà perdu sur les machines qui les remplaceront bientôt, alors même que ce sont toujours des ordinateurs malgré tout, dont l’utilisateur devrait garder le contrôle, contrôle qui s’exprime en premier sur le choix des logiciels qu’il voudra pouvoir utiliser ou non.

Le choix d’installer Windows s’apparente ainsi plus au non-choix, à un blanc-seing laissé à Microsoft quand au contrôle de votre machine, avec la sécurité qu’on lui connaît. C’est aussi un choix de facilité, au vu de la situation actuelle, mais également la caution d’une situation inacceptable.

Le choix d’installer GNU/Linux, sur une machine de bureau, est avant tout moral et éthique avant d’être pragmatique, alors que sur un serveur il s’impose plus logiquement. C’est pourtant tout autant un choix de sécurité, puisque le code source ouvert garantit le contrôle que l’on a sur le système, comme l’absence de porte dérobée. C’est aussi un choix courageux et téméraire, par l’entrée dans ce qui reste encore une minorité technologiquement discriminée. Mais ce serait aussi un signal fort envers les développeurs qui créent ces logiciels, les utilisateurs confortés dans leur choix difficile, et enfin les fabricants de matériels qui pour certains encore n’ont pas compris qu’il était de leur devoir et de leur intérêt de considérer tous les utilisateurs.

Ne vous y trompez pas, la majorité des problèmes qui pourraient survenir lors de l’utilisation de GNU/Linux ne sont pas de son fait ou des développeurs qui l’ont écrit, mais bien de Microsoft, Apple, et d’autres éditeurs, qui par leur politique de fermeture compliquent inutilement l’interopérabilité entre leur système et les autres, à dessein bien sûr, puisque leur but est le monopole. D’ailleurs il est à prévoir des incompatibilités entre GNU/Linux et l’infrastructure choisie par la questure pour la gestion des courriels, à savoir Microsoft Exchange, bien connu pour ne respecter aucun standard hormis le sien, c’est à dire donc aucun, puisque les formats et protocoles d’Exchange ne sont en rien normalisés ni donc standard (de jure). Alors même que les logiciels de courriel de GNU/Linux respectent de nombreux standards et normes. Pour résumer, dire que GNU/Linux pose problème serait simplement inverser la situation causée par ces monopoles.

Une métaphore que j’utilise depuis des années sans succès, mais pourtant découverte aussi récemment par un juge, s’énonce ainsi :

« La vente liée d’un système d’exploitation avec un ordinateur revient à l’obligation d’embauche d’un chauffeur à l’achat d’une voiture. »

Ceci vous semble absurde ? À moi aussi. C’est pourtant la pratique actuelle.

En tant qu’ingénieur, auteur de logiciels libres, citoyen et électeur, ce sujet me tient à cœur, et il me semble nécessaire qu’au moins la législation actuelle soit appliquée, à défaut d’évoluer. J’espère vous avoir éclairé sur ce choix important qui vous incombe, non dénué de symbole, et qui je le rappelle est un luxe pour le particulier même informé. Je reste à votre disposition pour toute discussion.

Je vous prie d’agréer, Madame, Monsieur le Député, l’expression de ma considération la plus distinguée.

François Revol

Crédit photo : Takato Marui (Creative Commons By-Sa)

Notes

[1] Le système libre GNU fonctionnant sur le noyau Linux, lui aussi libre.

[2] Article L.122-1 du code de la consommation

[3] Digital Rights Management, en français MTP pour « Méthodes Techniques de Protection »

[4] Anti-Counterfeiting Trade Agreement, ou Accord commercial anti-contrefaçon (ACAC)

[5] Au titre de l’article L-111-1 I. du code de la consommation.




Lorsque le code peut tuer ou guérir

La technologie a fait faire à la santé d’extraordinaires progrès. Mais libre ou propriétaire ? Dans le domaine des appareils médicaux pilotés par des logiciels ce choix peut avoir de très lourdes conséquences.

Ici plus qu’ailleurs, sacrifier l’humain sur l’autel du business model ne peut plus être une solution durable dans le temps[1].

Patrick - CC by-nc

Lorsque le code peut tuer ou guérir

When code can kill or cure

Technology Quarterly – 2 juin 2012 – The Economist
(Traduction : balsamic, moala, Isammoc, Otourly, Mnyo, HgO, elquan)

Appliquer le modèle open source à la conception d’appareils médicaux permet d’accroitre la sécurité et stimule l’innovation.

Les pompes SMART délivrent des médicaments parfaitements dosés pour chaque patient. Des défibrilateurs faciles à utiliser peuvent ramener des victimes d’attaque cardiaque d’entre les morts. Les pacemakers et coeurs artificiels maintiennent les gens en vie en s’assurant que la circulation sanguine se déroule sans problème. Les appareils médicaux sont une merveille du monde moderne.

Alors que ces appareils sont devenus de plus en plus efficients, ils deviennent cependant de plus en plus complexes. Plus de la moitié des appareils médicaux vendus aux Etats-Unis (le plus grand marché de la santé) s’appuient sur du logiciel, et souvent en grande quantité. Ainsi le logiciel dans un pacemaker peut nécessiter plus de 80.000 lignes de code, une pompe à perfusion 170.000 lignes et un scanner à IRM (Imagerie à Résonance Magnétique) plus de 7 millions de lignes.

Cette dépendance grandissante vis à vis du logiciel cause des problèmes bien connus de tous ceux qui ont déjà utilisé un ordinateur : bugs, plantages, et vulnérabilités face aux attaques. Les chercheurs de l’université de Patras en Grèce ont découvert qu’un appareil médical sur trois vendu aux États-Unis entre 1995 et 2005 a été rappelé pour défaillance du logiciel. Kevin Fu, professeur d’informatique à l’université du Massachusetts, estime que ce phénomène a affecté plus de 1,5 millions d’appareils individuels depuis 2002. En avril, les chercheurs de la firme de sécurité informatique McAfee ont annoncé avoir découvert un moyen pour détourner une pompe à insuline installée dans le corps d’un patient en injectant l’équivalent de 45 jours de traitement d’un seul coup. Enfin, en 2008, Dr Fu et ses collègues ont publié un article détaillant la reprogrammation à distance d’un défibrillateur implanté.

Or le disfonctionnement du logiciel d’un appareil médical a des conséquences beaucoup plus désastreuses que d’avoir seulement à faire redémarrer votre ordinateur. Durant les années 1980, un bug dans le logiciel des machines de radiothérapie Therac-25 a provoqué une overdose de radiations administrées à plusieurs patients, en tuant au moins cinq. L’Organisation américaine de l’alimentation et des médicaments, l’America’s Food and Drug Administration (FDA), s’est penchée sur le cas des pompes à perfusion qui ont causé près de 20.000 blessures graves et plus de 700 morts entre 2005 et 2009. Les erreurs logicielles étaient le problème le plus fréquemment cité. Si, par exemple, le programme buggé interprète plusieurs fois le même appui sur une touche, il peut administrer une surdose.

En plus des dysfonctionnements accidentels, les appareils médicaux sans fils ou connectés sont également vulnérables aux attaques de hackers malveillants. Dans le document de 2008 du Dr Fu et de ses collègues, il est prouvé qu’un défibrillateur automatique sous-cutané peut être reprogrammé à distance, bloquer une thérapie en cours, ou bien délivrer des chocs non attendus. Le Dr Fu explique que lors des phases de test de leur logiciel, les fabricants d’appareils manquent de culture de la sécurité, culture que l’on peut trouver dans d’autres industries à haut risque, telle que l’aéronautique. Insup Lee, professeur d’Informatique à l’Université de Pennsylvanie, confirme : « Beaucoup de fabricants n’ont pas l’expertise ou la volonté d’utiliser les mises à jour ou les nouveaux outils offerts par l’informatique ».

Personne ne peut évaluer avec certitude l’étendue réelle des dégâts. Les logiciels utilisés dans la majorité des appareils médicaux sont propriétaires et fermés. Cela empêche les firmes rivales de copier le code d’une autre entreprise, ou simplement de vérifier des infractions à la propriété intellectuelle. Mais cela rend aussi la tâche plus ardue pour les experts en sécurité. La FDA, qui a le pouvoir de demander à voir le code source de chaque appareil qu’elle autorise sur le marché, ne le vérifie pas systématiquement, laissant aux constructeurs la liberté de valider leurs propres logiciels. Il y a deux ans, la FDA offrait gratuitement un logiciel « d’analyse statique » aux constructeurs de pompes à perfusion, dans l’espoir de réduire le nombre de morts et de blessés. Mais aucun constructeur n’a encore accepté l’offre de la FDA.

Ouvert à l’étude

Frustrés par le manque de coopération de la part des fabricants, certains chercheurs veulent maintenant rebooter l’industrie des appareils médicaux en utilisant les techniques et modèles open source. Dans les systèmes libres, le code source est librement partagé et peut être visionné et modifié par quiconque souhaitant savoir comment il fonctionne pour éventuellement en proposer une version améliorée. En exposant la conception à plusieurs mains et à plusieurs paires de yeux, la théorie veut que cela conduise à des produits plus sûrs. Ce qui semble bien être le cas pour les logiciels bureautiques, où les bugs et les failles de sécurité dans les applications open source sont bien souvent corrigés beaucoup plus rapidement que dans les programmes commerciaux propriétaires.

Le projet d’une pompe à perfusion générique et ouverte (Generic Infusion Pump), un effort conjoint de l’Université de Pennsylvanie et de la FDA, reconsidère ces appareils à problèmes depuis la base. Les chercheurs commencent non pas par construire l’appareil ou écrire du code, mais par imaginer tout ce qui peut potentiellement mal fonctionner dans une pompe à perfusion. Les fabricants sont appelés à participer, et ils sont plusieurs à le faire, notamment vTitan, une start-up basée aux Etats-Unis et en Inde « Pour un nouveau fabricant, c’est un bon départ » dit Peri Kasthuri, l’un de ses co-fondateurs. En travaillant ensemble sur une plateforme open source, les fabricants peuvent construire des produits plus sûrs pour tout le monde, tout en gardant la possibilité d’ajouter des fonctionnalités pour se différencier de leur concurrents.

Des modèles mathématiques de designs de pompes à perfusion (existantes ou originales) ont été testés vis à vis des dangers possibles, et les plus performantes ont été utilisées pour générer du code, qui a été installé dans une pompe à perfusion de seconde main achetée en ligne pour 20$. « Mon rêve, dit Dave Arnez, un chercheur participant à ce projet, est qu’un hôpital puisse finalement imprimer une pompe à perfusion utilisant une machine à prototypage rapide, qu’il y télécharge le logiciel open source et que l’appareil fonctionne en quelques heures ».

L’initiative Open Source Medical Device de l’université Wisconsin-Madison est d’ambition comparable. Deux physiciens médicaux (NdT: appelés radiophysiciens ou physiciens d’hôpital), Rock Mackie et Surendra Prajapati, conçoivent ainsi une machine combinant la radiothérapie avec la tomographie haute résolution par ordinateur, et la tomographie par émission de positron. Le but est de fournir, à faible coût, tout le nécessaire pour construire l’appareil à partir de zéro, en incluant les spécifications matérielles, le code source, les instructions d’assemblages, les pièces suggérées — et même des recommandations sur les lieux d’achat et les prix indicatifs. La machine devrait coûter environ le quart d’un scanner commercial, la rendant attractive pour les pays en voie de développement, déclare le Dr Prajapati. « Les appareils existants sont coûteux, autant à l’achat qu’à la maintenance » rappelle-t-il, là ou les modèles libres sont plus durables. « Si vous pouvez le construire vous-même, vous pouvez le réparer vous-même. »

Les appareils open source sont littéralement à la pointe de la science médicale. Un robot chirurgien open source nommé Raven, conçu à l’Université de Washington à Seattle fournit une plateforme d’expérimentation abordable aux chercheurs du monde entier en proposant de nouvelles techniques et technologies pour la chirurgie robotique.

Tous ces systèmes open source travaillent sur des problématiques diverses et variées de la médecine, mais ils ont tous un point commun : ils sont encore tous interdit à l’utilisation sur des patients humains vivants. En effet, pour être utilisés dans des centres cliniques, les appareils open source doivent suivre les mêmes longues et coûteuses procédures d’approbation de la FDA que n’importe quel autre appareil médical. Les réglementations de la FDA n’imposent pas encore que les logiciels soient analysés contre les bugs, mais elles insistent sur le présence d’une documentation rigoureuse détaillant leur développement. Ce n’est pas toujours en adéquation avec la nature collaborative et souvent informelle du développement open source.

Le coût élevé de la certification a forcé quelques projets open source à but non lucratif à modifier leur business model. « Dans les années 90, nous développions un excellent système de planning des traitements de radiothérapie et avions essayé de le donner aux autres cliniques, explique le Dr Mackie, mais lorsque la FDA nous a suggéré de faire approuver notre logiciel, l’hôpital n’a pas voulu nous financer. » Il a fondé une société dérivée uniquement pour obtenir l’approbation de la FDA. Cela a pris quatre ans et a couté des millions de dollars. En conséquence, le logiciel a été vendu en tant qu’un traditionnel produit propriétaire fermé.

D’autres tentent de contourner totalement le système de régulation américain. Le robot chirurgical Raven (Corbeau) est destiné à la recherche sur les animaux et les cadavres, quant au scanner de l’Open Source Medical Device, il est conçu pour supporter des animaux de la taille des rats et des lapins. « Néanmoins, déclare le Dr Mackie, rien n’empêche de reprendre le design et de lui faire passer les procédures de certification dans un autre pays. Il est tout à fait envisageable que l’appareil soit utilisé sur des humains dans d’autres parties du monde où la régulation est moins stricte, avance-t-il. Nous espérons que dans un tel cas de figure, il sera suffisamment bien conçu pour ne blesser personne. »

Changer les règles

La FDA accepte progressivement l’ouverture. Le Programme d’interopérabilité des appareils médicaux Plug-and-Play, une initiative de 10 millions de dollars financé par le NIH (l’Institut National de la Santé) avec le support de la FDA, travaille à établir des standards ouverts pour interconnecter les appareils provenant de différents fabricants. Cela signifierait, par exemple, qu’un brassard de pression artérielle d’un certain fabricant pourrait commander à une pompe à perfusion d’un autre fabricant d’arrêter la délivrance de médicament s’il détecte que le patient souffre d’un effet indésirable.

Le framework de coordination des appareils médicaux (Medical Device Coordination Framework), en cours de développement par John Hatcliff à l’Université de l’État du Kansas, est plus intrigant encore. Il a pour but de construire une plateforme matérielle open source comprenant des éléments communs à beaucoup d’appareils médicaux, tels que les écrans, les boutons, les processeurs, les interfaces réseaux ainsi que les logiciels pour les piloter. En connectant différents capteurs ou actionneurs, ce cœur générique pourrait être transformé en des dizaines d’appareils médicaux différents, avec les fonctionnalités pertinentes programmées en tant qu’applications (ou apps) téléchargeables.

À terme, les appareils médicaux devraient évoluer vers des ensembles d’accessoires spécialisés (libres ou propriétaires), dont les composants primaires et les fonctionnalités de sécurité seraient gérés par une plateforme open source. La FDA travaille avec le Dr Hatcliff pour développer des processus de création et de validation des applications médicales critiques.

Dans le même temps, on tend à améliorer la sécurité globale et la fiabilité des logiciels dans les appareils médicaux. Le NIST (Institut national des États-Unis des normes et de la technologie) vient juste de recommander qu’une seule agence, probablement la FDA, soit responsable de l’approbation et de la vérification de la cyber-sécurité des appareils médicaux, et la FDA est en train de réévaluer ses capacités à gérer l’utilisation croissante de logiciels.

De tels changements ne peuvent plus attendre. « Quand un avion s’écrase, les gens le remarquent », dit le Dr Fu. « Mais quand une ou deux personnes sont blessées par un appareil médical, ou même si des centaines sont blessées dans des régions différentes du pays, personne n’y fait attention. » Avec des appareils plus complexes, des hackers plus actifs et des patients plus curieux et impliqués, ouvrir le cœur caché de la technologie médicale prend vraiment ici tout son sens.

Notes

[1] Crédit photo : Patrick (Creative Commons By-Nc)