Il y a quelque chose de magique dans Firefox OS !

Le système d’exploitation Firefox OS peut libérer nos smartphones et autres tablettes en apportant une alternative à Apple et Android, un peu comme l’a fait le navigateur Firefox avec le Web en son temps.

Nous vous proposons ci-dessous le témoignage passionné (et passionnant) d’un de ses développeurs.

Rob Hawkes - CC by-sa

Il y a quelque chose de magique dans Firefox OS

There is something magical about Firefox OS

Rob Hawkes – 12 septembre 2012 – Blog personnel
(Traduction : Un gros collectif de bénévoles nocturnes issus de Framalang, Identi.ca et Twiiter)

Dans ce billet, je parle du projet Firefox OS, ce qu’il signifie, ce que réserve le futur, et ce qu’il a d’un peu magique.

Au cours des quinze derniers mois, j’ai passé de plus en plus de temps à travailler sur le dernier projet de Mozilla : Firefox OS. Rapidement, je suis tombé amoureux de ce projet et de ses valeurs, à un point que je n’avais jamais connu pour une nouvelle plateforme.

Soyons clairs ; Firefox OS est le début de quelque chose d’énorme. C’est une révolution en marche. Une bouffée d’air frais. Un point culminant de la technologie. C’est magique, et ça va tout changer.

Qu’est-ce-que Firefox OS ?

Pour ceux qui seraient un peu perdus, voici l’essentiel en deux mots :

Firefox OS est un nouveau système d’exploitation pour mobile développé par le projet de Mozilla : Boot to Gecko (B2G). Il utilise un noyau Linux et boote sur un environnement basé sur Gecko, ce qui permet aux utilisateurs de lancer des applications entièrement développées en HTML, JavaScript, et d’autres API Web ouvertes.

Mozilla Developer Network

En bref, Firefox OS consiste à récupérer les technologies dans les coulisses du Web, telles que JavaScript, et à les utiliser pour produire un système d’exploitation entier. Prenons quelques instants pour y réfléchir… un système d’exploitation pour mobile basé sur JavaScript !

Pour ce faire, une version légèrement modifiée de Gecko (le moteur derrière Firefox) a été créée dans le but d’y intégrer les différentes API JavaScript relatives à la téléphonie, comme WebTelephony pour faire des appels, WebSMS pour envoyer des messages, et la Vibration API pour… faire vibrer le téléphone.

Mais tout génial qu’il soit, Firefox OS représente plus qu’un ensemble de technologies Web dernier cris utilisées de façon démente. C’est aussi l’association de nombreux autres projets de Mozilla autour d’un concept unique — le Web en tant que plateforme. Certains de ces projets intègrent nos initiatives Open Web Apps et Persona, notre solution d’authentification sur le web (anciennement BrowserID). C’est absolument fascinant de voir tous ces différents projets de Mozilla s’unir de façon cohérente en partageant une seule et même vision.

Je n’irai pas plus loin dans la description du projet vu que le but de cet article n’est pas de le faire dans le détail, même si de plus amples informations peuvent être trouvées sur les pages de Firefox OS sur MDN. Je vous invite vivement à les lire.

Pourquoi Firefox OS ?

Vous pouvez vous dire « Ça a l’air bien, mais pourquoi utiliser JavaScript pour faire un téléphone ? » Et vous avez raison, c’est une question réellement importante. La bonne nouvelle est qu’il y a de nombreuses raisons à cela, autres que de faire la joie des développeurs Web.

Les deux principales raisons sont que Firefox OS répond à un manque dans le marché du téléphone, et qu’il constitue une alternative au paysage privativeur, restreint et contraignant du marché actuel.

Combler un manque dans le marché du téléphone

Ce n’est un secret pour personne : les smartphones sont ridiculement chers, même dans les régions du monde dont le niveau de vie est considéré comme élevé. Mais si vous les trouvez chers dans les pays qui ont les moyens de se les offrir, alors pensez un peu à ce que représente un iPhone 4S 16 Go qui vaut 615 £ dans un pays émergent comme le Brésil. C’est 100 £ plus cher que le même téléphone en Angleterre !

En fait, ces prix plus élevés au Brésil sont principalement dus aux fortes taxes d’importation. Apple semble vouloir éviter ceci dans le futur en construisant des usines dans le pays. Quoi qu’il en soit, cela montre bien que les appareils haut de gamme et hors de prix ne sont pas toujours une solution pour tous les pays. Laissons de côté le fait que dans certaines sociétés vous n’avez pas forcement l’envie d’exhiber publiquement un téléphone qui a le même prix qu’une petite voiture.

A l’heure actuelle, que faites-vous si vous souhaitez acheter un smartphone sans débourser une somme astronomique ? Vous pouvez vous tourner vers des terminaux Android d’entrée de gamme, mais ils sont souvent bien trop lents.

Heureusement, c’est là que Firefox OS intervient.

Le but de Firefox OS n’est pas de rivaliser avec des appareils haut de gamme mais d’offrir des smartphones milieu de gamme au prix de l’entrée de gamme. Ce n’est pas une plaisanterie.

Bonnie Cha

Firefox OS répond parfaitement aux attentes du marché : il offre la même expérience d’utilisation sur un matériel d’entrée de gamme que le fait Android sur du matériel plus performant. Et ce n’est pas une blague.

Par exemple, je teste en ce moment même des jeux écrits en JavaScript sur un terminal fonctionnant sous Firefox OS et qui coûte une soixantaine d’euros (clairement, un appareil très bas de gamme). On pourrait donc s’attendre à ce qu’ils fonctionnent très mal, mais non seulement ils tournent bien plus rapidement que les mêmes jeux s’exécutant dans un navigateur internet Android (Firefox ou Chrome) sur le même appareil, mais ils tournent même aussi vite, si ce n’est plus, que les mêmes jeux sous un navigateur Android sur une machine bien plus performante qui coûte 4 ou 5 fois plus cher.

Pourquoi de telles améliorations de performance par rapport aux navigateurs sur Android pour des appareils identiques ? Grâce à l’absence de couche intermédiaire entre Gecko et le hardware, permettant à des choses comme le JavaScript de tourner à plein potentiel, et en finir avec le mythe du JavaScript lent !

De telles performances de JavaScript sur un matériel aussi abordable est une des raisons qui me font penser que Firefox OS annonce le début de quelque chose d’énorme.

Je dois cependant préciser que Mozilla n’est pas forcément sur le point de lancer un appareil à 60 € : il s’agit seulement d’un terminal en particulier que nous utilisons pour le développement et les tests.

Fournir une alternative : une plateforme ouverte

La seconde réponse à la question « Pourquoi Firefox OS ? » est qu’il s’agit non seulement de créer une plateforme mobile alternative et ouverte, mais également d’essayer d’agir pour influencer les grands acteurs du mobile à changer les choses.

La mission de Mozilla depuis ses débuts en 1998, d’abord en tant que projet autour d’un logiciel, puis en tant que fondation et entreprise, a consisté à fournir des technologies ouvertes capables de rivaliser avec les produits des entreprises dominantes.

Steve Lohr

Firefox a bouleversé le marché du navigateur et montré aux utilisateurs qu’il existe une alternative. Et c’est ce que Mozilla s’efforce de reproduire avec Firefox OS, en permettant à chacun de pouvoir choisir sa façon d’utiliser le Web.

Cette fois-ci, c’est le Web mobile qui est menacé. Pas par Microsoft, mais par Apple et Google, qui sont les plateformes dominantes pour smartphones. Avec leurs applications natives, leurs catalogues d’applications propriétaires, et leurs règles imposées aux développeurs, Apple et Google relèguent le Web à l’arrière-plan.

Thomas Claburn

Sur les téléphones, le domaine qui nécessite le plus de travail est la portabilité des applications…

Avec l’excitation autour des applications mobiles, ils donnent l’impression d’être en retard sur un point : ils restreignent leurs utilisateurs à un système d’exploitation particulier, et aux appareils qui le supportent. Le Web, au contraire, a évolué de façon à ce que le contenu soit ressenti de la même façon, quel que soit le matériel. Mozilla, créateur du navigateur Web Firefox, est déterminé à rendre cela vrai également pour les smartphones.

Don Clark

Ce que Firefox OS cherche à faire, c’est utiliser l’omniprésence du Web pour créer une plateforme qui permet aux applications d’être utilisées aussi bien sur un téléphone portable, un ordinateur, une tablette, ou depuis n’importe quel appareil possédant un navigateur. Ne serait-ce pas génial de pouvoir reprendre sur votre ordinateur la partie d’Angry Birds à laquelle vous étiez en train de jouer sur votre téléphone ? Moi, j’adorerais !

Un rêve à portée de bidouille pour les développeurs

Une dernière raison pour laquelle Firefox OS est nécessaire, c’est que nous n’avons pour le moment aucune plateforme mobile aussi bidouillable (NdT hackable) (il est plus ou moins possible de personnaliser Android, mais ce n’est pas si facile).

Comme Firefox OS est construit avec HTML, JavaScript et CSS, vous n’avez besoin que de connaissances élémentaires en développement Web pour changer complètement l’expérience offerte par l’appareil. En éditant une simple ligne de CSS, vous pouvez totalement modifier l’apparence des icônes de l’écran d’accueil ; ou encore, vous pouvez ré-écrire les fichiers internes JavaScript qui gèrent les appels téléphoniques.

Il s’agit réellement d’une plateforme pour les développeurs et je suis impatient de voir jusqu’à quel point elle sera amenée au-delà de la vision de Mozilla.

Un timing parfait

S’il y a quelque chose dont je suis conscient depuis mon arrivée chez Mozilla il y a un an et demi, c’est à quel point je suis chanceux d’être ici pour le démarrage du projet Firefox OS. Si je me souviens bien, le projet a été annoncé (sous le nom Boot to Gecko) pendant mes premières semaines de travail.

C’était déjà passionnant à l’époque, mais ça l’est encore plus aujourd’hui. Firefox OS est littéralement la chose numéro 1 sur laquelle je travaille actuellement et honnêtement j’adore ça. En réalité, je me sens privilégié d’y participer.

Je me suis demandé de nombreuses fois ce que l’on pouvait ressentir en travaillant chez Mozilla durant le lancement initial de Firefox : l’excitation, la passion, la nervosité, l’incapacité d’expliquer à quel point c’est impressionnant et à quel point on devrait s’en préoccuper.

Pour être honnête, je ne pense pas que beaucoup de monde comprenne réellement ce qui se passe avec Firefox OS, ni à quel point son lancement est important. Un peu comme pour Firefox, j’imagine. Pour le moment, je suis heureux d’être chez Mozilla à un instant clef de son histoire.

À couper le souffle

Les personnes qui le comprennent sont les développeurs qui ont essayé le terminal de démonstration qui est montré occasionnellement, lors d’événements avec des Mozilliens. Il n’y a rien que j’apprécie d’avantage que de voir les différentes phases de leurs émotions lorsqu’ils jouent avec les appareils :

  1. D’abord, il y a une légère confusion, quelque chose comme « Pourquoi tu me passes un téléphone Android ? » ;
  2. La confusion est suivie par la réalisation soudaine qu’il ne s’agit pas d’Android mais d’un système en JavaScript ;
  3. Après un court moment, l’excitation leur fait lancer des « oh putain ! » ;
  4. Un instant plus tard, les voilà absorbés à explorer tous les recoins de l’appareil en posant plein de questions ;
  5. Le moment où je leur demande de me rendre l’appareil est accompagné d’une légère réticence et finalement d’un « C’était pas mal du tout, je suis impressionné ! ».

Vous devez penser que j’ai tendance à enjoliver les choses, mais je peux vous assurer que c’est réellement le genre de réaction qu’ont pu avoir les gens auxquels j’ai présenté l’appareil. C’est réellement jouissif.

Ce dont j’ai commencé à me rendre compte, c’est que plus je regarde d’autres personnes s’amuser avec un appareil sous Firefox OS, plus je suis convaincu de sa capacité à changer la donne. C’est comme s’ils s’éclataient avec, sans que j’aie besoin d’intervenir.

Des défis à relever

Il ne serait pas juste de parler de la grandeur de Firefox OS et des points sur lesquels je travaille sans détailler les principaux défis que nous devons relever.

Il y a bien sûr les problèmes classiques : comment gérer un écosystème d’applications qui est libre et sans restrictions ; ou anticiper les problèmes d’interopérabilité des appareils, comme ceux que peut connaître Android.. Ces problèmes sont importants, mais ne m’intéressent pas.

Ce qui m’intéresse le plus, c’est le défi de développer des jeux en HTML5 ; tant pour les performances apparentes que pour les véritables, sur lesquelles les développeurs se plaignent. C’est indéniablement l’un des défis spécifiques à Firefox OS (Android et iOS sont aussi mauvais l’un que l’autre), mais pour le moment, je suis entièrement consacré à Firefox OS et les façons d’améliorer ces points.

Aujourd’hui, la majorité des jeux HTML5 préexistants sur téléphone tournent soit de manière saccadée (0 à 20 images par seconde), ou tout juste fluide (20 à 30 images par secondes). La plupart du temps, ces jeux ne tournent pas à un rythme d’images stable, ce qui rend l’expérience peu plaisante.

Ce qui est intéressant, c’est qu’une grande partie de ces soucis ne semblent pas venir du terminal ou de JavaScript. Il y a quelques jeux intenses, comme Biolab Disaster, qui tournent de manière incroyable, même sur le terminal bas de gamme avec lequel j’effectue les tests (nous parlons ici d’un taux d’images par seconde entre 40 et 60FPS).

Pour moi, il est clair que si les mobiles et les plateformes sont parfois à blames (pas aussi souvent que certains le voudraient), il y a cependant beaucoup de choses que nous apprenons des jeux qui fonctionnent convenablement sur des terminaux bas de gamme, pour voir quelles techniques ils utilisent et comment éduquer au mieux les autres développeurs souhaitant utiliser HTML5 sur téléphone mobile.

Je crois vraiment que des jeux HTML5 gourmands peuvent très bien tourner sur des appareils mobiles, même sur ceux bon marché. Pourquoi suis-je si confiant à propos de ça ? Parce que les gens font déjà des jeux comme ça. Il y a deux choses dans ma vie que je crois sans douter… mes yeux.

Nous en sommes là.

Au-delà du téléphone mobile

Ce qui m’excite le plus à propos de Firefox OS n’a rien à voir avec l’appareil mobile que nous sortons l’année prochaine mais plutôt avec le futur qui nous tend les bras. J’ai abordé ce point auparavant lorsque j’ai parlé de Firefox OS comme un rêve de bidouilleurs, et comment les autres pourraient le récupérer et le développer au delà de la vision qu’en a Mozilla.

La bonne nouvelle est que c’est déjà prêt aujourd’hui. Nous avons déjà un port de Firefox OS sur le Raspberry Pi, ainsi que pour la Pandaboard. Ils ne sont pas parfaits, mais ce qui est génial c’est qu’ils existaient déjà bien avant que Firefox OS voie sa première version sortir.

Vous avez aussi la possibilité de lancer Firefox OS depuis un ordinateur sous Mac, Windows et Linux. Alors qu’il n’est pas possible d’acceder au même matériel qu’avec un appareil mobile, la version pour PC vous permet de bénéficier des autres fonctionnalités (telles que les applications qui tournent dans des processus séparés). En plus, c’est vraiment simple à mettre en place.

Je peux imaginer un futur proche où l’API Gamepad aura été implémentée dans Gecko et pourra être accessible à travers le client PC Firefox OS. Qu’y a t-il d’extraordinaire ? Il y a qu’il n’est pas difficile d’imaginer voir ce client PC être lancé depuis un appareil connecté à un téléviseur, avec un système d’exploitation personnalisé pour utiliser un gamepad plutôt qu’une souris ou un touchpad (ce n’est que du JavaScript).

Ce que vous aurez ici sera le début des consoles de jeux vidéo HTML5, et c’est en fait une chose que je suis impatient d’explorer durant mon temps libre en dehors de Mozilla.

Ce que je veux dire, c’est que nous arrivons à un moment de l’histoire où les ordinateurs peuvent à présent fonctionner avec les technologies que l’on utilise pour créer des sites Web. Que pourrions-nous faire dans un monde rempli de terminaux fonctionnant avec ces technologies, qui pourront tous communiquer en se connectant via les mêmes API ?

J’ai hâte de voir à quoi ce monde ressemblera !

Crédit photo : Rob Hawkes (Creative Commons By-Sa)




Diaspora, le projet qui se voulut aussi gros que Facebook, pas encore mort car libre

Il y a une semaine on nous a annoncé que Diaspora serait désormais livré à la communauté.

Pour rappel Diaspora est le projet d’alternative libre à Facebook mené par des étudiants newyorkais et qui avaient créé le buzz et amassé beaucoup d’argent sur Kickstarter au moment du lancement en 2010.

Il y avait énormément d’attentes autour de ce projet car réussir à se sortir des griffes de Facebook ça n’est pas rien !

Plusieurs versions de l’application ont bien vu le jour, plusieurs dizaines de milliers d’utilisateurs se sont inscrits, mais c’est globalement la déception qui a prévalu. Ils n’ont pas réussi (et englouti l’argent), alors changement de gouvernance, plus de transparence, on donne le tout à la communauté (et qu’elle se débrouille si elle pense que le projet vaut la peine d’être poursuivi). Cela ressemble plus à un renoncement plein d’amertume qu’à un cadeau bienveillant, mais les optimistes répliqueront que c’est la force du libre que de pouvoir continuer l’aventure d’un projet même lorsqu’il se trouve bloqué.

Le billet ci-dessous tente de tirer les leçons de cette histoire et de cet échec.

Échec temporaire ou définitif ? Cela va dépendre justement de la communauté.

Diaspora

Diaspora : un nouveau départ ou une mise en garde du financement participatif ?

Diaspora: A New Beginning or a Crowdfunding Cautionary Tale?

By Paul M. Davis – 29 août 2012 – Shareable.net
(Traduction : boubou, Ward, imada, Gatitac, moedium, xaccrocheur, Penguin, aKa, sheldon, martinien)

Il y a deux ans, quatre étudiants de l’université de New York surfèrent sur le sentiment anti-Facebook et ont récolté via le site Kickstarter plus de 200 000 $ pour créer Diaspora, un réseau social open source.

Les fondateurs ont annoncé lundi qu’ils livraient leur projet à la communauté open source, ce qui va peut-être relancer le développement d’une plate-forme de réseau social au-delà de ce qu’ils ont réussi à créer jusqu’à maintenant. Dans le cas contraire, nous aurions à faire avec un échec patent d’un projet issu du financement participatif (NdT Crowdfunding).

D’une certaine manière, l’histoire de Diaspora est le reflet de la jeunesse de ses créateurs : optimisme sans limite et promesses sans fins ont laissé place au scepticisme, à la déception, aux réactions négatives et même à des tragédies personnelles. Après que la campagne KickStarter a atteint 20 fois son objectif initial, les développeurs furent mis sous une pression extrême de produire un résultat. Les sorties furent repoussées, les messages et la communication devinrent confus. En moins d’un an, le sentiment négatif qui était né durant la campagne de levée de fonds semblait se retourner contre le projet lui-même.

Au milieu de tout le tapage qui a entouré le lancement et le succès de la campagne de Diaspora, un sentiment de scepticisme a commencé à apparaître. Au plus fort de la campagne, des voix importantes comme celle de Clay Shirky ont amplifié les doutes sur la possibilité que Diaspora puisse atteindre son ambitieux objectif d’une livraison de la version alpha à la fin de l’été. La sortie privée de la version alpha eut lieu en novembre 2010 et a reçu un accueil modérément optimiste parmi les donateurs et la presse spécialisée, mais ce délai et les fonctionnalités limitées ont renforcé les arguments de ceux qui doutaient. A partir de mai 2011, des blogs techniques de haut niveau comme TechCrunch commençaient à critiquer le projet comme des vieilles nouvelles et à le qualifier de vaporware.

Confirmant les soupçons des sceptiques, les fondateurs annoncèrent en juillet 2011 qu’après avoir levé 20 fois leur objectif, Diaspora était déficitaire de 238 $ (PDF). En octobre 2011, les fondateurs essayèrent de faire taire les mauvaises rumeurs avec un post sur leur blog intitulé Diaspora : ni vaporware, ni prince Nigérian”. Malheureusement, s’ensuivit rapidement le suicide de Ilya Zhitomirskiy, co-fondateur du projet. En avril dernier, l’équipe Diaspora déclara que « les choses commencent à changer » en partageant des copies d’écrans d’une campagne de hashtag ayant une ressemblance frappante avec le site makr.io, un autre projet récemment annoncé par les mêmes fondateurs de Diaspora.

Puisque le but de Diaspora a toujours été de devenir un véritable projet open source, il est trop tôt pour voir l’annonce de lundi dernier comme un échec. Mais ce transfert open source ressemble plus un renoncement qu’à un cadeau à la communauté.

Alors, à quoi ressemblera le futur de Diaspora ? Dans une interview à BetaBeat, le co-fondateur Max Salzberg a déclaré que « beaucoup de projets open source exploitent la communauté », citant Mozilla et WordPress en exemple. Même s’il est vrai que Mozilla et WordPress s’appuient sur une large communauté de contributeurs, la comparaison de Salzberg ne tient pas car les deux projets cités sont également soutenus par de gros apports financiers, qu’il s’agisse d’argent provenant du Kickbacks de Google (Mozilla) ou des services premium pour les entreprises (WordPress).

Pour envisager ce que pourrait être le futur de Diaspora, il vaut la peine de prendre en considération un projet récent inspiré par un mécontentement similaire des utilisateurs. La plateforme qui suscite actuellement la colère des geeks est Twitter, qui ne cesse de serrer la vis sur l’écosystème du développement en limitant l’accès aux API et en mettant en place une stratégie commerciale qui le fera ressembler beaucoup plus à Facebook qu’à un simple flux de messages de 140 caractères. Ceci a poussé récemment au financement réussi de app.net, un service alternatif lancé d’une manière très différente. Au lieu de construire une plateforme ouverte et décentralisée, ce que les étudiants derrière Diaspora visaient, app.net développe une plateforme sociale centralisée financée par les abonnements des utilisateurs plutôt que par la publicité. Le projet a récemment atteint son objectif de campagne de 500 000 $ par des inscriptions de membres à 50 $, en grande partie grâce à l’approbation tacite des blogueurs influents et des développeurs qui ont été parmi les détracteurs les plus virulents de Twitter ces dernières semaines.

Pour qui est fait Diaspora ?

Malgré les différences fondamentales entre Diaspora et app.net, ils partagent le même problème de base : atteindre l’effet de réseau. Le succès d’un réseau social dépend d’un certain nombre de facteurs : des utilisateurs de la première heure qui sont aussi de vrais partisans, du buzz médiatique, une nouvelle solution à un problème existant, ou, à défaut d’autre chose, de la nouveauté.

Qu’en est-il pour Diaspora ? Cela fait longtemps que le buzz s’est estompé. Et, comme Google l’a découvert avec Plus, ce n’est pas parce que les gens sont « agacés par Facebook » qu’il vont avoir le temps ou l’envie de changer de réseau social, surtout si leur amis ne le font pas.

Lancer un nouveau service social en direction de la geekratie peut sembler pertinent au démarrage à fortiori lorsque le projet est open source. Mais pour que la sauce prenne, il faut aller au-delà des geeks et être aussi rapidement adopté par la masse. Diaspora ne s’adresse-t-il pas avant tout à ceux qui ne sont pas intimidés par les commits Git ou monter une instance Heroku, à ceux, pas assez nombreux, qui ont bien conscience qu’ils vont offrir leurs données personnelles à une société contre un service Web gratuit ? Et dans ce cas, quelles différences fondamentales avec des sites déjà existants comme Slashdot, Github ou Stack Overflow ? De plus, et bien que les caractéristiques sociales de ces services soient souvent limitées, il existe déjà de nombreuses plates-formes de réseaux sociaux open source sur le marché : Drupal, Elgg, Buddypress, Pligg, Mahara, pour en nommer quelques-unes.

Le potentiel de la fédération

La dernière carte à jouer pour Diaspora peut être son architecture fédérée. Dans une époque de services centralisés et financés par la publicité, tels Facebook,Twitter et Google, il y a un attrait certain pour une plateforme sociale fonctionnant sur une architecture décentralisée.

Une telle approche devient plus impérieuse si l’on considère la facilité avec laquelle le gouvernement américain a fermé des sites prétendument coupables d’infraction ces dernières années et comment il peut accéder aux données personnelles d’activistes sur les médias sociaux, comme Malcom Harris de Shareable s’en est aperçu au cours d’un long procès concernant son activité sur Twitter. En théorie, les nœuds d’une plate-forme sociale, qui forment un réseau p2p, pourraient être tissés dans un garage ou un placard et être déconnectés facilement, avec un faible impact sur le réseau.

Mais alors on en revient au problème des effets du réseau : la valeur de Twitter pour le mouvement Occupy ne relevait pas simplement de la communication et de l’organisation mais aussi de la diffusion. Les personnes sur le terrain étaient capables de diffuser des scènes de violence policière en temps réel, non seulement aux autres membres du mouvement sur un quelconque réseau social partagé, mais également au monde entier.

Des réseaux sociaux fédérés existent déjà, tel StatusNet sur lequel repose le rival largement oublié de Twitter, identi.ca. Mais même avec la pleine connaissance des risques de confidentialité de l’utilisation de Twitter ou Facebook, la plupart des activistes d’Occupy ne diffusaient pas vers la poignée de geeks qui postent encore des conseils pour Drupal sur identi.ca. Ils se sont plutôt dirigés là ou l’audience la plus vaste et diversifiée verrait leurs message : Twitter, Facebook et Youtube.

Rien de ceci ne permet de dire qu’une solution fédérée ne peut fonctionner, seulement que les défis sont très grands. Maintenant que Diaspora a été remis entre les mains de la communauté, il est trop tôt pour le déclarer mort. Comme les fondateurs l’ont noté dans leur annonce, le compte Github de Diaspora est actif (tout comme son projet sur Pivotal Tracker).

Je reste d’un optimisme prudent quant à la capacité de la communauté open source à créer quelque chose de grand à partir du code que les fondateurs ont lâché dans la nature. Peut-être que le code existant sera forké et deviendra la base d’un nouveau projet allant bien au delà du Diaspora actuel. Mais quoi qu’il advienne, son développement tumultueux restera comme un récit de mise en garde vis-à-vis du crowdfunding, sur les dangers des promesses qu’on ne peut pas tenir.




Ce que pense Eric Raymond de la clause NC des Creative Commons (pas du bien)

CC NCEric S Raymond est une figure historique du logiciel libre, auteur notamment du désormais culte La Cathédrale et le Bazar.

Il vient de s’exprimer sur la clause NC (non commerciale) des licences Creative Commons et cela a le mérite d’une certaine clarté !

Pour rappel cette clause stipule que « vous n’avez pas le droit d’utiliser cette oeuvre à des fins commerciales » (sans l’autorisation de ou des auteur(s)), ce qui ne la rend pas libre au sens du logiciel libre et qui pose de nombreux problèmes dans la définition et le périmètre de ces fins commerciales.

CC-NC considered harmful

Eric S Raymond – 7 septembre 2012 – Blog personnel
(Traduction : tibs, Dalza, Kiwileaks, zikas, 1erefois)

CC-NC considéré comme dangereux

Je viens de poster le commentaire suivant sur un article du blog de Creative Commons traitant des attributs « Pas d’utilisation commerciale » (NC) et « Pas de modifications » (ND) :

Je parle en tant que fondateur et president honoraire de l’Open Source Initiative. L’option NC dans les licences Creative Commons a toujours été une mauvaise idée et devrait être supprimée.

Ce pourquoi elle devrait être enlevée n’a rien a voir avec aucune profonde philosophie ou politique couramment apportées dans le debat, et tout à voir avec le fait qu’il n’y a pas de critère légal de démarcation pour « activité commerciale ». Cette mauvaise définition se reflète dans les débats pour le terme commercial, qui signifie transaction financière ou lucratif, et c’est l’exacte raison pour laquelle l’Open Source Definition interdit aux licences logicielles open source de disposer de restrictions similaires.

Le groupe fondateur de l’OSI, après avoir étudié la possibilité, a conclu que l’attribut « NC » au sein d’une licence open source créerait une trop grande confusion au regard des droits et obligations, de trop nombreux effets secondaires sur des comportements que nous ne souhaitons pas encourager, et trop d’ouvertures possibles pour les plaideurs compulsifs. Ce qui est uniquement une source de contentieux au sein de notre communauté pourrait se révéler destructeur pour elle si des tribunaux antipathiques venaient à prendre des décisions défavorables, même de faible portée.

Je n’ai vu aucune raison de changer ce jugement et je pense qu’il s’applique à forces égales au Creative Commons. L’option NC est un piège dangereux et devrait être retirée.




Les administrations qui n’utilisent pas de standards ouverts travaillent contre celles qui le font

Issue d’un blog de la Commission européenne dédié à l’interopérabilité, la citation titre de ce billet révèle une fois de plus les difficultés que rencontrent les institutions souhaitant migrer vers le Libre.

Trois exemples, en Allemagne, Hongrie et Belgique, témoignent malheureusement du blocage du processus dont la cause principale est à chercher dans l’adoption antérieure de la suite Microsoft Office et de ses formats fermés (ou faussement ouverts).

Et tout ceci pris sur les deniers publics…

Vinoth Chandar - CC by

La migration des institutions vers l’open source est entravée par des problèmes d’interopérabilité


Interoperability problems frustrate authorities’ move to open source

Gijs Hillenius – 20 juillet 2012 – Joinup (European Commission)
(Traduction Framalang : Poupoul2, Martin, Quentin)

Les dépendances aux logiciels propriétaires des gouvernements européens, nationaux et locaux continuent de freiner les municipalités qui essaient de se séparer des carcans de leurs éditeurs en passant à l’open source. On trouve des exemples récents dans les municipalités de Fribourg en Allemagne, de Miskolcs en Hongrie et de Schoten en Belgique.

Le principal problème dans ces trois municipalités est l’interopérabilité des documents. Ce qui est grave, c’est que cela a amené la ville allemande de Fribourg à reconsidérer son usage actuel de la suite bureautique open source LibreOffice. Elle est en train d’étudier le retour à l’omniprésente suite bureautique propriétaire. Un porte-parole de la ville a annoncé plus tôt dans la semaine qu’une étude des problèmes de la suite bureautique sera livrée au conseil municipal en septembre.

La dépendance aux formats de documents et aux suites bureautiques propriétaires de toutes les autres administrations publiques est également la cause de problèmes pour la ville de Miskolcs. La ville hongroise utilise OpenOffice, une alternative à LibreOffice. Dans une étude que Joinup publiera dans les tous prochains jours, les officiels de la ville disent que dans quelques cas, l’administration est contrainte de revenir à la suite propriétaire, pour s’assurer que les documents et les macros embarquées soient compatibles : « Nous aimerions pouvoir demander à nos partenaires d’arrêter de nous envoyer des documents contenant des macros. La leçon que nous avons apprise ici est que des facteurs externes rendent impossible la migration totale vers des logiciels open source. »

Le même problème freine la ville belge de Schoten, confirme Jan Verlinder, le chef du département informatique de la ville. « La majorité des administrations publiques prend la voie facile et continue d’utiliser et de mettre à jour ses logiciels propriétaires. Les responsables de ces organisations informatiques ne semblent pas se préoccuper du fait qu’il s’agit de décisions coûteuses. En plus des coûts immédiats, cela force également leurs organisations à payer pour les mises à jours suivantes ».

Cependant, les administrations publiques prennent progressivement conscience des coûts du verrouillage des éditeurs, selon Verlinden. « Nous sommes de plus en plus approchés par d’autres gouvernements qui veulent également utiliser de l’open source pour résoudre ce problème ».

Verlinden : « Mais en réalité, les administrations qui n’utilisent pas de standards ouverts travaillent contre celles qui le font. »

« Changer pour un format de document ne dépendant pas d’un seul éditeur serait un excellent premier pas. Ça ne réclame même pas beaucoup de modifications aux logiciels ». En 2006, le gouvernement fédéral belge a rendu obligatoire l’utilisation d’un tel format, l’Open Document Format pour les documents échangés entre les administrations publiques « En pratique, il est à peine utilisé », fait remarquer Verlinden.

Crédit photo : Vinoth Chandar (Creative Commons By)




Madame, Monsieur le Député, pourquoi il est important de faire le choix du Libre

Signal fort et beau symbole, en 2007 il avait été décidé de passer les postes des députés sous GNU/Linux Ubuntu et OpenOffice.org (cf ces témoignages). Arrive aujourd’hui le temps du renouvellement et les députés, fraîchement élu(e)s ou réélu(e)s, ont le choix du choix, avec Windows ou Ubuntu et Microsoft Office ou LibreOffice.

François Revol est un acteur bien connu de la communauté francophone du logiciel libre. Il fait ici acte de citoyenneté en prenant le temps d’adresser une lettre détaillée et personnalisée à son député sur ce sujet à ses yeux bien plus important qu’il n’y paraît. Nous vous invitons à vous en inspirer pour en faire de même, si vous partagez ses arguments et sa préoccupation.

Nous ne souhaitons pas qu’une assemblée nationale plus rose devienne moins libre.

Takato Marui - CC by-sa

Objet : Système d’exploitation de votre ordinateur

Madame, Monsieur le Député,

Si ce n’est déjà fait, et que personne n’a choisi à votre place, vous allez devoir prendre une décision très importante, que vous pourrez considérer comme anodine mais qui pourtant est cruciale.

Pour cette législature, conformément à la demande de la questure, vous avez le choix du système d’exploitation (SE) qui sera utilisé sur votre ordinateur. La législature précédente avait permis un énorme progrès par l’installation de GNU/Linux[1] sur toutes les machines des députés auparavant sous Windows, mettant ainsi à leur disposition un système plus éthique, plus économique, plus flexible, et participant à restaurer une certaine indépendance européenne dans le secteur du logiciel. Il semble au contraire pour cette législature, pour certaines raisons obscures et surtout exprimées bien tardivement, qu’il ait été décidé de vous laisser le choix. L’histoire dira, et surtout votre choix, si c’est un recul ou un progrès, et si vous avez usé sagement de ce qui pour beaucoup d’entre nous est encore un luxe, puisque précieux mais trop peu répandu.

En effet, malgré l’interdiction par la loi de la vente liée[2], le choix du système d’exploitation lors de l’achat d’un ordinateur par un particulier relève encore du plus rare des luxes, réservé aux seules entreprises. Si l’on en croit les revendeurs et fabricants, le particulier est simplement trop stupide pour faire un choix éclairé. L’excuse d’une complexité accrue de production est également caduque, les offres existantes pour les entreprises montrant la viabilité de proposition du choix. En fait il s’agit surtout de préserver des monopoles établis, ceux d’une entreprise américaine bien connue pour avoir été sanctionnée par la Commission européenne pour cette même raison.

Pourtant le choix du système d’exploitation est important à plusieurs titres, même en laissant l’éthique de côté, ayant même des conséquences sur la relocalisation d’emplois.

Ainsi par exemple le choix d’un SE libre permet, en plus de répondre aux questions d’indépendance, d’interopérabilité, et d’adaptabilité, de générer une activité de développement logiciel locale nécessaire à une adaptation au plus près des besoins, adaptation impossible avec du logiciel propriétaire qui dépend entièrement du bon vouloir de l’éditeur. En effet, le logiciel libre, par essence, est distribué avec son code source et la liberté de modification, permettant ainsi la création et la mise en concurrence d’expertises non subordonnées à l’éditeur original. La mutualisation des coûts de production des logiciels libres participe aussi de la création de biens communs. Comme nombre de sujets connexes liés au numérique, le logiciel libre transcende donc le bipartisme.

Certains d’entre vous ont d’ailleurs signé le Pacte Logiciel Libre lors de la campagne, d’autres lors de précédentes législatures ont voté pour ou contre certains projets de loi dommageables au logiciel libre, comme DADVSI ou HADOPI, créant ainsi du tracas y compris à des universitaires français, comme les auteurs du logiciel de lecture vidéo VLC, obligés de demander à la HADOPI comment contourner les DRM[3] du BluRay. La HADOPI n’a d’ailleurs pas été d’une grande utilité pour résoudre la violation de la licence de FFmpeg/LibAV, logiciel libre auquel j’ai modestement contribué, commise par un sous-traitant d’Orange4 pendant plus d’un an. Il s’agit pourtant ici également de protection des auteurs. Il est intéressant de plus de noter qu’Orange comptait parmi les fiers sponsors officiels de l’inutile sommet « eG8 » où la question de la protection des auteurs a été abordée. La Commission européenne n’étant d’ailleurs pas en reste, tant par sa tentative de faire adopter le traité ACTA[4] que la directive sur le brevet unitaire qui bien qu’utile sur le principe laisse entrer le logiciel dans le champ de la brevetabilité, ce qui ne saurait être plus grotesque puisque le logiciel est une expression de la pensée humaine et donc naturellement sous le régime du droit d’auteur.

Tous ces problèmes ont en commun le manque de considération des « acteurs », entreprises – pourtant grandes utilisatrices de logiciel libre – comme législateur. Ceci vient autant de la perception erronée de l’informatique comme un sujet purement technique et économique, que des effets de la vente liée, effets devenant rétroactivement causes de renforcement des monopoles. Le grand public est en effet gardé dans l’ignorance, croyant que le choix qui est fait pour lui est dans son intérêt, que « ça marche comme ça », et que « Linux ça marche pas », ce qui dans la plupart des cas est dû au manque de support matériel, lui-même résultant de l’indisponibilité des spécifications techniques du matériel, puisque bien sûr les fabricants préfèrent distribuer plutôt des pilotes pour Windows que les spécifications, qui sont pourtant le « manuel utilisateur » du matériel par le logiciel et devraient être publiques, ceci étant justement la conséquence du monopole déjà évoqué.

L’ironie de la situation étant que même Microsoft a été victime de cet état de fait, puisque lors de la sortie de Windows Vista, certains périphériques fournis uniquement avec des pilotes pour les versions précédentes de Windows n’étaient plus utilisables, mettant ainsi en colère les utilisateurs devant néanmoins acheter Windows Vista avec leur nouvelle machine, sans toutefois pouvoir utiliser certains périphériques pourtant neufs mais dont le fabricant refusait de fournir un pilote mis à jour.

Quand aux très rares matériels « certifiés Linux » disponibles, ils sont généralement seulement sommairement testés une fois pour toute certification, et de plus vraiment un « luxe » au vu des prix pratiqués.

Malgré des campagnes d’information au public de la part d’associations de promotion du logiciel libre comme l’April ou l’AFUL, ainsi que plusieurs procès gagnés par des particuliers, l’inaction de la DGCCRF est manifeste, et le status quo demeure depuis maintenant plus d’une décennie.

En effet, le problème de la vente liée, loin d’être récent, est par exemple une des causes majeures de la fermeture en 2001 de Be, Inc., éditeur du système d’exploitation BeOS, que j’ai utilisé pendant 10 ans. Déjà à l’époque Microsoft s’imposait sur les ordinateurs PC par le verrouillage du processus de démarrage, et en interdisant aux revendeurs par des contrats secrets d’installer un autre SE, la seule tentative de Be, Inc. de fournir des ordinateurs pré-installés avec son système ayant été torpillée, Hitachi se contentant alors de laisser BeOS sur le disque dur mais sans le rendre disponible au démarrage, ni même documenté et donc de facto inaccessible.

Plus tard, un éditeur de logiciel allemand ayant tenté de reprendre le développement de ce même système a également dû fermer, toujours par manque de ventes et à cause du monopole de fait de Microsoft sur le marché, me causant au passage un licenciement économique.

C’est d’ailleurs l’échec commercial de BeOS qui a conduit à la création du système d’exploitation libre Haiku auquel je contribue actuellement, dans l’idée de perpétuer son originalité, comme on tenterait de préserver une espèce nécessaire à la technodiversité. Pourtant, même si c’est un projet plus ludique que commercial à l’heure actuelle, la vente liée nous pose problème tout comme aux auteurs de Linux. En effet, la non disponibilité des spécifications matérielles chez certains fabricants et de nombreux constructeurs rend impossible l’écriture des pilotes de périphériques pourtant nécessaire à leur utilisation.

Cet état de fait est d’ailleurs une régression. En effet à une certaine époque la plupart des machines électroniques (téléviseurs, électrophones, mais aussi ordinateurs) étaient livrées avec les schémas complets. J’ai ainsi par exemple, dans le manuel utilisateur de mon premier ordinateur (un ORIC Atmos), la description de son fonctionnement interne et toute la documentation permettant d’interfacer du matériel, et l’importateur avait même publié les plans. L’obsolescence programmée a pris le pas depuis lors.

Ce luxe donc, auquel vous avez droit, m’a été refusé à l’achat de mon dernier ordinateur portable. Non seulement le fabricant refuse de rembourser la licence de Windows 7 que je n’ai jamais demandée, mais il ne m’a toujours pas communiqué les spécifications nécessaires à l’adaptation du système que je désire utiliser et auquel je contribue. J’en suis donc réduit lorsque je tente de l’utiliser actuellement à une résolution graphique inférieure à ce que l’écran permet et sans aucune accélération matérielle, pas de connexion réseau, et l’impossibilité de produire du son, sans parler des fonctions moins essentielles, que pourtant j’ai payées. Pourtant, ainsi que je l’ai dit, ces spécifications constituent le « manuel utilisateur » du matériel par le logiciel, et forment donc en ce qui me concerne, des «caractéristiques essentielles »[5]. D’ailleurs, cette même machine avec GNU/Linux que j’utilise également cause régulièrement des problèmes pour la même raison, à savoir la non disponibilité des spécifications qui empêche la correction d’un bogue du pilote vidéo pourtant documenté depuis plus d’un an.

La vente liée cause du tort également à des éditeurs français, comme Mandriva, qui publiait une distribution de GNU/Linux depuis 1998, initialement appelée « Mandrake Linux », que j’ai d’ailleurs un temps utilisée, mais n’a pas réussi à s’imposer et a donc disparu récemment. On ne peu que déplorer le résultat de cette concurrence pas vraiment libre et certainement faussée.

Et pourtant le logiciel libre permet de développer de nombreux [modèles économiques différents|http://www.april.org/livre-blanc-des-modele-economiques-du-logiciel-libre], ouvrant des perspectives d’emploi pour des PME innovantes, si la loi ne le défavorise pas.

Par ces temps de crise, il ne serait d’ailleurs pas inutile de s’intéresser aux optimisations fiscales, pour ne pas parler d’évasion, que certaines entreprises multinationales pratiquent, Microsoft en premier mais également Apple. L’absence de détail des prix lors de la vente liée pose d’ailleurs des questions légitimes quand à la répartition de la TVA.

La pratique par Microsoft du verrouillage du processus de démarrage, que j’évoquais plus haut à propos des PC, est d’ailleurs toujours d’actualité puisque bien évidemment les prochaines tablettes « compatibles Windows 8 » devront implémenter obligatoirement le mécanisme dit « SecureBoot », qui au prétexte de limiter les virus rendra totalement impossible l’installation d’un système libre. Et donc alors même que le combat contre la vente liée s’éternise sur les PC, il est presque déjà perdu sur les machines qui les remplaceront bientôt, alors même que ce sont toujours des ordinateurs malgré tout, dont l’utilisateur devrait garder le contrôle, contrôle qui s’exprime en premier sur le choix des logiciels qu’il voudra pouvoir utiliser ou non.

Le choix d’installer Windows s’apparente ainsi plus au non-choix, à un blanc-seing laissé à Microsoft quand au contrôle de votre machine, avec la sécurité qu’on lui connaît. C’est aussi un choix de facilité, au vu de la situation actuelle, mais également la caution d’une situation inacceptable.

Le choix d’installer GNU/Linux, sur une machine de bureau, est avant tout moral et éthique avant d’être pragmatique, alors que sur un serveur il s’impose plus logiquement. C’est pourtant tout autant un choix de sécurité, puisque le code source ouvert garantit le contrôle que l’on a sur le système, comme l’absence de porte dérobée. C’est aussi un choix courageux et téméraire, par l’entrée dans ce qui reste encore une minorité technologiquement discriminée. Mais ce serait aussi un signal fort envers les développeurs qui créent ces logiciels, les utilisateurs confortés dans leur choix difficile, et enfin les fabricants de matériels qui pour certains encore n’ont pas compris qu’il était de leur devoir et de leur intérêt de considérer tous les utilisateurs.

Ne vous y trompez pas, la majorité des problèmes qui pourraient survenir lors de l’utilisation de GNU/Linux ne sont pas de son fait ou des développeurs qui l’ont écrit, mais bien de Microsoft, Apple, et d’autres éditeurs, qui par leur politique de fermeture compliquent inutilement l’interopérabilité entre leur système et les autres, à dessein bien sûr, puisque leur but est le monopole. D’ailleurs il est à prévoir des incompatibilités entre GNU/Linux et l’infrastructure choisie par la questure pour la gestion des courriels, à savoir Microsoft Exchange, bien connu pour ne respecter aucun standard hormis le sien, c’est à dire donc aucun, puisque les formats et protocoles d’Exchange ne sont en rien normalisés ni donc standard (de jure). Alors même que les logiciels de courriel de GNU/Linux respectent de nombreux standards et normes. Pour résumer, dire que GNU/Linux pose problème serait simplement inverser la situation causée par ces monopoles.

Une métaphore que j’utilise depuis des années sans succès, mais pourtant découverte aussi récemment par un juge, s’énonce ainsi :

« La vente liée d’un système d’exploitation avec un ordinateur revient à l’obligation d’embauche d’un chauffeur à l’achat d’une voiture. »

Ceci vous semble absurde ? À moi aussi. C’est pourtant la pratique actuelle.

En tant qu’ingénieur, auteur de logiciels libres, citoyen et électeur, ce sujet me tient à cœur, et il me semble nécessaire qu’au moins la législation actuelle soit appliquée, à défaut d’évoluer. J’espère vous avoir éclairé sur ce choix important qui vous incombe, non dénué de symbole, et qui je le rappelle est un luxe pour le particulier même informé. Je reste à votre disposition pour toute discussion.

Je vous prie d’agréer, Madame, Monsieur le Député, l’expression de ma considération la plus distinguée.

François Revol

Crédit photo : Takato Marui (Creative Commons By-Sa)

Notes

[1] Le système libre GNU fonctionnant sur le noyau Linux, lui aussi libre.

[2] Article L.122-1 du code de la consommation

[3] Digital Rights Management, en français MTP pour « Méthodes Techniques de Protection »

[4] Anti-Counterfeiting Trade Agreement, ou Accord commercial anti-contrefaçon (ACAC)

[5] Au titre de l’article L-111-1 I. du code de la consommation.




Lorsque le code peut tuer ou guérir

La technologie a fait faire à la santé d’extraordinaires progrès. Mais libre ou propriétaire ? Dans le domaine des appareils médicaux pilotés par des logiciels ce choix peut avoir de très lourdes conséquences.

Ici plus qu’ailleurs, sacrifier l’humain sur l’autel du business model ne peut plus être une solution durable dans le temps[1].

Patrick - CC by-nc

Lorsque le code peut tuer ou guérir

When code can kill or cure

Technology Quarterly – 2 juin 2012 – The Economist
(Traduction : balsamic, moala, Isammoc, Otourly, Mnyo, HgO, elquan)

Appliquer le modèle open source à la conception d’appareils médicaux permet d’accroitre la sécurité et stimule l’innovation.

Les pompes SMART délivrent des médicaments parfaitements dosés pour chaque patient. Des défibrilateurs faciles à utiliser peuvent ramener des victimes d’attaque cardiaque d’entre les morts. Les pacemakers et coeurs artificiels maintiennent les gens en vie en s’assurant que la circulation sanguine se déroule sans problème. Les appareils médicaux sont une merveille du monde moderne.

Alors que ces appareils sont devenus de plus en plus efficients, ils deviennent cependant de plus en plus complexes. Plus de la moitié des appareils médicaux vendus aux Etats-Unis (le plus grand marché de la santé) s’appuient sur du logiciel, et souvent en grande quantité. Ainsi le logiciel dans un pacemaker peut nécessiter plus de 80.000 lignes de code, une pompe à perfusion 170.000 lignes et un scanner à IRM (Imagerie à Résonance Magnétique) plus de 7 millions de lignes.

Cette dépendance grandissante vis à vis du logiciel cause des problèmes bien connus de tous ceux qui ont déjà utilisé un ordinateur : bugs, plantages, et vulnérabilités face aux attaques. Les chercheurs de l’université de Patras en Grèce ont découvert qu’un appareil médical sur trois vendu aux États-Unis entre 1995 et 2005 a été rappelé pour défaillance du logiciel. Kevin Fu, professeur d’informatique à l’université du Massachusetts, estime que ce phénomène a affecté plus de 1,5 millions d’appareils individuels depuis 2002. En avril, les chercheurs de la firme de sécurité informatique McAfee ont annoncé avoir découvert un moyen pour détourner une pompe à insuline installée dans le corps d’un patient en injectant l’équivalent de 45 jours de traitement d’un seul coup. Enfin, en 2008, Dr Fu et ses collègues ont publié un article détaillant la reprogrammation à distance d’un défibrillateur implanté.

Or le disfonctionnement du logiciel d’un appareil médical a des conséquences beaucoup plus désastreuses que d’avoir seulement à faire redémarrer votre ordinateur. Durant les années 1980, un bug dans le logiciel des machines de radiothérapie Therac-25 a provoqué une overdose de radiations administrées à plusieurs patients, en tuant au moins cinq. L’Organisation américaine de l’alimentation et des médicaments, l’America’s Food and Drug Administration (FDA), s’est penchée sur le cas des pompes à perfusion qui ont causé près de 20.000 blessures graves et plus de 700 morts entre 2005 et 2009. Les erreurs logicielles étaient le problème le plus fréquemment cité. Si, par exemple, le programme buggé interprète plusieurs fois le même appui sur une touche, il peut administrer une surdose.

En plus des dysfonctionnements accidentels, les appareils médicaux sans fils ou connectés sont également vulnérables aux attaques de hackers malveillants. Dans le document de 2008 du Dr Fu et de ses collègues, il est prouvé qu’un défibrillateur automatique sous-cutané peut être reprogrammé à distance, bloquer une thérapie en cours, ou bien délivrer des chocs non attendus. Le Dr Fu explique que lors des phases de test de leur logiciel, les fabricants d’appareils manquent de culture de la sécurité, culture que l’on peut trouver dans d’autres industries à haut risque, telle que l’aéronautique. Insup Lee, professeur d’Informatique à l’Université de Pennsylvanie, confirme : « Beaucoup de fabricants n’ont pas l’expertise ou la volonté d’utiliser les mises à jour ou les nouveaux outils offerts par l’informatique ».

Personne ne peut évaluer avec certitude l’étendue réelle des dégâts. Les logiciels utilisés dans la majorité des appareils médicaux sont propriétaires et fermés. Cela empêche les firmes rivales de copier le code d’une autre entreprise, ou simplement de vérifier des infractions à la propriété intellectuelle. Mais cela rend aussi la tâche plus ardue pour les experts en sécurité. La FDA, qui a le pouvoir de demander à voir le code source de chaque appareil qu’elle autorise sur le marché, ne le vérifie pas systématiquement, laissant aux constructeurs la liberté de valider leurs propres logiciels. Il y a deux ans, la FDA offrait gratuitement un logiciel « d’analyse statique » aux constructeurs de pompes à perfusion, dans l’espoir de réduire le nombre de morts et de blessés. Mais aucun constructeur n’a encore accepté l’offre de la FDA.

Ouvert à l’étude

Frustrés par le manque de coopération de la part des fabricants, certains chercheurs veulent maintenant rebooter l’industrie des appareils médicaux en utilisant les techniques et modèles open source. Dans les systèmes libres, le code source est librement partagé et peut être visionné et modifié par quiconque souhaitant savoir comment il fonctionne pour éventuellement en proposer une version améliorée. En exposant la conception à plusieurs mains et à plusieurs paires de yeux, la théorie veut que cela conduise à des produits plus sûrs. Ce qui semble bien être le cas pour les logiciels bureautiques, où les bugs et les failles de sécurité dans les applications open source sont bien souvent corrigés beaucoup plus rapidement que dans les programmes commerciaux propriétaires.

Le projet d’une pompe à perfusion générique et ouverte (Generic Infusion Pump), un effort conjoint de l’Université de Pennsylvanie et de la FDA, reconsidère ces appareils à problèmes depuis la base. Les chercheurs commencent non pas par construire l’appareil ou écrire du code, mais par imaginer tout ce qui peut potentiellement mal fonctionner dans une pompe à perfusion. Les fabricants sont appelés à participer, et ils sont plusieurs à le faire, notamment vTitan, une start-up basée aux Etats-Unis et en Inde « Pour un nouveau fabricant, c’est un bon départ » dit Peri Kasthuri, l’un de ses co-fondateurs. En travaillant ensemble sur une plateforme open source, les fabricants peuvent construire des produits plus sûrs pour tout le monde, tout en gardant la possibilité d’ajouter des fonctionnalités pour se différencier de leur concurrents.

Des modèles mathématiques de designs de pompes à perfusion (existantes ou originales) ont été testés vis à vis des dangers possibles, et les plus performantes ont été utilisées pour générer du code, qui a été installé dans une pompe à perfusion de seconde main achetée en ligne pour 20$. « Mon rêve, dit Dave Arnez, un chercheur participant à ce projet, est qu’un hôpital puisse finalement imprimer une pompe à perfusion utilisant une machine à prototypage rapide, qu’il y télécharge le logiciel open source et que l’appareil fonctionne en quelques heures ».

L’initiative Open Source Medical Device de l’université Wisconsin-Madison est d’ambition comparable. Deux physiciens médicaux (NdT: appelés radiophysiciens ou physiciens d’hôpital), Rock Mackie et Surendra Prajapati, conçoivent ainsi une machine combinant la radiothérapie avec la tomographie haute résolution par ordinateur, et la tomographie par émission de positron. Le but est de fournir, à faible coût, tout le nécessaire pour construire l’appareil à partir de zéro, en incluant les spécifications matérielles, le code source, les instructions d’assemblages, les pièces suggérées — et même des recommandations sur les lieux d’achat et les prix indicatifs. La machine devrait coûter environ le quart d’un scanner commercial, la rendant attractive pour les pays en voie de développement, déclare le Dr Prajapati. « Les appareils existants sont coûteux, autant à l’achat qu’à la maintenance » rappelle-t-il, là ou les modèles libres sont plus durables. « Si vous pouvez le construire vous-même, vous pouvez le réparer vous-même. »

Les appareils open source sont littéralement à la pointe de la science médicale. Un robot chirurgien open source nommé Raven, conçu à l’Université de Washington à Seattle fournit une plateforme d’expérimentation abordable aux chercheurs du monde entier en proposant de nouvelles techniques et technologies pour la chirurgie robotique.

Tous ces systèmes open source travaillent sur des problématiques diverses et variées de la médecine, mais ils ont tous un point commun : ils sont encore tous interdit à l’utilisation sur des patients humains vivants. En effet, pour être utilisés dans des centres cliniques, les appareils open source doivent suivre les mêmes longues et coûteuses procédures d’approbation de la FDA que n’importe quel autre appareil médical. Les réglementations de la FDA n’imposent pas encore que les logiciels soient analysés contre les bugs, mais elles insistent sur le présence d’une documentation rigoureuse détaillant leur développement. Ce n’est pas toujours en adéquation avec la nature collaborative et souvent informelle du développement open source.

Le coût élevé de la certification a forcé quelques projets open source à but non lucratif à modifier leur business model. « Dans les années 90, nous développions un excellent système de planning des traitements de radiothérapie et avions essayé de le donner aux autres cliniques, explique le Dr Mackie, mais lorsque la FDA nous a suggéré de faire approuver notre logiciel, l’hôpital n’a pas voulu nous financer. » Il a fondé une société dérivée uniquement pour obtenir l’approbation de la FDA. Cela a pris quatre ans et a couté des millions de dollars. En conséquence, le logiciel a été vendu en tant qu’un traditionnel produit propriétaire fermé.

D’autres tentent de contourner totalement le système de régulation américain. Le robot chirurgical Raven (Corbeau) est destiné à la recherche sur les animaux et les cadavres, quant au scanner de l’Open Source Medical Device, il est conçu pour supporter des animaux de la taille des rats et des lapins. « Néanmoins, déclare le Dr Mackie, rien n’empêche de reprendre le design et de lui faire passer les procédures de certification dans un autre pays. Il est tout à fait envisageable que l’appareil soit utilisé sur des humains dans d’autres parties du monde où la régulation est moins stricte, avance-t-il. Nous espérons que dans un tel cas de figure, il sera suffisamment bien conçu pour ne blesser personne. »

Changer les règles

La FDA accepte progressivement l’ouverture. Le Programme d’interopérabilité des appareils médicaux Plug-and-Play, une initiative de 10 millions de dollars financé par le NIH (l’Institut National de la Santé) avec le support de la FDA, travaille à établir des standards ouverts pour interconnecter les appareils provenant de différents fabricants. Cela signifierait, par exemple, qu’un brassard de pression artérielle d’un certain fabricant pourrait commander à une pompe à perfusion d’un autre fabricant d’arrêter la délivrance de médicament s’il détecte que le patient souffre d’un effet indésirable.

Le framework de coordination des appareils médicaux (Medical Device Coordination Framework), en cours de développement par John Hatcliff à l’Université de l’État du Kansas, est plus intrigant encore. Il a pour but de construire une plateforme matérielle open source comprenant des éléments communs à beaucoup d’appareils médicaux, tels que les écrans, les boutons, les processeurs, les interfaces réseaux ainsi que les logiciels pour les piloter. En connectant différents capteurs ou actionneurs, ce cœur générique pourrait être transformé en des dizaines d’appareils médicaux différents, avec les fonctionnalités pertinentes programmées en tant qu’applications (ou apps) téléchargeables.

À terme, les appareils médicaux devraient évoluer vers des ensembles d’accessoires spécialisés (libres ou propriétaires), dont les composants primaires et les fonctionnalités de sécurité seraient gérés par une plateforme open source. La FDA travaille avec le Dr Hatcliff pour développer des processus de création et de validation des applications médicales critiques.

Dans le même temps, on tend à améliorer la sécurité globale et la fiabilité des logiciels dans les appareils médicaux. Le NIST (Institut national des États-Unis des normes et de la technologie) vient juste de recommander qu’une seule agence, probablement la FDA, soit responsable de l’approbation et de la vérification de la cyber-sécurité des appareils médicaux, et la FDA est en train de réévaluer ses capacités à gérer l’utilisation croissante de logiciels.

De tels changements ne peuvent plus attendre. « Quand un avion s’écrase, les gens le remarquent », dit le Dr Fu. « Mais quand une ou deux personnes sont blessées par un appareil médical, ou même si des centaines sont blessées dans des régions différentes du pays, personne n’y fait attention. » Avec des appareils plus complexes, des hackers plus actifs et des patients plus curieux et impliqués, ouvrir le cœur caché de la technologie médicale prend vraiment ici tout son sens.

Notes

[1] Crédit photo : Patrick (Creative Commons By-Nc)




Matériel libre ou matériel ouvert ? Open Source Hardware ou Open Hardware ?

Tout libriste digne de ce nom connaît le classique débat entre le logiciel libre et le logiciel Open Source (cf ce lien qui marque notre préférence : Pourquoi l’expression « logiciel libre » est meilleure qu’« open source »)[1].

Va-t-on assister à la même foire d’empoigne pour le secteur en plein développement actuellement du matériel libre ? ou ouvert, ou les deux à la fois, enfin c’est vous qui voyez…

Windell Oskay - CC by

Du matériel ouvert ou du matériel libre ?

Open hardware, or open source hardware?

Andrew Katz – 22 août 2011 – Commons Law (ComputerWorld.uk)
(Traduction Framalang : Lamessen, Loïc, Penguin, kabaka, Antoine)

Allons nous assister à une réédition des débats sémantiques qui traversent le monde logiciel ?

Bruce Perens (co-fondateur de l’Open Source Initiative) s’est récemment interrogé lors d’une conférence sur les différences qu’il pouvait y avoir entre le matériel libre (Open Source Hardware) et le matériel ouvert (Open Hardware). De nombreuses personnes ont comparé ce débat à la classique nuance (ou opposition, c’est selon) entre le logiciel libre (free software) et le logiciel Open Source, en s’inquiétant qu’il puisse diviser tout autant. Je n’en suis pas si sûr. Je pense que les deux sont différents et qu’ils peuvent co-exister pacifiquement.

Selon mon point de vue, un matériel libre est un matériel fourni avec les schémas pour qu’on puisse le reproduire nous-même, alors qu’un matériel ouvert est un matériel qui est fourni avec des spécifications complètes de manière à ce que vous puissiez interagir avec lui sans mauvaises surprises mais sans nécessairement savoir ce qui se passe à l’intérieur.

Le matériel libre est meilleur (du point de vue de l’utilisateur), mais le matériel ouvert est sans aucun doute une avancée dans la bonne direction.

Le matériel libre dépend la plupart du temps inévitablement de matériel ouvert : par exemple, vous pouvez avoir toutes les spécifications d’un circuit intégré simple comme un NE555, sans avoir besoin de toutes les informations nécessaires à sa construction.

Pour du matériel plus complexe, les spécifications d’un boulon (pas de vis, diamètre, longueur, type de tête, résistance à la traction, résistance générale à la corrosion…) peuvent être disponibles, mais il est peu probable que la composition exacte de l’alliage utilisé pour le fabriquer, sa trempe, etc… le soient. La plupart des composants électroniques simples seront donc du matériel ouvert.

Le seul point sur lequel il faut être un peu plus prudent quand on parle de matériel libre est que, contrairement au logiciel, il est plus difficile de tracer la frontière entre la source et l’objet. Par exemple, je dirais qu’une voiture est libre si la documentation complète sur sa conception est disponible tant que les spécifications des moteurs sont suffisantes pour l’utilisation qu’on souhaite en faire et qu’elles font ce qu’elles sont censées faire sans mauvaises surprises, quand bien même certaines pièces soient individuellement propriétaires ou non sourcées.

Si vous suivez une approche maximaliste, et que vous voulez les instructions nécessaires et suffisantes à la fabrication complète d’une voiture à partir d’un amas d’atomes, alors vous serez malheureusement déçus la plupart du temps. Heureusement, je n’ai rencontré personne d’aussi extrêmiste dans le monde du logiciel Open Source, oups, pardon, dans celui du logiciel libre 🙂

Notes

[1] Crédit photo : Windell Oskay (Creative Commons By)




De StarOffice à LibreOffice 28 années d’histoire

LibreOffice OpenOffice.org

Qu’on les aime ou qu’on les déteste, les suites bureautiques se sont imposées ces derniers lustres comme indispensables dans le paysage logiciel. La suite numéro un, Microsoft Office, est devenue une référence et un incontournable. En langage courant, on ne parle plus de présentations ou de transparents, on dit tout simplement « un PowerPoint ».

Microsoft Office n’étant pas disponible sur les systèmes libres comme Linux, il est évident qu’une alternative viable se devait d’exister. Vous la connaissez certainement, il s’agit d’OpenOffice. Et, depuis quelques mois, on entend parler de LibreOffice. Mais n’est-ce pas juste un changement de nom ? Tout cela est un peu confus.

J’avais déjà tenté de faire une courte clarification. Essayons de voir en détail ce qu’il en est.

Les débuts de StarDivision

Nous sommes en 1984. Un très jeune programmeur allemand fonde la société StarDivision afin de vendre son logiciel de traitement de texte StarWriter. Celui-ci est destiné principalement aux ordinateurs Zilog Z80 et Amstrad CPC. Nous sommes dans les tous débuts de l’informatique à destination du grand public. Ni Microsoft Office ni même Windows n’existent encore.

Après quelque temps, StarDivision adapte son logiciel aux systèmes DOS, OS/2. D’autres composants se rajoutent à StarWriter : StarBase, un logiciel de base de données, StarDraw, un logiciel de dessin vectoriel. Le tout est empaqueté sous le nom global de StarOffice, en faisant une des premières suites bureautiques.

Avec le support de Windows 3.1, StarOffice gagne un nouveau composant, StarCalc, un tableur.

StarOffice dans le giron de Sun

Faisons un bond en avant et propulsons nous en 1999. À cette époque, Microsoft règne sans partage sur les ordinateurs individuels grâce à Windows 95 et Windows 98, sans oublier Windows NT dans les entreprises. Dans ces dernières, Microsoft Office 97 s’est imposé comme la suite office indispensable. Son plus gros concurrent est… Microsoft Works ! Eh oui, Microsoft se paie le luxe d’être son propre concurrent et d’avoir deux suites bureautiques qui sont difficilement interopérables (utilisant des formats propriétaires différents).

Sun travaille sur son système d’exploitation Solaris et espère en faire un concurrent à Windows. Le problème est que Solaris ne dispose pas d’une suite bureautique et que chacun des 42.000 employés de Sun doit garder deux ordinateurs : un sous Solaris et un sous Windows pour faire tourner Microsoft Office.

Stratégiquement, avoir une suite bureautique sous Solaris est indispensable. Sun se met en chasse et rachète StarDivision pour 73.5 millions de dollars. Rien que le prix économisé dans les licences Microsoft (42.000 licences Windows + 42.000 licences Office) permettrait de rentabiliser l’achat en quelques années.

Sun travaille donc à partir de la suite StarOffice et la porte sous Solaris.

Naissance d’OpenOffice

À peine un an plus tard, en 2000, Sun se rend compte que le seul ennemi capable d’affaiblir la toute-puissance de Microsoft, alors à son apogée, est le monde Open Source. Et selon l’adage « Les ennemis de mes ennemis sont mes amis », Sun décide de doter la communauté OpenSource d’un concurrent à Microsoft Office.

Une version Open Source de StarOffice est donc libérée sous le nom OpenOffice, qui deviendra OpenOffice.org, le nom OpenOffice étant déjà déposé dans certains pays.

Derrière ce mouvement se cache bien entendu une stratégie marketing. Sun espère qu’OpenOffice gagnera le cœur des étudiants, des particuliers, des hackers mais que les entreprises souhaitant un support professionnel se tournent vers StarOffice. Certaines fonctionnalités de StarOffice ne sont d’ailleurs pas présente dans OpenOffice.

Cela a pour conséquence que toute personne souhaitant contribuer au code d’OpenOffice doit céder ses droits à Sun, afin que celui-ci puisse le réutiliser dans StarOffice.

Sun OpenOffice, l’incontournable

De 2001 à 2010, OpenOffice va devenir incontournable chez les libristes et les utilisateurs de système Linux. Sa gratuité est également un atout indéniable dans les entreprises et les services publics. Certains évangélistes du libre y voient un cheval de Troie pour introduire le libre un peu partout et en font une promotion éhontée.

Cependant, tout n’est pas rose. Le développement n’est pas très rapide. Les contributions ne sont pas toujours acceptées par Sun. Le logiciel, vieillissant, acquiert une réputation de lenteur et de non-ergonomie.

Microsoft Office, de son côté, fait des progrès fulgurants avec les éditions 2003 et 2007. Malgré un succès d’estime, OpenOffice peine à sortir du cadre des geeks barbus.

Lotus Symphony, IBM rentre dans la danse

IBM, géant de l’informatique, est célèbre pour n’avoir jamais compris l’importance du logiciel et de la micro-informatique. Inventeur du PC, ils n’ont pas perçu le marché pour ce type de machine et ont laissé Microsoft fournir le système d’exploitation DOS. Se rendant compte de leur erreur, ils tenteront d’imposer OS/2 sans jamais y parvenir.

La même histoire se répète avec les suites bureautiques. Se rendant compte de l’importance de ce type de logiciel, IBM produira Lotus Symphony, une suite bureautique pour DOS. Cette suite sera complètement abandonnée en 1992.

Ce n’est qu’en 2007, à la mode des carabiniers d’Offenbach, qu’IBM décidera de relancer dans une suite de productivité qui comportera son client mail Lotus Notes, très populaire en entreprise et détenteur du titre de logiciel le plus haï par ses utilisateurs. IBM va donc reprendre OpenOffice et en modifier l’interface afin de créer IBM Lotus Symphony.

IBM Lotus Symphony est synchronisé avec OpenOffice mais aucun code n’est contribué au projet. En ce sens, IBM est vu comme un mauvais joueur par la communauté.

Oracle Open Office, la fin d’une époque

Sun ne va pas très bien. Solaris n’a jamais réellement percé. Le matériel Sun, d’excellente facture mais extrêmement cher, voit une concurrence rude tirer les prix vers le bas. Beaucoup d’investissements ont été faits comme le rachat de MySQL. Des questions se posent. C’est alors qu’arrive Oracle.

Oracle est un géant de l’informatique qui a fait sa fortune sur la gestion des bases de données. Ils aimeraient avoir un peu plus d’expertises dans le matériel (afin de vendre des serveurs liés à leurs bases de données) et contrôler un dangereux concurrent OpenSource qui est de plus en plus populaire : MySQL, justement racheté par Sun.

En 2009, Oracle rachète donc Sun pour 7,4 milliards de dollars. Seulement, Oracle n’a que faire de StarOffice ou d’OpenOffice. C’est le cadeau bonus venu avec l’achat et ça les ennuie plus qu’autre chose. De plus, contrairement à Sun, Oracle a montré de nombreuses fois qu’il se poste en ennemi acharné du logiciel libre.

En 2010, inquiets, les membres de la communauté OpenOffice créent donc la Document Foundation, une fondation sans but lucratif dont le but est de promouvoir et de continuer le développement d’OpenOffice, sans dépendre d’Oracle.

LibreOffice, la première suite communautaire

Il ne reste qu’un petit détail à régler : le nom, OpenOffice, appartient toujours à Oracle. La fondation fait une demande officielle à Oracle, Ô Oracle, vous qui êtes si puissant, si beau, si fort et qui n’avez que faire de ce misérable nom, cédez le nous et vous serez mille fois béni.

C’est à ce moment que les requins de chez Oracle lèvent les sourcils. Si ce nom est demandé, il a peut-être une certaine valeur. IBM met son grain de sel : si Oracle cède le nom à la fondation, IBM peut très bien ne plus pouvoir intégrer le code d’OpenOffice dans son Lotus Symphony qui est propriétaire, la Document Foundation soutenant des licences cancérigènes comme la LGPL !

Oracle refuse donc de céder le nom. La mort dans l’âme, la Document Foundation décide d’accepter la mort d’OpenOffice et de faire renaître le projet sous le nom LibreOffice.

Au final, ce changement de nom se révèle bénéfique. Comme le passage de XFree86 à X.org, il marque la transition. L’engouement communautaire est tel qu’en moins d’une année LibreOffice gagne des dizaines de contributeurs, un nombre impressionnant de lignes de code est changé et une première conférence rassemblant la communauté à lieu à Paris en octobre 2011. Conférence au cours de laquelle il est annoncé notamment le désir de porter LibreOffice sur Androïd. Les participants assistent également à une première démonstration de LibreOffice Online, une version web de la suite bureautique.

Apache Open Office, papy fait de la résistance

Mais il serait faux de penser qu’Oracle en resterait là. Tout aurait pu être tellement simple. Mais il ne faut jamais sous-estimer la nuisance qu’une confusion dans l’esprit du public peut apporter.

Peu après l’annonce de la création de LibreOffice, Oracle décide de donner le projet OpenOffice, y compris le nom, à la fondation Apache. À charge pour elle de continuer le développement de ce projet.

À la Document Foundation, tout le monde est un peu surpris. Surtout que la licence Apache choisie permet à LibreOffice de reprendre du code de chez Apache OpenOffice mais le contraire n’est lui pas possible. En juillet 2011, IBM annonce sa volonté de contribuer au projet Apache OpenOffice et, début 2012, annonce même arrêter complètement IBM Lotus Symphony pour se concentrer uniquement sur Apache OpenOffice.

OpenOffice ou LibreOffice, lequel choisir ?

Pour beaucoup, Apache OpenOffice n’est donc qu’un homme de paille, un projet IBM, qui sert les intérêts d’IBM et non ceux de la communauté. Après quelques mois, il faut se rendre à l’évidence: le projet Apache OpenOffice dispose de dix fois moins de contributeurs. Comparer le nombre de modifications du code entre les deux projets est également sans appel : LibreOffice est un projet libre, communautaire et OpenOffice est une anecdote poussée à contre-cœur.

La majorité des distributions Linux sont d’ailleurs passées à LibreOffice. Des grands projets se mettent en place: la région Île-de-France travaille à offrir un LibreOffice intégré avec sa solution Cloud à tous ses étudiants. Un écosystème de sociétés a rejoint la Document Foundation afin d’offrir du support professionnel sur LibreOffice, depuis les grands pontes comme Suse, partie de Novell, au petites structures comme Lanedo, employeur de votre serviteur.

Si l’offre est là, la demande est elle en pleine confusion. Des clients de Sun, payant pour le support d’OpenOffice, se sont retrouvés sans maintenance du jour au lendemain. Le changement de nom fait craindre une migration lente et coûteuse, beaucoup ne comprenant pas qu’il s’agit essentiellement du même logiciel.

Si l’avenir de LibreOffice semble radieux, beaucoup ne le saisissent pas encore. Mais, maintenant, si jamais on vous pose la question de savoir la différence entre OpenOffice et LibreOffice, vous pourrez répondre : « Assieds-toi, je vais te raconter une histoire… ».