1

Les partisans de l’ouverture participent-ils d’un maoïsme numérique ?

Luca Vanzella - CC by-saOpen, open, open ! les partisans de l’ouverture n’auraient, d’après Jason Lanier[1], que ce mot à la bouche, qu’ils s’appellent WikiLeaks, hackers, logiciels libres ou Wikipédia.

En plus, vous savez quoi ? Cette ouverture signifie la mort de la vie privée, la qualité nivelée par les masses, l’innovation en hibernation et une économie confisquée par une minorité. Ce que Jason Lanier résume par l’expression pas forcément très heureuse de « maoïsme numérique ».

Il n’en fallait pas plus que pour notre ami Glyn Moody, souvent traduit ici, ne réagisse !

La parole est à la défense des hackers et de l’Open Source

Glyn Moody – 18 janvier 2011 – The H Open Source
(Traduction Framalang : Olivier Rosseler)

In defence of hackers and open source

À mes yeux, l’avènement de WikiLeaks est un évènement marquant car il apporte un nouvel éclairage sur de nombreux domaines, pas forcément ceux auxquels on pense, parmi ceux-ci : l’éthique des hackers et le monde de l’Open Source.

Jaron Lanier s’y est intéressé récemment dans un article amusant, mais il reste dubitatif. Si vous ne connaissez pas ses hauts faits d’armes, voilà ce que l’autre Wiki, Wikipédia, dit de lui :

Jaron Zepel Lanier (né le 3 mai 1960) est un informaticien américain, compositeur, artiste graphique et essayiste. Il est l’auteur d’un film expérimental, mais ne se considère pas comme un producteur. Au début des années 80, il est l’un des pionniers de ce qu’il contribuera à faire connaître sous le terme de « Réalité Virtuelle ». Il fonda à l’époque la société VPL Research, la première entreprise à commercialiser des produits de réalité virtuelle. Actuellement, il est entre autres, professeur honoraire à l’université de Berkeley, Californie. Il figure dans la liste des 100 personnes les plus influentes du magazine Time de 2010.

Le titre de son essai est « Les dangers de la suprématie des nerds : Le cas de WikiLeaks » (NdT : nerd, qu’on aurait pu traduire par polard ou intello), ce qui vous donne une idée de son point de vue sur les hackers et l’Open Source. Je pense qu’il se trompe dans son argumentaire contre WikiLeaks, comme je l’ai déjà évoqué, mais je me concentrerai ici sur les prises de position contre les hackers et l’ouverture qu’il distille au passage.

Point de départ de sa critique : une rencontre de la plus haute importance qui aurait, selon ses dires, mené à la création de WikiLeaks.

Le nid qui vit éclore WikiLeaks est un forum organisé par John Gilmore, l’un des fondateurs de l’Electronic Frontier Foundation. J’aurais d’ailleurs pu moi-même devenir l’un des fondateurs de l’EFF. J’étais présent quand tout a commencé, lors d’un repas à San Francisco, dans le quartier de Mission, avec John, John Perry Barlow et Mitch Kapor. C’est un pressentiment qui m’a empêché de suivre les autres dans la création de l’EFF, le pressentiment que quelque chose clochait.

Il poursuit :

Le chiffrement les obsédait, le Graal qui rendrait les hackers aussi puissants que les gouvernements, et ça me posait un problème. Les têtes enflaient : Nous, hackers, pouvions changer le cours de l’Histoire. Mais si l’Histoire nous a appris quelque chose, c’est bien que la quête du pouvoir ne change pas le monde. Vous devez vous changer vous-même en même temps que vous changez le monde. La désobéissance civile est avant tout une question de discipline spirituelle.

Mais c’est là, je pense, que son argumentation est fausse : les hackers ne sont pas en « quête de pouvoir ». Les actions qu’ils entreprennent leur confèrent peut-être un certain pouvoir, mais ce n’est qu’un effet secondaire. Par définition, les hackers hackent car ils aiment hacker : c’est l’équivalent au XXIe siècle de « l’art pour l’art ». Je concède que Richard Stallman et ses sympathisants ajoutent une dimension hautement morale au hack : apporter la liberté aux peuples. Mais, je le répète, ils ne sont pas en « quête de pouvoir » : ils veulent le donner, pas le prendre.

Vers la fin de son article, Lanier écrit :

J’ai toujours pensé qu’un monde ouvert favoriserait l’honnête et le juste et dé-crédibiliserait le magouilleur et l’arnaqueur. Appliquée avec modération, cette idée est attrayante, mais si le concept de vie privée venait à disparaître, les gens deviendraient d’abord sans intérêt, puis incompétents et ils finiraient eux-mêmes par disparaître. Derrière cette idée d’ouverture radicale se cache une allégeance de l’Homme aux machines.

Là encore il nous sert une hypothèse sans fondement : « si le concept de vie privée venait à disparaître ». Il ne me semble pas que beaucoup de hackers aient appelé à la «disparition du concept de vie privée » (aucun nom ne me vient à l’esprit d’ailleurs). Il y a confusion entre « ouverture » et « absence de vie privée » alors que ce sont deux choses bien distinctes (bien que l’ouverture ait certainement des implications sur la vie privée, mais de là à définir le premier par l’absence du second, il y a un grand pas).

Cette tendance à créer des épouvantails et à passer allégrement dans le hors-sujet est récurrente chez Lanier. Sa précédente diatribe sur tout ce qui est ouvert, « Maoïsme numérique » en est un bon exemple. Voilà le passage consacré à l’Open Source :

Il faut que je m’accorde une parenthèse sur Linux et les projets similaires. Qu’ils soient « libres » ou « Open Source », ces logiciels ne sont pas, à bien des égards, comme Wikipédia, à vouloir agréger tous les contenus. Les programmeurs de Linux ne sont pas anonymes, au contraire, la reconnaissance personnelle fait partie de leurs motivations, c’est ce qui fait avancer de tels projets. Mais des points communs existent, comme l’absence d’opinion représentative ou de sens du design (au sens esthétique du terme), ce sont des défauts que partagent les logiciels Open Source et Wikipédia.

Ces mouvements excellent dans la création de tout ce qui est infrastructure cachée, comme les serveurs Web. Mais ils sont incapables de créer des interfaces utilisateurs léchées ou d’améliorer l’expérience utilisateur. Si le code de l’interface utilisateur de Wikipédia était aussi ouvert que ses articles, vous pouvez être sûr que ça deviendrait rapidement un bourbier inextricable. L’intelligence collective parvient avec brio à résoudre des problèmes qui peuvent être évalués sur des critères objectifs, mais elle n’est pas adaptée ici lorsque les goûts et les couleurs comptent.

Il a raison, c’est simplement une question de critères. Pour le code source, de nombreux critères objectifs existent, vitesse, poids, portabilité, etc. Mais pour ce qui est d’imaginer une interface, tout est très subjectif, difficile donc de s’assurer que les choses évoluent dans le bon sens à chaque transformation. Mais ce n’est pas l’« ouverture » ou le « collectif » qui posent problème ici : les projets extrêmement centralisés rencontrent les mêmes difficultés pour mesurer les « progrès » dans les domaines très subjectifs, alors que pour eux aussi, les questions plus objectives sont plus simples à résoudre.

Il semblerait que Lanier s’en prend une nouvelle fois à l’« ouverture » dans son dernier livre You Are Not a Gadget (NdT : Vous n’êtes pas un gadget). Je dis « il semblerait », car je ne l’ai pas lu : il y a bien d’autres livres que j’aimerais commencer avant, surtout si je me fie à ce résumé (et d’après ses autres écrits, je peux) :

Dans son ouvrage paru en 2010 (You Are Not A Gadget), Lanier critique l’« esprit de ruche » et compare l’Open Source et l’expropriation de la production intellectuelle orchestrée par les contenus ouverts à une forme de maoïsme numérique. Il trouve qu’ils ont ralenti le développement de l’informatique et l’innovation musicale. Il s’en prend à quelques icônes sacrées telles que Wikipédia et Linux dans son manifeste, Wikipédia pour la toute-puissance des auteurs et éditeurs anonymes qui font régner leur loi, pour la faiblesse de son contenu non-scientifique et pour l’accueil brutal réservé aux personnes qui ont effectivement une expertise dans leur domaine. Il affirme également que certains aspects de l’« Open Source » et de l’« Open Content » possèdent leurs limitations et qu’au fond ils ne créent rien de vraiment neuf ou innovant. Il poursuit en disant que ces approches ont retiré aux classes moyennes des opportunités de financer la création et ont concentré la richesse dans les mains de ceux qu’il nomme les « dieux dans les nuages » : ceux qui, plutôt que d’innover deviennent des intermédiaires, des concentrateurs de contenus, présents au bon endroit au bon moment, dans les « nuages ».

Le fait qu’il ressorte ce bon vieux troll montre que ses arguments sont usés jusqu’à la corde, a-t-il seulement entendu parler de ce truc qu’on appelle Internet, dont la création repose entièrement sur des protocoles et du code ouvert ?

De même, l’idée que le financement de la création de contenu par la classe moyenne est moins probable nie le fait que les gens créent plus de contenu que jamais, gratuitement, pour l’amour de la création, vous voyez on retrouve « l’art pour l’art ». Je vous accorde que ce ne sont pas que des chefs-d’œuvre, mais bon, cela a toujours été le cas, non ? La grande majorité des créations ont toujours été médiocres. Par contre, maintenant on s’en rend mieux compte car nous jouissons d’un accès sans précédent à la création. C’est cette richesse, cette variété dans l’abondance que Lanier semble ne pas apprécier lorsqu’il écrit :

L’idéologie qui pousse une bonne partie du monde connecté, pas seulement WikiLeaks, mais aussi des sites très visités comme Facebook par exemple, est que l’information en suffisamment grande quantité devient automatiquement une Vérité. Cela implique pour les extrémistes qu’Internet est en train de devenir une nouvelle forme de vie, singulière, mondiale, supérieure, post-humaine. Pour les sympathisants plus modérés, si l’information est vérité et que la vérité vous rend libre, alors enrichir l’Internet de plus d’informations rend automatiquement les gens plus libres et le monde meilleur.

Pour les hackers, ce n’est pas tant la quantité qui compte, mais plutôt la qualité, c’est ce qui fait la force des logiciels libres. L’ouverture a simplement pour but d’encourager les gens à s’appuyer sur l’existant pour améliorer les choses, pas juste pour amasser des lignes de code. De plus, la culture hacker valorise fortement les échanges interpersonnels. Le don et la collaboration sont des éléments clés de la méthodologie Open Source. Ça fonctionne car l’un des piliers de la culture hacker est l’attribution : ne pas indiquer que l’on s’appuie sur le travail d’autres personnes est une bévue monumentale. C’est une bonne protection contre les personnes mal intentionnées qui voudraient siphonner la bonne volonté de la communauté.

Au fond, Lanier devrait plutôt louer les hackers et l’Open Source, puisqu’ils partagent son désire d’allégeance aux Hommes plutôt qu’aux machines. Quel dommage qu’une personne de sa qualité ne s’en rende pas compte.

Notes

[1] Crédit photo : Luca Vanzella (Creative Commons By-Sa)




Développer en public

Steve Jurvetson - CC by Voici, révélé sur son blog par Bradley M. Kuhn (cadre dirigeant à la FSF impliqué dans le projet GNU), l’un des meilleurs ingrédients pour la réussite d’un projet de logiciel libre : rendre son développement public, dès la conception. C’est du moins l’enseignement qu’il retire d’un échange qu’il a eu avec Loïc Dachary, pionnier du logiciel libre, fondateur de la FSF France, d’EUCD.info ou encore de la plateforme d’hébergement de projets libres Gna! [1].

Or, si l’idée peut sembler simple, sa réalisation est loin d’être anecdotique et porte à de nombreux débats, comme le synthétise ici Bradley. Mais surtout, ce qui se dessine au travers de cette réflexion, c’est un élément fondamental de la définition de ce qu’est un projet libre, un projet ouvert, un projet pérenne : c’est un projet dont on partage les idées et la conception, en plus des sources. Bradley Kuhn oppose, en filigrane, à cette vision, celle de grands projets (qui se clament bien souvent eux-même « OpenSource ») dont en effet seul le code est publié. Des projets opposant une résistance aux contributions extérieures, et qui peuvent alors presque paradoxalement sembler hermétiques, fermés…

Plusieurs exemples viennent aisément en tête car c’est entre autres l’un des principaux reproches fait à Chromium, la version « OpenSource » du navigateur Google Chrome. Mais LibreOffice, le récent fork d’OpenOffice, illustre parfaitement la conclusion de Bradley, quand la communauté d’un projet de logiciel libre finit par n’avoir d’autre choix que de partir sur un embranchement définitif des fichiers sources pour en ouvrir au public le développement, et plus le code seulement.

Où sont les octets ? [2]

Where Are The Bytes?

Bradley M. Kuhn – 11 juin 2010 – EBB.org
(Traduction Framalang : Barbidule, Loquemunaine, Goofy)

Il y a quelques années, j’avais envisagé de me lancer dans un projet de logiciel libre. Il n’a pas vu le jour, mais j’ai appris au passage des choses bonnes à savoir. Quand j’ai pensé à démarrer ce projet, j’ai fait comme à mon habitude : j’ai demandé à quelqu’un qui en savait plus que moi. J’ai donc téléphoné à Loïc Dachary, qui a initié de nombreux projets de logiciels libres, pour lui demander conseil.

Avant même que je puisse ne serait-ce qu’évoquer mon idée, Loïc m’a demandé : « Tu as une URL » ? J’étais abasourdi. Ben, je n’ai pas encore commencé, répondis-je. Bien sûr que si, reprit-il, puisque tu m’en parles c’est que tu as commencé. Le plus important, c’est que tu me dises où sont les octets.

Loïc m’expliqua ensuite que la plupart des projets échouent. Le plus difficile dans un projet de logiciel libre est de le pousser à un stade suffisamment avancé pour qu’il puisse survivre même si ses créateurs initiaux le quittent. Donc, selon la théorie de Loïc, la tâche la plus urgente à accomplir au démarrage d’un projet, c’est de générer ces octets, dans l’espoir qu’ils se fraieront un chemin jusqu’à une équipe de développeurs qui contribueront à maintenir le projet actif.

Mais qu’est-ce qu’il entend par « octets » au juste ? Il veut tout simplement dire que vous devez exposer vos réflexions, votre code, vos projets, vos idées, presque tout en fait sur une adresse publique où tout le monde pourra les voir. Montrez vos octets, montrez-les à chaque fois que vous en créez si peu que ce soit. C’est la seule chance de survie de votre projet de logiciel libre.

Le premier objectif d’un projet de logiciel libre est de rassembler des développeurs. Aucun projet ne peut avoir de succès à long terme sans une base diversifiée de développeurs. Le problème c’est que le travail initial de développement et le planning du projet finissent trop souvent enfermés dans la tête d’un petit noyau de développeurs. C’est dans la nature humaine : comment puis-je passer mon temps à expliquer à chacun ce que je suis en train de faire ? Si je le fais, quand trouverai-je le temps de faire vraiment avancer les choses ? Ceux qui dirigent les projets de logiciels libres savent résister à ce désir naturel et font ce qui peut sembler contre-intuitif : ils exposent leurs octets publiquement, même si cela les ralentit un peu.

Ce processus est d’autant plus nécessaire à l’ère des réseaux. Si quelqu’un veut créer un programme qui remplisse sa mission, son premier outil est le moteur de recherche : il s’agit de savoir si quelqu’un d’autre a déjà fait le boulot. L’avenir de votre projet dépend entièrement du fait que chaque recherche de ce type aide des développeurs à découvrir vos octets.

Début 2001 j’ai demandé à Larry Wall quel était le projet le plus difficile parmi tous ceux sur lesquels il a travaillé. Sa réponse fut immédiate : "quand j’ai développé la première version de Perl5," m’a dit Larry, "j’avais l’impression que je devais coder tout seul et le faire tourner par mes propres moyens". Bien sûr, Larry est un gars tellement doué qu’il peut se permettre de créer à lui tout seul un programme que tout le monde voudra utiliser. Bien que je ne lui aie pas demandé ce qu’il ferait aujourd’hui dans une situation pareille, je devine – particulièrement quand on voit comment le développement de Perl6 est devenu public – qu’il utiliserait plutôt les nouveaux outils en ligne, tels que DVCS, pour montrer plus vite et plus souvent ses octets, et chercher à impliquer plus tôt davantage de développeurs[3].

Il est vrai que la priorité de la plupart des développeurs est de tout cacher. "On publiera quand ce sera prêt", ou bien – pire encore – "le noyau dur de l’équipe travaille bien ensemble ; rendre le projet public maintenant ne ferait que nous ralentir". En vérité, c’est un mélange dangereux de peur et de narcissisme, exactement la même pulsion que celle qui pousse les développeurs de logiciels non-libres à les conserver propriétaires.

Les développeurs de logiciels libres ont la possibilité de dépasser la réalité fondamentale de tout développement logiciel : le code est mal fichu, et n’est généralement pas terminé. Malgré tout, il est essentiel que la communauté puisse voir ce qu’il se passe à chaque étape, dès le noyau initial du code et au-delà. Quand un projet est perçu comme actif, cela attire les développeurs et donne au projet une chance de succès.

Quand j’étais à la fac, une des équipes d’une classe de génie logiciel s’est complètement plantée. C’est arrivé alors même qu’un des membres de l’équipe avait passé près de la moitié du semestre à coder par lui-même, nuit et jour, sans se soucier des autres membres de l’équipe. Durant l’évaluation finale, le professeur lui fit remarquer : « un développeur de logiciel, ce n’est pas un pilote de chasse ». L’étudiant, ne voyant pas le rapport, plaisanta : « Ouais, je sais, au moins le pilote de chasse, il a un copilote ». En vérité, il ne suffira pas d’une personne ou deux, ou même d’une petite équipe, pour faire aboutir un projet de logiciel libre. Le projet ne marchera que s’il est soutenu par une communauté importante qui évitera tout point individuel de défaillance.

Il n’en reste pas moins que la plupart des projets de logiciels libres sont voués à l’échec. Cependant, il n’y a aucune honte à balancer quelques octets, pour inciter les gens à y jeter un oeil, quitte à laisser tomber si la mayonnaise ne prend pas. Toute la recherche scientifique fonctionne ainsi, et il n’y a pas de raison pour que l’informatique fasse exception. Garder un projet privé, c’est garantir son échec ; le seul intérêt, c’est que vous pouvez dissimuler le fait que vous avez essayé. Comme le disait mon directeur de thèse lorsque je me faisais du souci quant à la réussite de ma recherche : un résultat négatif peut être aussi intéressant qu’un résultat positif. Ce qui est important, c’est d’être sûr que tous les résultats seront publiés et que le public pourra les examiner.

Quand j’ai commencé à parler de cette idée il y a quelques semaines, certains m’ont répondu que les premiers programmes GNU, les logiciels fondateurs de notre communauté ont d’abord été développé en privé. C’est vrai, mais le fait que les développeurs du projet GNU aient procédé de cette façon ne veut pas dire que c’est la bonne. Nous disposons désormais des outils pour faire facilement du développement en public, et nous devrions le faire. De mon point de vue, aujourd’hui nous ne sommes pas vraiment dans l’esprit du logiciel libre tant que le projet, y compris les discussions sur sa conception, les plans et les prototypes, ne sont pas développés publiquement. Le code (quelque soit sa licence) qui n’est que balancé à intervalles plus ou moins réguliers mérite d’être repris par une communauté qui rende son développement public.


Mise à jour (2010-06-12) : J’ai complètement oublié de parler de « The Risks of Distributed Version Control » par Ben Collins-Sussman, qui date de cinq ans maintenant mais qui est toujours d’actualité. Ben fait un constat similaire au mien, et remarque que certaines utilisations de DVCS peuvent avoir les effets que j’encourage les développeurs à éviter. Je pense que DVCS est comme n’importe quel autre outil : il peut être mal utilisé. Il faut éviter de s’en servir comme Ben le signale, et DVCS, lorsqu’il est utilisé correctement, aide dans le processus de développement public de logiciel.

Notes

[1] Fonctionnant tout comme GNU Savannah grâce au logiciel Savane dont il est le principal développeur.

[2] Crédit photo : Steve Jurvetson (Creative Commons By). Cette photo, intitulée « mémoires primitives » est un gros plan sur une barrette de mémoire vive du milieu du siècle dernier. On y voit un quadrillage de « fins » fils de laiton, tricoté à la main avec de petits anneaux de ferrite à chaque intersection, le tout noyé dans de la colle. L’ensemble, qui pouvais occuper le volume d’un magazine papier, était capable de conserver plusieurs centaines de … bits de mémoire. Le circuit tricoté ici représente ainsi 38 octets de mémoire vive, et il est assez vertigineux de constater que 50 ans plus tard, on stocke environ 25 millions de fois plus d’information dans le volume de chaque anneau de ferrite.

[3] Notez que rendre son code public au milieu des années 1990 était plus difficile (d’un point de vue technologique) que maintenant. Ceux qui n’ont pas connu les archives shar ne s’en rendent pas compte. 🙂




Le logiciel libre en entreprise expliqué par un communiqué de presse

Ed Yourdon - CC by-saOn m’a envoyé aujourd’hui un communiqué de presse via le formulaire de contact du blog.

Je l’ai trouvé fort instructif et j’ai décidé de vous le reproduire ci-dessous dans son intégralité, à ceci près que j’ai effacé le vrai nom de la société et de son logiciel phare qui deviennent ici « Société-X » et « CMS-X » .

D’un simple copier/coller sur un moteur de recherche, il est facile de les retrouver, là n’est pas le propos[1].

Le propos c’est que ce communiqué illustre me semble-t-il assez bien le modèle économique choisi majoritairement par les entreprises qui intègrent du logiciel libre – ou plutôt open source – dans leur stratégie de développement. Dans le fond avec sa déclinaison du produit en version « Community » et en version « Entreprise » (elle-même en double licence, libre ou propriétaire), mais aussi dans la forme avec le ton et le style particuliers adoptés par le communiqué.

Communiqué de presse de la « Société-X »

Société-X renforce sa stratégie d’innovation et offre une nouvelle solution à ses clients professionnels.

Alors qu’aujourd’hui seuls les ingénieurs de Société-X développent le coeur du CMS-X, Société-X a annoncé à l’occasion de sa conférence annuelle des changements importants afin d’encourager et d’intégrer les contributions de sa communauté Open Source dans sa plate-forme de gestion de contenu CMS-X. A partir de la prochaine version de CMS-X sortant dans les prochains jours, Société-X ouvrira ses processus de développement à sa communauté et permettra à ses membres de contribuer directement à l’évolution de la solution CMS-X. Cette initiative est centralisée dans le cadre du projet « CMS-X Community Project ».

En parallèle, Société-X proposera à ses clients professionnels une nouvelle version de sa solution en annonçant CMS-X Enterprise, version suivant des processus qualité très stricts et officiellement supportée, maintenue par Société-X sous la forme d’une souscription annuelle. CMS-X Enterprise, tout en profitant pleinement de l’innovation accélérée dans CMS-X Community Project, sera maintenu dans une code base séparée soumise à du testing intensif et intégrant des modules très spécifiques seulement disponibles aux clients ayant souscrit à CMS-X Enterprise Subscription.

Ces améliorations permettront d’offrir une nouvelle valeur ajoutée à la communauté Open Source, aux clients et aux partenaires.

Cette annonce est une formidable opportunité pour les partenaires et membres de la communauté qui seront en mesure d’influencer largement la road map et les futures orientations de l’application CMS-X. Ainsi, les 50.000 membres de la communauté pourront contribuer simplement au développement de la solution et participer à la gouvernance du projet « CMS-X Community Project ». CMS-X est une plate-forme de CMS reposant sur les meilleurs standards du marché pour une utilisation en contexte professionnel. Elle offre pour les entreprises un haut niveau de support disponible par abonnement.

CMS-X sera donc disponible en deux versions :

  • La version communautaire développée sur la base SCRUM et dédiée aux développeurs, chercheurs…
  • La version CMS-X Enterprise conçue pour une utilisation professionnelle. Elle est disponible en deux modes GPL ou PLU (Professional User Licence). La version professionnelle est actualisée deux fois par an (mars et septembre) et disponible uniquement pour les clients professionnels.

Ce nouveau modèle de distribution sera mis en place à l’occasion de l’annonce de la prochaine version de CMS-X Enterprise délivrée dans les prochains jours.

Notes

[1] Crédit photo : Ed Yourdon (Creative Commons By-Sa)




Et l’homme créa la vie… mais déposa un brevet dans la foulée

Liber - CC by-saGrande première : des chercheurs américains sont récemment parvenus à créer une cellule bactérienne vivante dont le génome est synthétique.

Il n’en fallait pas plus pour que la presse vulgarise l’évènement en nous posant cette spectaculaire question : et si l’homme venait de créer la vie ?

C’est aller un peu vite en besogne nous précise le célèbre scientifique français Joël de Rosnay : « Craig Venter, l’auteur de la fameuse publication dans Science, n’a pas créé la vie, il a fait un copier coller du génome d’une bactérie qui existe dans la nature ». Mais il reconnaît cependant que « c’est la première fois qu’un être vivant n’a pas d’ancêtre, qu’il a pour père un ordinateur ».

Nous voici donc en présence d’un être vivant dont le père serait partiellement un ordinateur. Or qui manipule cet ordinateur ? Craig Venter et son équipe, et si l’homme est avant tout un biologiste c’est également un homme d’affaire, ce ne sont pas des fonds publics mais privés qui financent ses recherches. Ainsi Le Monde nous révèle que « Venter, qui aurait déjà investi 40 millions de dollars dans ce projet, a déposé un portefeuille de brevets pour protéger son concept de Mycoplasma laboratorium, hypothétique machine à tout faire des biotechnologies ».

Une vie qui n’est alors qu’information et données entrées dans un ordinateur mais dont l’exploitation et l’accès sont strictement contrôlés et réservés aux entreprises qui l’ont enfantée. Cela ressemble à de la mauvaise science-fiction. C’est pourtant peut-être le monde qui nous attend demain. Et l’Apocalypse arrivera plus tôt que prévu[1].

Sauf si… sauf si on insuffle là aussi un peu d’esprit « open source », nous dit cet article du The Economist traduit ci-dessous.

Avoir ou non la possibilité de « hacker la vie », telle sera l’une des questions fondamentales de ce siècle.

Et l’homme créa la vie…

And man made life

20 mai 2010 – The Economist Newspaper
(Traduction Framalang : Martin, Olivier et Don Rico)

La vie artificielle, porteuse de rêves et de cauchemars, est arrivée.

Créer la vie est la prérogative des dieux. Au plus profond de sa psyché, malgré les conclusions rationnelles de la physique et de la chimie, l’homme a le sentiment qu’il en est autrement pour la biologie, qu’elle est plus qu’une somme d’atomes en mouvement et en interaction les uns avec les autres, d’une façon ou d’une autre insufflée d’une étincelle divine, d’une essence vitale. Quel choc, alors, d’apprendre que de simples mortels ont réussi à créer la vie de façon artificielle.

Craig Venter et Hamilton Smith, les deux biologistes américains qui en 1995 ont démêlé pour la première fois la séquence d’ADN d’un organisme vivant (une bactérie), ont fabriqué une bactérie qui possède un génome artificiel – en créant une créature vivante sans ascendance (voir article). Les plus tatillons pourraient chipoter sur le fait que c’est seulement l’ADN d’un nouvel organisme qui a été conçu en laboratoire, les chercheurs ayant dû utiliser l’enveloppe d’un microbe existant pour que l’ADN fasse son travail. Néanmoins, le Rubicon a été franchi. Il est désormais possible de concevoir un monde où les bactéries (et à terme des animaux et des plantes) seront conçues sur ordinateur et que l’on développera sur commande.

Cette capacité devrait prouver combien l’Homme maîtrise la nature, de façon plus frappante encore que l’explosion de la première bombe atomique. La bombe, bien que justifiée dans le contexte de la Seconde Guerre mondiale, n’avait qu’une fonction de destruction. La biologie, elle, s’attache à « mettre en culture » et « faire croître ». La biologie synthétique, terme sous lequel on regroupe cette technologie et des tas d’autres moins spectaculaires, est très prometteuse. À court terme, elle devrait permettre d’obtenir de meilleurs médicaments, des récoltes moins gourmandes en eau (voir article), des carburants plus écologiques, et donner une nouvelle jeunesse à l’industrie chimique. À long terme, qui peut bien savoir quels miracles elle pourrait permettre d’accomplir ?

Dans cette perspective, la vie artificielle semble être une chose merveilleuse. Pourtant, nombreux sont ceux qui verront cette annonce d’un mauvais œil. Pour certains, ces manipulations relèveront plus de la falsification que de la création. Les scientifiques n’auraient-ils plus les pieds sur terre ? Leur folie conduira-t-elle à l’Apocalypse ? Quels monstres sortiront des éprouvettes des laboratoires ?

Ces questionnements ne sont pas infondés et méritent réflexion, même au sein de ce journal, qui de manière générale accueille les progrès scientifiques avec enthousiasme. La nouvelle science biologique a en effet le potentiel de faire autant de mal que de bien. « Prédateur » et « maladie » appartiennent autant au champ lexical du biologiste que « mettre en culture » et « faire croître ». Mais pour le meilleur et pour le pire, nous y voilà. Créer la vie n’est désormais plus le privilège des dieux.

Enfants d’un dieu mineur

Il est encore loin le temps où concevoir des formes de vie sur un ordinateur constituera un acte biologique banal, mais on y viendra. Au cours de la décennie qui a vu le développement du Projet Génome Humain, deux progrès qui lui sont liés ont rendu cet événement presque inévitable. Le premier est l’accélération phénoménale de la vitesse, et la chute du coût, du séquençage de l’ADN qui détient la clé du « logiciel » naturel de la vie. Ce qui par le passé prenait des années et coûtait des millions prend maintenant quelques jours et coûte dix fois moins. Les bases de données se remplissent de toutes sortes de génomes, du plus petit virus au plus grand des arbres.

Ces génomes sont la matière première de la biologie synthétique. Tout d’abord, ils permettront de comprendre les rouages de la biologie, et ce jusqu’au niveau atomique. Ces rouages pourront alors êtres simulés dans des logiciels afin que les biologistes soient en mesure de créer de nouvelles constellations de gènes, en supposant sans grand risque de se tromper qu’elles auront un comportement prévisible. Deuxièmement, les bases de données génomiques sont de grands entrepôts dans lesquels les biologistes synthétiques peuvent piocher à volonté.

Viendront ensuite les synthèses plus rapides et moins coûteuses de l’ADN. Ce domaine est en retard de quelques années sur l’analyse génomique, mais il prend la même direction. Il sera donc bientôt à la portée de presque tout le monde de fabriquer de l’ADN à la demande et de s’essayer à la biologie synthétique.

C’est positif, mais dans certaines limites. L’innovation se porte mieux quand elle est ouverte à tous. Plus les idées sont nombreuses, plus la probabilité est élevée que certaines porteront leurs fruits. Hélas, il est inévitable que certaines de ces idées seront motivées par une intention de nuire. Et le problème que posent les inventions biologiques nuisibles, c’est que contrairement aux armes ou aux explosifs par exemple, une fois libérées dans la nature, elles peuvent proliférer sans aide extérieure.

La biologie, un monde à part

Le club informatique Home Brew a été le tremplin de Steve Jobs et d’Apple, mais d’autres entreprises ont créé des milliers de virus informatiques. Que se passerait-il si un club similaire, actif dans le domaine de la biologie synthétique, libérait par mégarde une bactérie nocive ou un véritable virus ? Imaginez qu’un terroriste le fasse délibérément…

Le risque de créer quelque chose de néfaste par accident est sans doute faible. La plupart des bactéries optent pour la solution de facilité et s’installent dans de la matière organique déjà morte. Celle-ci ne se défend pas, les hôtes vivants, si. Créer délibérément un organisme nuisible, que le créateur soit un adolescent, un terroriste ou un État-voyou, c’est une autre histoire. Personne ne sait avec quelle facilité on pourrait doper un agent pathogène humain, ou en choisir un qui infecte un certain type d’animal et l’aider à passer d’une espèce à une autre. Nous ne tarderons toutefois pas à le découvrir.

Difficile de savoir comment répondre à une telle menace. Le réflexe de restreindre et de bannir a déjà prouvé son efficacité (tout en restant loin d’être parfait) pour les armes biologiques plus traditionnelles. Mais celles-ci étaient aux mains d’états. L’omniprésence des virus informatiques montre ce qu’il peut se produire lorsque la technologie touche le grand public.

Les observateurs de la biologie synthétique les plus sensés favorisent une approche différente : l’ouverture. C’est une manière d’éviter de restreindre le bon dans un effort tardif de contrer le mal. Le savoir ne se perd pas, aussi le meilleur moyen de se défendre est-il de disposer du plus d’alliés possible. Ainsi, lorsqu’un problème se présente, on peut rapidement obtenir une réponse. Si l’on peut créer des agents pathogènes sur ordinateur, il en va de même pour les vaccins. Et à l’instar des logiciels open source qui permettent aux « gentils sorciers » de l’informatique de lutter contre les « sorciers maléfiques » (NdT : white hats vs black hats), la biologie open source encouragerait les généticiens œuvrant pour le bien.

La réglementation et, surtout, une grande vigilance seront toujours nécessaires. La veille médicale est déjà complexe lorsque les maladies sont d’origine naturelle. Dans le cas le la biologie synthétique, la surveillance doit être redoublée et coordonnée. Alors, que le problème soit naturel ou artificiel, on pourra le résoudre grâce à toute la puissance de la biologie synthétique. Il faut encourager le bon à se montrer plus malin que le mauvais et, avec un peu de chance, on évitera l’Apocalypse.

Notes

[1] Crédit photo : Liber (Creative Commons By-Sa)




Ouvrir ses logiciels mais fermer ses données à l’ère du cloud computing

Katayun - CC byVoici une courte traduction qui aborde furtivement deux sujets selon nous intéressants. Le premier n’est pas nouveau puisqu’il évoque la traditionnelle différence d’approche entre le logiciel libre cher à Richard Stallman et l’open source, à ceci près que l’avènement du cloud computing lui donne un nouvel éclairage.

Le second est peut-être plus original puisqu’il met en parallèle les logiciels et les données pour constater un mouvement opposé.

Nous sommes nombreux à souhaiter que les logiciels deviennent de plus en plus libres. Mais des Google et des Facebooks ont également envie que nos données suivent le même chemin pour pouvoir les manipuler tout à leur guise. C’est même fondamental pour eux puisque c’est tout leur business model qui est construit sur cela.

Or nous nous inquiétons chaque jour davantage du devenir de nos données, et si nous les souhaitons « libres » c’est avant tout libres de ne pas être contrôlées et exploitées sans notre consentement. Liberté et ouverture n’ont donc clairement pas le même sens chez les uns et chez les autres[1].

Il faut dire que dans les nuages : logiciels, formats, fichiers et données s’entrechoquent. Quand par exemple vous faites du traitement de texte directement en ligne (Google Docs, Zoho, etc.), c’est un peu tout à la fois qui est sollicité, sans qu’on n’arrive plus trop bien à les distinguer.

« Ouvrons » nos logiciels mais « fermons » nos données ? C’est en résumé, la question brutale que pose ce billet.

Libérez mes logiciels, pas mes données

Open source my software but not my data

Dana Blankenhorn – 27 avril 2010 – ZDNet (Blog Linux and Open Source)
(Traduction Framalang : Kovalsky, Barbidule et Goofy)

Comme Google avant lui, Facebook fait l’objet d’une attention accrue pour son interprétation du terme « ouvert » dans le monde en ligne.

Que les logiciels soient libres est une bonne chose. Mais que les données soient ouvertes ? Peut être pas tant que ça.

L’affirmation classique concernant le logiciel est qu’à moins que vous utilisiez l’AGPL, à moins que tout ne soit ouvert y compris vos sources secrètes, vous n’êtes pas vraiment ouvert, vous prétendez seulement l’être. Ouvert serait juste un autre mot pour dire que vous n’avez rien à cacher.

Je n’y ai jamais cru. L’open source n’est pas la même chose que le logiciel libre, c’est une des premières leçons qu’on m’a apprises quand j’ai commencé ce combat. (Richard Stallman s’en est chargé personnellement.)

L’open source est un continuum de choix, allant de l’idéal des logiciels libres de Stallman jusqu’au code de Microsoft sous restrictions serrées. L’open source est né en réaction logiciel libre de Stallman, et parfois en opposition à celui-ci.

Précédemment, j’ai mis au point une courbe de l’open source, pour illustrer l’étendue des choix disponibles. Plus vous avez besoin d’une participation de la communauté, plus vous êtes en bas de la courbe. Plus votre contrôle de la propriété du code augmente, plus vous êtes en haut.

Plus tard j’ai modifié cela en élaborant une courbe du développement open source, prenant en compte différents modèles de développement.

Ce qui est notable à propos de l’essentiel du code conçu pour être utilisé en ligne, c’est qu’il n’est généralement pas en bas de la courbe. Même Google n’est pas en bas de la courbe, bien qu’il soit un membre de la communauté open source tout à fait respectable. Google ne soutient pas l’AGPL.

Mais qu’en est il des données ? Qui décide du statut des données en ligne ? Est ce que la décision vous appartient, ou revient-elle aux entreprises qui hébergent les données ?

Facebook a assimilé les données à du logiciel, et il se permet alors de les diffuser dans la nature, en affirmant qu’il ne fait que suivre les principes de l’open source.

Quand vous comparez libre et propriétaire dans le monde logiciel, le libre semble formidable. Mais comparez-les sous l’angle des données, sur le mode « vos données seront ouvertes sauf si vous dites non », et les Sénateurs vont y voir une violation de la vie privée. En particulier si, comme Facebook, vous vous étiez vous-même défini jusqu’à récemment comme un réseau privé sans risque pour les enfants, et non comme un classique espace ouvert du Web.

Il est facile pour les logiciels de se déplacer vers le haut ou le bas de la courbe de l’open source. Pour les données cela se révèle problématique.

Notes

[1] Crédit photo : Katayun (Creative Commons By)




Geektionnerd : Oracle rachète Sun

Oracle a racheté Sun en avril dernier, ce qui n’a pas été sans créer un certain émoi dans la communauté du libre.

Ainsi on pouvait lire sur LinuxFr : « L’accord cite principalement les deux principaux actifs logiciels de Sun : Java et Solaris. On peut se demander ce qu’il adviendra des produits libres de Sun (Java, MySQL, OpenOffice.org, VirtualBox, OpenSolaris, GlassFish, OpenSPARC, NetBeans, etc.) et surtout de leur politique globale vers le libre. »

PS : Notons que la situation n’était pas forcément rose non plus avant l’arrivée d’Oracle.

Geektionnerd - Simon Gee Giraudot - CC by-sa

Geektionnerd - Simon Gee Giraudot - CC by-sa

Geektionnerd - Simon Gee Giraudot - CC by-sa

Crédit : Simon Gee Giraudot (Creative Commons By-Sa)




Naissance du (pas très bien nommé) Conseil National du Logiciel Libre

Gruntzooki - CC by-saCe matin je reçois dans ma boite aux lettres (électronique) un communiqué de presse m’informant de la création du Conseil National du Logiciel Libre (ou CNLL).

Le nom m’a intrigué parce que de Conseil national, je connaissais surtout celui de Suisse, de la Résistance et de l’Ordre des médecins !

En fait il s’agit d’une nouvelle association nationale regroupant 10 associations régionales représentant 200 entreprises françaises spécialisées dans le logiciel libre.

Le CNLL a pour vocation de parler au nom de l’ensemble de la filière économique du logiciel libre, sans discrimination, afin de faire connaître les bénéfices du logiciel libre dans le contexte actuel de relance économique, et de faire entendre les demandes de ses membres auprès des pouvoirs publics, pour un soutien à l’activité économique de la filière.

L’union faisant la force, c’est une très bonne nouvelle que voilà.

D’ailleurs l’Aful, associée au communiqué de presse, se réjouit de cette création. Tandis que l’April salue l’initiative.

On remarquera au passage la subtile nuance entre la réjouissance et la salutation. Le titre de l’annonce n’étant d’ailleurs pas le même chez nos deux associations : Création du Conseil National du Logiciel Libre pour le premier, Création d’une fédération professionnelle du Logiciel Libre pour le second 😉

J’ai eu la curiosité de parcourir la FAQ du site.

« Logiciels Libre » ou « Open Source », quelle est la position du CNLL ?

Logiciel Libre et Open Source Software désignent des logiciels dont les licences permettent de les utiliser, de les modifier et de redistribuer librement, selon des conditions qui ont été codifiées précisément, respectivement par la FSF et l’OSI. Les deux termes ont cependant des connotations différentes, et certains préfèrent utiliser l’un plutôt que l’autre, ce que nous respectons, tout en estimant que nous n’avons pas à trancher dans ce débat.

Quelle que soit la façon dont on les appelle, nous estimons que le processus de développement et de diffusion des logiciels libres / open source est à même d’apporter plus de valeur à moindre coût, et plus de contrôle sur leurs choix technologiques, aux clients des entreprises que nous représentons.

Cette dernière phrase a tout de même de forts accents « open source » selon moi. Comme si on répondait tout de même à la question en faisant un choix (au demeurant tout à fait cohérent, logique et respectable)[1].

Mais du coup je n’aurais pas forcément adopté un tel nom de baptême, qui peut prêter à confusion dans le sens où on ne comprend pas forcément qu’il s’agit de fédérer des entreprises.

Proposition alternative : l’ANAREFOS pour Association Nationale des Associations Régionales des Entreprises Françaises Open Source. Mais c’est plus long, moins sexy et puis il y a « anar » dedans !

Certaines mauvaises langues m’objecteront qu’il existait déjà une structure similaire avec la FniLL, qui a pour « vocation de représenter en France l’ensemble des acteurs professionnels qui participent au dynamisme de l’économie du Logiciel Libre ». N’étant pas dans le secret des dieux, je me dis qu’il doit y avoir quelques bonnes raisons à une telle (saine) concurrence.

Aful / April, CNLL / FniLL, Logiciel Libre / Open Source, ce billet figurera en bonne place dans le « Hall of Troll » du blog !

Mais qu’on ne se meprenne pas. Moi aussi je salue, que dis-je, je me réjouis de la naissance de ce projet qui témoigne du dynamisme des FLOSS dans notre beau pays 😉

Notes

[1] Crédit photo : Gruntzooki (Creative Commons By-Sa)




Google, Apple et l’inexorable déclin de l’empire Microsoft

Seanmcgrath - CC byQuel est le dénominateur commun des récents évènements qui ont défrayé la chronique du Web ? L’absence de Microsoft.

On peut à juste titre critiquer Google, et son jeu du chat et de la souris avec nos données personnelles. Dernier exemple en date : Google Buzz.
On peut en faire de même avec Apple, qui prend un malin plaisir à enfermer les utilisateurs dans son écosystème. Dernier exemple en date : l’iPad.

Il n’empêche que ces deux géants innovent en permanence et se détachent chaque jour un peu plus d’un Microsoft visiblement trop lourd pour suivre le rythme[1].

C’est ce que nous rappelle Glyn Moody dans ce très intéressant article qui vient piocher dans la toute fraîche actualité des arguments de son édifiante conclusion.

Il note au passage que contrairement à Microsoft, Google (beaucoup) et Apple (avec parcimonie) utilisent des technologies open source. Ceci participe aussi à expliquer cela.

Il s’est passé quelque chose, mais où est passé Microsoft ?

Something Happened: Where’s Microsoft?

Glyn Moody – 15 février 2010 – ComputerWorld.uk
(Traduction Framalang : Goofy)

Vous en avez probablement entendu parler, la semaine dernière il y a eu tout un pataquès à propos de Google Buzz et de ses conséquences sur le respect de la vie privée. Et voici ce que Google a répondu :

Nous avons bien reçu votre réaction, cinq sur cinq, et depuis que nous avons lancé Google Buzz il y a quatre jours, nous avons travaillé 24h sur 24 pour dissiper les inquiétudes que vous avez exprimées. Aujourd’hui, nous voulons vous informer que nous avons fait ces derniers jours une quantité de modifications en tenant compte des réactions que nous avons reçues.

D’abord, l’ajout automatique des contact suivis. Avec Google Buzz, nous avons voulu faire en sorte que les premiers pas soient aussi rapides et aisés que possible, et donc nous ne voulions pas que vous ayez à reconstruire manuellement votre réseau social depuis zéro. Cependant, beaucoup de gens voulaient juste essayer Google Buzz pour voir en quoi il pouvait leur être utile, et ils n’ont pas été contents de voir qu’ils avaient déjà une liste de contacts suivis. Ce qui a soulevé une énorme vague de protestations et incité les gens à penser que Buzz affichait automatiquement et de façon publique ceux qu’ils suivaient, avant même d’avoir créé un profil.

Jeudi dernier, nous avons entendu dire que les gens trouvaient que la case à cocher pour choisir de ne pas afficher publiquement telle ou telle information était difficile à trouver, nous avons aussitôt rendu cette option nettement plus repérable. Mais ce n’était évidemment pas suffisant. Donc, à partir de cette semaine, au lieu d’un modèle autosuiveur, avec lequel Buzz vous donne automatiquement à suivre des gens avec lesquels vous échangez le plus sur le chat ou par email, nous nous orientons vers un modèle autosuggestif. Vous ne serez pas voué à suivre quiconque avant d’avoir parcouru les suggestions et cliqué sur « Suivez les contacts sélectionnés et commencez à utiliser Buzz ».

Le plus intéressant dans cette histoire c’est que 1. Google aurait pu prévoir un problème aussi évident et crucial et 2. ils ont réagi non pas une mais deux fois en quelques jours à peine. C’est ce qui s’appelle vivre à l’heure d’Internet, et démontre à quel point les choses ont changé depuis le « bon vieux temps » – disons il y a quelques années – où les erreurs pouvaient mariner plusieurs mois dans un logiciel avant qu’on prenne la peine de s’en occuper.

Mais ce n’est pas le seul évènement qui s’est produit la semaine dernière. Relativement masquée par l’excitation autour de Buzz, voici une autre annonce de Google :

Nous avons le projet de réaliser un réseau à large bande ultra-rapide dans quelques localités tests aux États-Unis. Nous fournirons un accès à Internet par fibre optique à 1 gigabit par seconde, soit cent fois plus rapide que ce que connaissent aujourd’hui la plupart des Américains connectés. Nous avons l’intention de procurer ce service à un prix concurrentiel à au moins 50 000 personnes, et potentiellement jusqu’à 500 000.

Notre objectif est d’expérimenter de nouvelles façons d’aider chacun à accéder à un Internet plus rapide et meilleur. Voici en particulier ce que nous avons en tête :

Les applications du futur : nous voulons voir ce que les développeurs et les utilisateurs peuvent faire avec des vitesses ultra-rapides, que ce soit des applications révolutionnaires ou des services utilisant beaucoup de bande passante, ou d’autres usages que nous ne pouvons même pas encore imaginer.

Nouvelles techniques de déploiement : nous testerons de nouvelles façons de construire des réseaux de fibre optique, et pour aider à l’information et au support de déploiement partout ailleurs, nous partagerons avec le monde entier les leçons que nous en aurons tirées.

Le choix et l’ouverture : nous allons organiser un réseau en « accès ouvert », qui donnera aux usagers le choix parmi de multiples prestataires de services. Et en cohérence avec nos engagements passés, nous allons gérer notre réseau d’une façon ouverte, non-discriminatoire et transparente.

Google a démarré, souvenez-vous, comme un projet expérimental sur la recherche : en arriver à déployer chez un-demi million d’utilisateurs finaux des connexions par fibre optique à 1 gigabit, voilà qui en dit long sur le chemin parcouru par Google. Tout aussi impressionnante dans le même genre, l’irruption de Google dans monde des mobiles avec Android. Là encore, le lien avec le moteur de recherche n’est peut-être pas évident à première vue, mais tout cela revient à essayer de prédire le futur en l’inventant : Google veut s’assurer que quel que soit le chemin que prendra le développement d’Internet, il sera bien placé pour en bénéficier, que ce soit par la fibre à débit ultrarapide ou par des objets intelligents et communicants que l’on glisse dans sa poche.

Google n’est pas la seule entreprise qui se réinvente elle-même en permanence. C’est peut-être Apple qui en donne l’exemple le plus frappant, c’était pourtant loin d’être prévisible il y a quelques années. Mais au lieu de disparaître, l’entreprise Apple a colonisé la niche lucrative des produits informatiques sophistiqués, en particulier les portables, et a fini par remodeler non seulement elle-même mais aussi deux marchés tout entiers.

Le premier a été celui de la musique numérique, qui se développait bien mollement sous les attaques répétées d’une industrie du disque à courte vue, qui pensait pouvoir conserver le rôle qu’elle jouait dans le monde de l’analogique, celui d’intermédiaire obligé entre les artistes et leur public. En utilisant ses pouvoirs quasi hypnotiques, Steve Jobs s’est arrangé pour faire avaler à l’industrie du disque le lot iTunes + iPod, et la musique numérique a décollé comme jamais auparavant pour toucher l’ensemble de la population.

Tout aussi significative a été la décision de Jobs d’entrer dans le monde des téléphones portables. Le iPhone a redéfini ce que devait être un smartphone aujourd’hui, et a accéléré la convergence croissante entre l’ordinateur et le téléphone. Beaucoup pensent qu’avec son iPad Apple est sur le point de transformer la publication numérique aussi radicalement qu’il a déjà bouleversé la musique numérique.

Quoi que vous pensiez de ces récents évènements, une chose est parfaitement claire : pas un seul des événements les plus excitants du monde de l’informatique – Buzz, le réseau par fibre à 1 gigabit, le iPad, Android et tout le reste – n’est venu de chez Microsoft. La façon dont Google et Apple ont complètement masqué les nouveautés de Microsoft pendant des mois est sans précédent, et je pense, représente un tournant décisif.

Parce que nous assistons à la fin du règne de Microsoft en tant que roi de l’informatique – sans fracas, mais avec un petit gémissement. Bien sûr, Microsoft ne va pas disparaître – je m’attends vraiment à ce qu’il soit là encore pour des décennies, et qu’il distribue de jolis dividendes à ses actionnaires – mais Microsoft sera tout simplement dépourvu d’intérêt dans tous les domaines-clés.

Ils se sont plantés en beauté sur le marché de la recherche en ligne ; mais, d’une façon plus générale, je ne connais pas un seul service en ligne lancé par Microsoft qui ait eu un impact quelconque. Et ça n’est pas mieux côté mobile : bien que Windows Mobile ait encore des parts de marché pour des raisons historiques, je pense que personne, nulle part, ne se lève le matin en se disant « Aujourd’hui il faut que je m’achète un Windows Mobile », comme le font manifestement les gens qui ont envie d’un iPhone d’Apple ou d’un des derniers modèles sous Android comme Droid de Motorola ou Hero de HTC (même moi j’ai acheté ce dernier modèle il y a quelques mois).

Quant au marché de la musique numérique, le Zune de Microsoft est pratiquement devenu le nom générique de la confusion électronique, tant le système est mauvais et mal-aimé. Et même dans le secteur où la part de marché de Microsoft est davantage respectable – celui des consoles de jeu – le problème de l’infâmant « cercle rouge de la mort » menace là encore de ternir sa réputation.

Tout cela nous laisse l’informatique grand public comme dernier bastion de Microsoft. Malgré des tentatives constamment renouvelées de la part des experts (dont votre serviteur) pour proclamer « l’année des ordinateurs GNU/Linux », Windows donne peu de signes qu’il lâche prise sur ce segment. Mais ce qui est devenu de plus en plus flagrant, c’est que les tâches informatisées seront menées soit à travers le navigateur (porte d’accès à l’informatique dans les nuages) soit à travers les smartphones tels que que le iPhone ou les mobiles sous Android. Les uns comme les autres rendent indifférent le choix du système d’exploitation de l’ordinateur de bureau (d’autant que Firefox tend de plus en plus à faire jeu égal avec Internet Explorer sur beaucoup de marchés nationaux), donc savoir si l’on trouve Windows ou GNU/Linux à la base de tout ça est une question vraiment sans intérêt.

Mais vous n’êtes pas obligés de me croire. Dick Brass est bien mieux placé que moi pour en parler, il a été vice-président de Microsoft de 1997 à 2004. Voici ce qu’il a écrit récemment dans le New York Times :

Microsoft est devenu empoté et peu compétitif dans l’innovation. Ses produits sont décriés, souvent injustement mais quelquefois à juste titre. Son image ne s’est jamais remise du procès pour abus de position dominante des années 90. Sa stratégie marketing est inepte depuis des années ; vous vous souvenez de 2008 quand Bill Gates s’est laissé persuader qu’il devait littéralement se trémousser face à la caméra ?

Pendant qu’Apple continue à gagner des parts de marché sur de nombreux produits, Microsoft en perd sur le navigateur Web, le micro portable haut de gamme et les smartphones. Malgré les milliards investis, sa gamme de Xbox fait au mieux jeu égal avec ses concurrents du marché des consoles de jeu. Du côté des baladeurs musicaux, ils ont d’abord ignoré le marché puis échoué à s’y implanter, jusqu’à ce qu’Apple le verrouille.

Les énormes bénéfices de Microsoft – 6,7 milliards de dollars au trimestre dernier – viennent presque entièrement de Windows et de la suite Office qui ont été développés il y a des décennies (NdT : cf ce graphique révélateur). Comme General Motors avec ses camions et ses SUV, Microsoft ne peut pas compter sur ces vénérables produits pour se maintenir à flot éternellement. Le pire de tout ça d’ailleurs, c’est que Microsoft n’est plus considéré comme une entreprise attractive pour aller y travailler. Les meilleurs et les plus brillants la quittent régulièrement.

Que s’est-il passé ? À la différence d’autres entreprises, Microsoft n’a jamais développé un authentique processus d’innovation. Certains de mes anciens collègues prétendent même qu’elle a développé en fait un processus de frein à l’innovation. Bien qu’elle dispose des laboratoires les plus vastes et les meilleurs du monde, et qu’elle se paie le luxe d’avoir non pas un mais trois directeurs de recherches technologiques, l’entreprise s’arrange habituellement pour réduire à néant les efforts de ses concepteurs les plus visionnaires.

Il y a quelque chose de profondément ironique dans cet échec à innover, parce que Microsoft n’a pas cessé d’invoquer l’innovation comme argument principal pour n’être pas frappé par la loi anti-trust aux États-Unis comme en Europe, et pour justifier notre « besoin » de brevets logiciels. La déconfiture de cette argumentation est maintenant rendue cruellement flagrante par l’échec de l’entreprise à innover dans quelque secteur que ce soit.

Je dirais que le plus grand échec à ce titre a été de refuser de reconnaître que la manière la plus rapide et la plus facile d’innover c’est de commencer à partir du travail des autres en utilisant du code open source. Le succès de Google est presque entièrement dû à son développement de logiciels libres à tous les niveaux. Ce qui a permis à l’entreprise d’innover en plongeant dans l’immense océan du code librement disponible pour l’adapter à des applications spécifiques, que ce soit pour les gigantesques datacenters épaulant la recherche, ou pour la conception d’Android pour les mobiles – dans les deux cas à partir de Linux.

Même Apple, le champion du contrôle total du produit par l’entreprise, a reconnu qu’il était cohérent d’utiliser des éléments open source – par exemple, FreeBSD et WebKit – et s’en servir comme fondation pour innover frénétiquement au dernier étage. Refuser de le reconnaître aujourd’hui est aussi aberrant que refuser d’utiliser le protocole TCP/IP pour les réseaux.

Quelque chose s’est passé – pas juste cette semaine, ni la semaine dernière, ni même durant les derniers mois, mais au cours de ces dix dernières années. Le logiciel libre s’est développé au point de devenir une puissance considérable qui influe sur tout ce qui est excitant et innovateur en informatique ; et Microsoft, l’entreprise qui a reconnu le moins volontiers son ascendant, en a payé le prix ultime qui est son déclin.

Notes

[1] Crédit photo : Seanmcgrath (Creative Commons By)