La guerre du Web, par Tim O’Reilly

Phault - CC byUn article majeur de l’un des gourous de la Toile, qui met le doigt là où ça peut faire bientôt très mal.

Hubert Guillaud, nous le présente ainsi sur l’agrégateur Aaaliens :

« Tim O’Reilly revient sur la guerre du Web : entre Facebook qui ne transforme par les liens en hyperliens, Apple qui rejette certaines applications menaçant son coeur de métier… Tim O’reilly répète depuis longtemps qu’il y a deux modèles de systèmes d’exploitation de l’Internet : celui de « l’anneau pour les gouverner tous » et celui des « petites pièces jointes de manières lâche », le modèle Microsoft et le modèle Linux.

Allons-nous vers le prolongement du modèle du Web interopérable ? Ou nous dirigeons-nous vers une guerre pour le contrôle du Web ? Une guerre des plateformes (Google, Apple, Facebook…) ? Il est temps pour les développeurs de prendre position : si l’on ne veut pas rejouer la guerre des PC ou celle des navigateurs, il faut prendre fait et cause maintenant pour les systèmes ouverts ! »

La guerre du Web aura-t-elle lieu ?[1] La réponse dépend aussi de la capacité qu’aura « la communauté du Libre » à diffuser et défendre ses valeurs et ses idées.

On notera au passage un étonnante prédiction finale sur Microsoft, notre futur allié de circonstance !

La guerre du Web

The War For the Web

Tim O’Reilly – 16 novembre 2009 – O’Reilly Radar
(Traduction Framalang : Olivier Rosseler et Goofy)

Vendredi dernier, mon dernier message sur Twitter a également été publié automatiquement sur Facebook, comme d’habitude. À un détail près : le lien que contenait le message n’était plus actif, comme l’a remarqué Tom Scoville.

En fait, il est loin d’être le seul à l’avoir remarqué. Dès samedi matin, Mashable publiait un article à ce sujet : Facebook retire vos liens Twitter.

Si vous publiez des liens Web (Bit.ly, TinyURL) sur votre compte Twitter et que par le biais d’une application Twitter-Facebook vous les partagez également sur Facebook, ils perdent leur caractère d’hyperliens. Vos amis devront copier et coller l’adresse dans leur navigateur pour qu’ils fonctionnent.

Si Facebook tente d’améliorer son ergonomie, c’est une curieuse décision : il vaudrait mieux que ça soit juste un bogue, nous avons donc contacté Facebook pour en savoir plus. Toujours est-il que tout le site est affecté, et pas seulement vous.

Il se trouve que ce ne sont pas uniquement les liens postés depuis Twitter qui étaient affectés. Tous les liens externes ont été temporairement désactivés si les utilisateurs ne les avaient pas clairement ajoutés avec la fonction « Joindre ». Sur Facebook j’ai essayé de poster un lien direct vers ce blog dans mes nouveautés, mais le résultat est le même : les liens n’étaient plus automatiquement cliquables. Le premier lien de cet article renvoie à une image illustrant ma tentative.

Le problème a été rapidement résolu, les liens apparaissent à nouveau cliquables. On a dit que c’était un bogue, mais certains mettent évidemment cette explication en doute, surtout compte tenu des efforts de plus en plus visibles de Facebook pour prévenir les gens qu’ils quittent Facebook pour se rendre sur le grand méchant Internet.

Tout cela part d’un bon sentiment, je n’en doute pas. Après tout, Facebook met en place un meilleur contrôle de la vie privée, pour que les utilisateurs puissent mieux gérer la visibilité de leurs informations et la visibilité universelle qui fait loi sur le Web n’est pas forcément la mieux adaptée aux informations postées sur Facebook. Mais ne nous voilons pas la face : Facebook est un nouveau type de site Web (ou une ancienne version largement reliftée), un monde à part, avec ses propres règles.

Mais ça ne concerne pas que Facebook.

L’iPhone d’Apple est l’appareil connecté le plus à la mode et, comme Facebook, même s’il est connecté au Web, il joue avec ses propres règles. N’importe qui peut créer un site Web ou offrir une nouvelle application pour Windows, Mac OS X ou Linux, sans demander la permission à qui que ce soit. Vous voulez publier une application pour iPhone ? Il vous faudra obtenir l’approbation d’Apple.

Mais il y a une lacune flagrante : n’importe qui peut créer une application Web et les utilisateurs peuvent y accéder depuis leur téléphone. Mais ces applications connaissent des limitations : toutes les fonctionnalités du téléphone ne leur sont pas accessibles. HTML5 aura beau innover autant qu’il veut, les fonctionnalités principales du téléphone resteront hors de portée de ces applications sans la permission d’Apple. Et si l’on s’en réfère à l’interdiction de Google Voice sur iPhone il y a quelques temps, Apple n’hésite pas à interdire les applications qui menacent leur cœur d’activité et celui de ses partenaires.

Et ce n’est pas tout, une autre salve a été tirée contre les règles tacites d’interopérabilité du Web : Rupert Murdoch menace de retirer le Wall Street Journal de l’index de Google. Même si, de l’avis général, ce serait du suicide pour le journal, des voix contraires s’élèvent pour insister sur l’influence qu’à Murdoch. Pour Mark Cuban, Twitter a maintenant dépassé les moteurs de recherche pour ce qui est des informations en temps réel. Jason Calacanis va même plus loin, quelques semaines avant les menaces de Murdoch, il suggérait déjà que pour porter un gros coup à Google il faudrait que tous les groupes de radio/presse/télévision devraient bloquer Google et négocier un accord d’exclusivité avec Bing pour ne plus apparaître que dans l’index de Microsoft.

Évidemment, Google n’encaisserait pas sans broncher et signerait également des accords de son côté, on assisterait alors à une confrontation qui ferait passer la guerre des navigateurs des années 90 pour une petite bagarre de cours d’école.

Je ne suis pas en train de dire que News Corp et les autres groupes d’information devraient adopter la stratégie prônée par Jason, ni même qu’elle fonctionnerait, mais je vois une se profiler une période de concurrence meurtrière qui pourrait être très néfaste à l’interopérabilité du Web telle que nous la connaissons aujourd’hui.

Si vous suivez mes commentaires sur le Web 2.0 depuis le début, vous savez que je pense que nous sommes engagés dans un projet à long terme dont la finalité est le système d’exploitation Internet (jetez un œil au programme de la O’Reilly Emerging Technology Conference de 2002 (pdf)). Je soutiens depuis des années qu’il y a deux modèles de systèmes d’exploitation, que je décris comme "Un anneau pour les gouverner tous" et "Des petits morceaux faiblement coordonnés", ce dernier étant illustré par une carte d’Internet.

Dans le premier : malheur au vaincu, c’est le monde que nous avons connu avec Microsoft Windows et le PC, un monde où priment la simplicité et l’accessibilité, mais où le choix de l’utilisateur et du développeur sont réduits au bon vouloir du fournisseur de système d’exploitation.

Le second est une système d’exploitation qui fonctionne comme Internet lui-même, comme le Web et comme les systèmes d’exploitation Open Source comme Linux : un monde certes moins raffiné, moins contrôlé, mais un monde qui est par essence novateur car chacun peut apporter ses idées sans avoir à demander la permission à qui que ce soit.

J’ai déjà expliqué les tentatives des grands pontes comme Facebook, Apple et News Corp de grignoter le modèle « des petits morceaux faiblement coordonnés » de l’Internet. Mais peut-être que le plus grand danger réside dans les monopoles qu’a engendré l’effet réseau du Web 2.0.

Je ne cesse de répéter, à propos du Web 2.0, qu’il s’appuie sur un système auto-entretenu : plus il y a d’utilisateurs, plus l’expérience est intéressante. C’est un système qui tend naturellement vers des monopoles.

Nous nous sommes donc habitués à un monde où un seul moteur de recherche domine, où une seule encyclopédie en ligne domine, un seul cyber-marchand, un seul site d’enchères, un seul site de petites annonces dominent, et nous avons été préparés à un monde où un seul réseau social dominera.

Mais qu’advient-il lorsqu’une de ces entreprises, profitant de son monopole naturel, tente de dominer une activité connexe ? C’est avec admiration et inquiétude que j’ai observé Google utiliser sa mainmise sur la recherche pour tenter d’étendre son emprise sur d’autres activités concentrées sur les données. Le service qui m’a mis la puce à l’oreille était la reconnaissance vocale, mais c’est vraiment les services de géolocalisation qui ont eu le plus gros impact.

Il y a de cela quelques semaines, Google a lancé une application de navigation GPS gratuite pour les téléphones Android. Pour les clients c’est génial puisque auparavant ils devaient opter pour un GPS dédié ou des applications pour iPhone hors de prix. Mais il faut aussi y voir la compétitivité que le Web a acquise et la puissance que Google a gagnée en comprenant que les données sont le nouveau "Intel Inside" de la nouvelle génération d’applications pour ordinateurs.

Nokia a allongé 8 milliards de dollars pour NavTeq, leader de la navigation routière. Le fabricant de GPS TomTom a quant à lui payé 3,7 milliards de dollars pour TeleAtlas, numéro deux du secteur. Google développe un service équivalent dans son coin pour finalement l’offrir gratuitement… mais à ses seuls partenaires. Tous les autres doivent encore payer de lourdes redevances à NavTeq et TeleAtlas. Google va même plus loin puisqu’il y ajoute ses propres services, comme Street View.

Mais surtout, les camps sont maintenant bien établis entre Apple et Google (ne ratez pas l’analyse de Bill Gurley à ce sujet). Apple domine l’accès au Web mobile avec son appareil, Google contrôle l’accès à l’une des applications mobiles les plus importantes et limite son accès gratuit aux seuls terminaux Android pour l’instant. Google ne fait pas des merveilles que dans le domaine de la recherche, mais aussi en cartographie, en reconnaissance vocale, en traduction automatique et dans d’autres domaines adossés à des bases de données intelligentes phénoménales que seuls quelques fournisseurs peuvent s’offrir. Microsoft et Nokia disposent également de ces atouts, mais eux aussi sont en concurrence directe avec Apple et, contrairement à Google, leur économie repose sur la monétisation de ces atouts, pas sur la gratuité du service.

Il se peut qu’ils trouvent un moyen de co-exister pacifiquement, et dans ce cas nous pourrions continuer à jouir du Web interopérable que nous connaissons depuis deux décennies. Mais je parierais plutôt sur l’effusion de sang. Nous sommes à la veille d’une guerre pour le contrôle du Web. Au fond, c’est même plus que ça, c’est une guerre contre le Web en tant que plateforme interopérable. Nous nous dirigeons plutôt vers la plateforme Facebook, la plateforme Apple, la plateforme Google, la plateforme Amazon, les grandes entreprises s’étripant jusqu’à ce qu’il n’en reste plus qu’une.

C’est maintenant au développeur de s’affirmer. Si vous ne voulez pas voir l’histoire se répéter comme pour les PC, pariez sur les systèmes ouverts. N’attendez pas qu’il soit trop tard.

PS : Une prédiction : Microsoft sera le grand défenseur du Web ouvert, encourageant l’interopérabilité des services Web, tout comme IBM est devenu l’entreprise soutenant le plus Linux.

Je parlerai de ce sujet lors de mon discours d’introduction à la Web 2.0 Expo à New York mardi. J’espère vous y rencontrer.

Notes

[1] Crédit photo : Phault (Creative Commons By)




Copyright Watch ou l’observatoire mondial et collaboratif du droit d’auteur

Copyright Watch - EFFHadopi aura non seulement contribué à intéresser un grand nombre de nos concitoyens sur un sujet autrefois chasse gardée des industries culturelles, mais elle aura également permis de mettre le focus sur la France (en refroidissant d’ailleurs peut-être certains autres gouvernements dans leur velléités d’en faire autant).

Or justement qu’en est-il exactement de la situation hors de nos frontières sur toutes ces questions autour d’un droit d’auteur[1] qui se trouve totalement bousculé par l’avènement des nouvelles technologies et pratiques en réseau qui en découlent ?

Force est de reconnaître qu’en dehors de notre propre pays et de celui, influence numérique oblige, des États-Unis, nous n’en avons bien souvent qu’une connaissance ponctuelle, partielle et parcellaire (même si des sites comme Numerama, FFII ou La Quadrature font de gros efforts pour nous tenir au courant, en particulier sur l’Europe).

C’est pourquoi la nouvelle initiative de l’Electronic Frontier Foundation est plus que bienvenue. Elle s’appelle Copyright Watch et vise à suivre et surveiller le droit d’auteur et ses évolutions dans chaque pays.

En effet, avoir ainsi à disposition eu un unique endroit des documents, liens et informations actualisées, indépendantes et localisées sur les législations en vigueur (ou en préparation) nous sera précieux pour étude, information, comparaison, action, etc.

Le projet débute à peine, il est pour ainsi en bêta actuellement. Le premier objectif étant de trouver des correspondants (NdT : des local copyright monitors) prêt à maintenir leurs informations nationales à jour. Une fois ceci réalisé nous serons alors en présence d’une ressource de référence nous permettant d’avoir une meilleure vue d’ensemble sur la situation internationale, pointant ici des lois liberticides et là des lois favorisant au contraire le partage et diffusion d’une culture des biens communs.

Une base de données d’autant plus bienvenue que tout le monde n’a pas forcément intérêt à ce que tout ceci soit facilement accessible 😉

Qu’est-ce que Copyright Watch ?

About Copyright Watch

Copyright Watch – Novembre 2009 – Traduction partielle de la page « About » du site
(Traduction Framalang : Siltaar et Goofy)

Avant, le détail des lois sur le droit d’auteur n’était important que pour une minorité travaillant dans les industries culturelles. Désormais, avec la croissance d’Internet, nous sommes tout concernés car nous sommes potentiellement tous des auteurs, éditeurs, et partageurs d’œuvres de création.

Notre rêve est ici de construire une ressource conviviale sur les lois nationales du droit d’auteur afin d’aider les citoyens du monde à entreprendre des recherches comparatives. Nous souhaitons en effet sensibiliser à l’importance d’un droit d’auteur équilibré dans la société de l’information, et attirer l’attention sur les points communs et les divergences dans l’approche législative des différents pays.

Nous avons aussi voulu créer un outil de partage d’information, où des correspondants locaux pourraient publier des informations à propos des amendements proposés sur leurs propres lois du droit d’auteur, et à comprendre les changements dans celles des autres.

Nous espérons que Copyright Watch sera une ressource maintenue et conduite par la communauté de l’accès au savoir (NdT : Access to Knowledge movement, c’est-à-dire nous tous si nous participons) et que ce système de veille sur le droit d’auteur dans chaque pays permettra de garder cette information pertinente et à jour.

Enfin, nous espérons que Copyright Watch aidera à documenter l’importance du droit d’auteur sur tous les aspects de la vie culturelle et des libertés fondamentales. Équilibrées et bien calibrées les lois sur le droit d’auteur sont extrêmement importantes dans notre société mondiale et mondialisée de l’information.

Le plus petit changement dans l’équilibre juridique entre les ayants droit et le public peut permettre ou détruire des modèles économiques, criminaliser ou libérer des comportements quotidiens, et transformer ou éradiquer de nouvelles technologies. Une loi qui est passée dans un pays peut rapidement être reprise par d’autres, par des accords commerciaux bilatéraux, des initiatives politiques régionales ou des traités internationaux.

Nous devons tous rester vigilants.

Notes

[1] Rappelons une nouvelle fois que le Copyright anglo-saxon n’est pas synonyme de Droit d’auteur (cf liens Wikipédia).




Pourquoi j’utilise la licence GPL ou les états d’âme d’un développeur

Phillie Casablanca - CC byVoici une traduction intéressante à plus d’un titre.

D’abord parce qu’elle donne la parole à un développeur de logiciel libre (dont nous n’oublions pas ce que nous leur devons, c’est-à-dire tout). En l’occurrence il s’agit de Zed Shaw, bien connu dans la communauté Python et RoR (Ruby on Rails).

Ensuite parce qu’elle évoque la classique opposition à l’intérieur même des licences libres entre celles de type GPL et celle de type BSD. C’est toute la question du copyleft et de la viralité de la licence. Le copyleft est une apparente restriction, puisqu’il impose de diffuser le code modifié sous la même licence. Mais peut-être que cette contrainte est paradoxalement une garantie supplémentaire de liberté pour l’utilisateur ?

Enfin parce qu’elle aborde de nombreuses problématiques liées à l’open source et au monde de l’entreprise. Le fait de cacher à ses clients que l’on a utilisé du logiciel libre dans les solutions que l’on propose est une attitude malheureusement très fréquente (permettant de faire croire à moindre frais que l’on est hyper-compétent et que l’on a travaillé dur sur le projet). Il y a aussi toute la logique des startups, dont on attend un retour sur investissement presque immédiat, et qui du coup font de la rétention de code pourtant libre au départ.

Et puis il y a la question morale de la reconnaissance et celle très concrète du gagne-pain du développeur, frustré d’être ainsi ignoré et constatant non sans une certaine irritation que d’autres en profitent à sa place.

Voilà donc, entres autres arguments, pourquoi l’article ci-dessous mérite attention. Fatigué qu’une énième personne vienne lui demander pourquoi son code n’est pas sous licence BSD, Zed Shaw a décidé de réagir avec ce plaidoyer pugnace pour la licence GPL.

« Je veux que les gens apprécient le travail que j’ai fait et la valeur de ce que j’ai réalisé. Pas qu’ils passent en criant « pigeon » au volant de leurs voitures de luxe. »

Remarque : L’auteur concentre dans son titre les trois licences de la famille : la GNU/GPL, la LGPL et l’AGPL[1].

Pourquoi je (A/L)GPLise

Why I (A/L)GPL

Copyright Zed A. Shaw – 13 juillet 2009 – Blog personnel
Avec l’aimable autorisation de l’auteur
(Traduction Framalang : Poupoul2 et Cheval boiteux – Remerciements à Léviathan)

Dans le monde de Python, la GPL est fréquemment critiquée, la plupart préférant utiliser une licence plus permissive telle que BSD, MIT ou Python. Il est donc compréhensible que des gens soient en colère parce que j’ai placé Lamson (NdT : Serveur SMTP développé en Python) sous licence GPL. Nombreux sont ceux qui détestent cette licence, pensant qu’elle contrevient à l’esprit de Python.

J’aimerais cependant expliquer pourquoi moi j’utilise la GPL, après des décennies d’écriture de logiciels open source et quelques projets reconnus. Ce sont mes raisons de l’utiliser, elles ne s’appliquent qu’à moi et à ce que je souhaite faire de mon logiciel dorénavant. Vous êtes libres de vos opinions et choix, et j’espère que vous respecterez les miens.

C’est le droit de l’auteur

Je crois que ce qu’un auteur souhaite faire avec son travail est son droit le plus strict. Il l’a écrit, alors que tout le monde lui expliquait que ça ne fonctionnerait pas. Il s’est enchaîné à ce travail plutôt que de sortir avec des amis. Il en a corrigé les bogues, écrit sa documentation de façon à ce que tout le monde puisse l’utiliser. Il a peut-être même passé du temps à en assurer la promotion et à aider les gens. Tout cela gratuitement, et pour des raisons qui lui appartiennent.

Lorsque vous dénigrez un projet ou une personne pour son choix de licence, vous êtes un gigantesque abruti. L’auteur a travaillé sur ce projet, pas vous. Au minimum, vous insultez les croyances de cette personne dans le logiciel libre et open source, mais aussi son sentiment que le logiciel libre et open source fait progresser notre culture.

Au pire, vous êtes un gros et ingrat malotru, parce que quelqu’un vous donne un logiciel, alors que vous insultez son travail non pas sur des critères techniques, mais sur une licence que vous désapprouvez.

Je me fiche totalement de la licence que les autres utilisent pour leurs logiciels, c’est leur logiciel et râler à cause de la licence qu’ils ont choisi est injurieux. Ils l’ont écrit, y ont sué sang et eau, et vous devriez être reconnaissant d’avoir le privilège de simplement y avoir accès.

Voici la première raison pour laquelle j’utilise la GPL :

Parce que c’est mon choix, et si vous n’êtes pas d’accord avec ça, n’utilisez pas mon logiciel. C’est aussi simple que ça.

Je ne veux plus être ignoré

J’ai écrit Mongrel (NdT : Serveur et librairie HTTP pour Ruby on Rails) et puis je l’ai donné, avec l’espoir que ça en aiderait d’autres et que le donner me rapporterait d’une manière ou d’une autre. Peut-être un boulot, ou un peu de respect, ou encore ma propre entreprise créant d’autres logiciels tels que celui-ci.

Mongrel a eu un grand succès, et de très nombreuses entreprises gagnent beaucoup d’argent avec. Non seulement permet-il à Rails de fonctionner, mais également à quasiment tous les frameworks Web Ruby, tel que les serveurs web Ruby, et a même été porté dans d’autres langages. Mongrel est et a été un super projet et j’en suis réellement fier.

Laissez moi vous expliquer à quel point Mongrel est avancé. Vous rappelez vous de la nouvelle attaque récemment publiée sur Apache appelée Slowloris (NdT : attaques par Déni de Service via des requêtes HTTP partielles) ? J’avais en fait prévu cette attaque, et écrit Mongrel de manière à ce qu’il y soit résistant (autant que Ruby me l’ait permis). Je l’avais appelé la « trickle attack » (NdT : attaque par écoulement), et j’en avais même fait la démonstration. C’était en 2004. Il y a cinq ans. Je l’avais même ajouté comme attaque à RFuzz en 2005.

Malheureusement, le succès de Mongrel ne m’est pas revenu. Bien que tout le monde utilise mon logiciel, la grande majorité des entreprises utilisatrices étaient des startups, et la dernière chose que les startups admettent c’est qu’elles ne possèdent pas leur propriété intellectuelle. Elles souhaitent que tout le monde, et particulièrement les sociétés de capital risque et les investisseurs, croit qu’elles sont des génies qui ont « innové » dans tout ce qu’elles font fonctionner.

Lorsque je regardais autour de moi, les entreprises n’avaient aucun problème à admettre qu’elles utilisaient Ruby on Rails, mais elles n’en disaient pas plus, ce qui signifiait que lorsque j’essayais de trouver du travail, il m’était impossible d’expliquer l’ampleur de l’impact de Mongrel. Pour elles, il ne s’agissait que d’un simple serveur Web que leur administrateur système devait utiliser, Ruby on Rails était le véritable pourvoyeur d’argent.

Voici la seconde raison pour laquelle j’utilise la GPL :

À cause de l’expérience Mongrel, j’ai presque besoin que les entreprises soient obligées d’admettre qu’elles utilisent mon logiciel. Je préfèrerais à la limite que personne n’utilise mon logiciel, plutôt que de me trouver dans une situation où tout le monde l’utilise et personne ne l’admet.

Pire, tout le monde l’utilise, et en même temps me dit que je ne sais pas développer.

Le capital risque a changé l’industrie

L’industrie du logiciel a changé depuis l’an 2000. Je mettrais en fait le curseur à l’entrée en bourse de Google, mais je ne peux pas dire exactement à quel moment. Ce que je peux dire, c’est que les méthodes actuelles de progression des entreprises technologiques induisent l’exploitation du code source plutôt que la contribution.

Je ne peux pas réellement en vouloir à ces startups, elles sont conçues ainsi. Une entreprise adossée à un capital-risqueur aura presque toujours un objectif de gain à court terme, dans l’espoir d’apporter plus tard un joli retour sur investissement. Pour un capital-risqueur, un retour sur 20 ans n’est pas acceptable, particulièrement si vous prévoyez de faire cela sans offre et des stocks options disponibles pour tout le monde.

Pour une entreprise financée par un capital-risqueur, il ne s’agit toujours que d’augmenter des revenus pour donner l’illusion de la croissance, afin que les actionnaires investissent et mènent le prix de l’action aussi haut que possible. Il n’est pas dans leur intérêt de ne pas faire d’offre. Ils veulent de l’argent maintenant, autant que possible, et ne sont pas intéressés par l’investissement technologique ou humain.

Ce qu’elles veulent, ce sont des tonnes de technologie gratuite qu’elles peuvent cacher aux investisseurs. Elles sont ravis que cette technologie soit maintenue par des gens qui ne l’ont pas écrite, pour que les employés ne puissent pas réclamer leur dû plus tard.

Cette gestion à courte vue, combinée au financement limité de départ, signifie que ces entreprises exploitent l’open source. Elles l’utiliseront, gagneront leur argent, et partiront lorsque ceci sera fait. Ce qui, en fait, est parfaitement logique, parce que ainsi vont les choses, et honnêtement, si vous êtes une entreprise qui cherche à gagner de l’argent de cette manière, c’est ce que je vous suggèrerais de faire.

Pourtant, le contrat tacite entre les entreprises et les développeurs open source est désormais révolu. Je n’ai aucune raison de leur offrir un usage sans restriction de mon logiciel, puisqu’ils ne sont intéressés que par la transformation de mon logiciel en offre alléchante de mise sur le marché à court terme, à deux ou cinq ans.

Voici la troisième raison pour laquelle j’utilise la GPL :

Les entreprises du secteur technologique sont désormais conçues pour être créées et détruites rapidement au bénéfice de gros capital-risqueur, tout en maintenant des coûts très bas. Cela signifie qu’elles n’ont aucune prime économique à donner, aussi n’ai-je aucune prime sociale à leur « donner » mon logiciel.

Les développeurs sont des plagiaires

Ne nous voilons pas la face, tout le monde a besoin de manger et de payer son loyer. Pour beaucoup de gens, leurs besoins en argent sont modestes, et si vous travaillez sur quelque chose, vous espérez en retirer quelque chose qui vous aidera à satisfaire ces besoins. Il se peut que ce ne soit pas de l’argent. Peut-être est ce que ce sera du respect, ou des honneurs, mais vous espérez réellement quelque chose de votre travail.

Nous sommes d’accord. Aussi je trouve étrange un message twitter tel que celui-ci :

ericholscher @zedshaw Ce serait chouette si l’interface/code était sous licence BSD. Très utile au travail. L’interface REST marche aussi très bien.

Éric est un garçon très sympathique, aussi je ne vais pas m’acharner sur lui, mais si je traduis le message, ça pourrait donner ça : « Hey ! Ton logiciel est fantastique ! Je peux l’avoir gratuitement, pour pouvoir l’utiliser au boulot, plaire à mon patron et me faire de l’argent ? »

Honnêtement, combien d’administrateurs disent à leur patron que ce qu’ils utilisent provient du logiciel libre ? Combien d’entre vous disent aux investisseurs que toute votre infrastructure logicielle est basée sur un truc qu’un autre gars a écrit en plusieurs mois ? Combien d’entre vous vont voir leur dirigeants en disant : « Vous savez, il y a ce gars, Zed, qui a écrit le logiciel que nous utilisons, pourquoi ne pas l’embaucher comme consultant ? »

Vous ne le faites pas. Aucun d’entre vous. Vous prenez le logiciel, et vous l’utilisez tel Excalibur terrassant le dragon, et vous en ramassez ensuite tous les lauriers. Vous ne rendez rien, et en fait, j’ai croisé une grande majorité d’entre vous qui assènent constamment que je ne sais pas développer, histoire de plus encore protéger son cul.

Il n’est désormais plus pardonnable et acceptable que vous tous plagiez le travail que vous utilisez. Comme vos employeurs ont besoin de l’illusion de « l’innovation », vous avez besoin de l’illusion d’être intelligent. Ce qui vous amène à mentir, et à voler tout ce qui vous tombe sous la main, comme si cela vous appartenait.

Ok, mais cela signifie que vous avez cassé le contrat tacite avec les développeurs et défenseurs de logiciels libres et open source. Aussi longtemps que vous me rendez ma paternité et que vous assurez la promotion de mon travail, je vous donnerai mon logiciel. Puisqu’aucun d’entre vous ne le fait, je n’ai aucune motivation à vous donner mon logiciel, de la même manière que je n’ai pas besoin de me conformer au contrat passé avec l’entreprise nourrie au capital-risque.

Voici la quatrième raison pour laquelle j’utilise la GPL :

J’utilise la GPL pour que vous restiez honnête. Vous devez désormais dire à vos patrons que vous utilisez mon boulot. Et ils s’en pisseront dessus de trouille. Parfait. Parce que j’ai aussi une solution pour ça.

Si c’est bien, payez pour l’avoir

J’aime travailler sur Lamson, parce que faire des application de messagerie est tellement plus drôle que des applications Web. Lorsque je m’assois pour construire une application de courriel, ça ne nécessite qu’un ensemble de technologies et c’est terminé. Si j’ai besoin de faire une application Web, cela implique du design, des templates, du javascript, des bases de données, et plein d’autres machins.

L’autre raison pour laquelle j’aime écrire des logiciels de courriels est que personne d’autre ne le fait. Vous tous êtes de grosses buses, parce que même avec un projet tel que Lamson, vous êtes encore tous effrayés par le gros monstre SMTP. Le jour où j’ai dit que je pourrais faire du Mail over REST, vous avez presque fait dans votre slip. Oui, parce que ça aurait été tellement plus simple.

Et j’aime donner Lamson, parce que c’est une partie de moi-même. C’est ce parfait mélange de camelote, bidouillages techniques, marketing et écriture que j’aime, et dans lequel j’excelle. Même si j’en arrive à faire des montagnes d’argent en construisant des choses avec Lamson, Lamson restera libre pour que je puisse rester honnête.

Mais j’écris aussi mes propres logiciels et projets avec Lamson. Je l’utiliserai pour créer autant d’incroyables services de courriel que je pourrais. Certains gratuits, certains payés par la pub, certains payants, mais tous utiliseront Lamson pour botter des culs avec du courriel.

Maintenant, compte tenu du fait qu’il n’y a aucune motivation pour une entreprise à admettre qu’elle utilise mon travail, et qu’il n’y a aucune motivation pour un développeur à me rendre mon travail, posez vous cette simple question :

Pourquoi diable est ce que je ne facturerais pas des gens qui ne sont pas capables d’utiliser correctement la GPL ?

Je sais, je sais, les conservateurs du logiciel libre pensent que cela fait de moi un traître, mais réfléchissez-y. Vous avez le logiciel, sous licence GPL, et aussi longtemps que vous êtes un projet open source taillé dans la pierre qui publie son code, vous êtes libre de l’utiliser et d’en faire ce que vous voulez.

J’aime l’open source, mais qu’en est-il des entreprises qui l’utilisent ? Les entreprises vont devoir payer à présent. C’est ainsi que fonctionne l’économie. Si c’est assez bon pour que vous l’utilisiez, alors c’est assez bon pour que vous le payiez.

Voici la cinquième raison pour laquelle j’utilise la GPL :

Je serai toujours un développeur open source, mais très franchement, nous crevons parce que des entreprises qui utilisent nos logiciels ne rendent rien. L’ironie de la situation est que pour pouvoir accroître ma motivation à faire de l’open source, j’ai besoin de me faire payer.

Je ne demanderai évidemment jamais rien à un projet open source puisqu’ils honorent le contrat tacite : si je donne, vous donnez.

Mais les jours des entreprises-minutes et des développeurs ingrats qui gagnent de l’argent sur mon dos avec mon logiciel sont terminés. Ma nouvelle devise est :

L’open source à l’open source, le business au business.

Si vous faites de l’open source, vous êtes mon héros et je vous soutiens. Mais si vous êtes une entreprise, alors parlons affaires.

Finalement, la valeur

Au final, je voudrais également donner une petite raison pour laquelle j’utilise la GPL : La valeur perçue. Lorsque les gens peuvent obtenir quelque chose gratuitement sans même avoir besoin d’y penser, ils lui donnent même moins de valeur que quelque chose pour lequel ils paient même pour une somme dérisoire. C’est juste la manière d’être des gens, et il n’y a pas grand chose à faire contre ça.

Ma dernière raison d’utiliser la GPL est que je crois que mes projets ont de la valeur, et je veux que les gens qui les utilisent perçoivent cette valeur. Ils ont même tellement de valeur que je veux les associer à un document légal complexe et totalement non testé comme preuve de leur utilité. Si je voulais faire simple, je les placerais simplement sous licence BSD et tout le monde les utiliseraient.

Je veux que les gens apprécient le travail que j’ai fait et la valeur de ce que j’ai réalisé.

Pas qu’ils passent en criant « pigeon » au volant de leurs voitures de luxe.

Notes

[1] Crédit photo : Phillie Casablanca (Creative Commons By)




Méfions-nous du Fauxpen Source !

Stevoarnold - CC byEt si le plus grand danger qui guettait désormais le logiciel libre n’était pas exogène mais endogène ?

Si, comme le pensent certains, ce n’était plus le logiciel propriétaire qui menace, mais une dilution des valeurs et de la culture du logiciel libre dans une soupe open source de… confusion et d’opacité, au grand dam de l’utilisateur qui ne serait plus alors acteur potentiel d’une communauté ?

On aurait même inventé une expression pour caractériser ces logiciels aux processus de développement privés et fermés qui, et je caricature à dessein[1], finissent par n’avoir d’open source que la licence : les « fauxpen source ».

Personnellement j’aime beaucoup ce néologisme. Il a été inventé par Phil Marsosudiro le 2 mai 2009 au cours d’une soirée (arrosée ?) quelque part en Caroline du Nord. Comment le sais-je ? Parce que je me suis rendu sur le site, ou plutôt la page, fauxpensource.org pardi !

Et il est repris ici par Matt Asay[2] dont je ne partage pas forcément l’optimisme (et les contradictions) mais qui évoque une problématique dont nous n’avons pas fini d’entendre parler.

Quand l’open source ne l’est pas assez (open)

When open source isn’t (open enough)

Matt Asay – 10 novembre 2009 – CNET News (The Open Road)
(Traduction Framalang : Yonnel et Cheval boiteux)

Certains logiciels open source ne sont peut-être pas assez ouverts. Alors que « open source » fait référence à la licence sous-jacente au logiciel et à son adhésion à la définition de l’open source, on trouve de nombreux exemples de projets open source qui offrent une licence ouverte mais un processus de développement relativement fermé.

On a appelé cela « fauxpen source », ou pire encore, mais nous devons peut-être nous y habituer. Cela semble être la nouvelle norme du développement open source. Seules les fondations open source comme Eclipse, Apache Software Foundation et Mozilla semblent en mesure d’y échapper totalement.

Java est souvent cité comme exemple emblématique de « fauxpen source ». Lundi, le directeur technique de SAP, Vishal Sikka, a appelé de ses vœux un processus plus ouvert pour le développement de Java, mettant en avant que Sun exerce un contrôle trop strict sur le développement de Java. C’est un reproche qui mine la communauté Java depuis des années.

Et Java n’est pas le seul. Si Google s’attire les compliments pour ses investissements dans l’open source, certains n’hésitent pas à prétendre que Google garde une communauté Android fermée. Le même genre de plaintes a vu le jour à propos de la gestion de Chrome et de Chrome OS.

Même Red Hat, la quintessence des entreprises open source, est d’abord connue pour ce qu’elle distribue, pas pour ce qu’elle développe. Red Hat, bien sûr, travaille aux côtés d’IBM et d’autres développeurs salariés ou indépendants à l’écriture du noyau Linux, et publie scrupuleusement ses logciels sous licences open source. Mais lorsqu’il s’agit du développement de sa distribution Red Hat Enterprise Linux, de son middleware JBoss ou d’autres technologies (par ex. KVM), bonne chance si vous voulez trouver des contributions externes significatives.

MySQL ? C’est grosso modo la même chose. L’entreprise (maintenant Sun Microsystems) fait virtuellement tous ses développements en interne, ce qui est vrai pour chaque entreprise privée open source qui me vient en tête. C’est une des raisons pour lesquelles Richard Stallman n’a pas à rougir de s’inquiéter de l’avenir de MySQL, même si c’est sa licence GPL préférée qui est utilisée.

La source est peut-être open, mais le processus pas nécessairement.

Il y a de très bonnes raisons pour que Google, Red Hat, MySQL et d’autres agissent de la sorte sur leurs efforts de développement open source. Ils sont responsables, fiscalement et légalement, devant leurs clients, et doivent être en capacité de garantir qualité et sécurité. On peut comprendre qu’ils exercent un certain contrôle pour s’assurer que les produits qu’ils distribuent protègent l’intégrité de leur marque.

Toutefois ceci témoigne d’un réel fossé entre « l’open source » en tant que licence et « l’open source » en tant que mode de développement et de distribution de logiciels complètement transparent. Le premier modèle est simple à mettre en place, le second beaucoup moins et demande une réelle volonté de la part de l’éditeur.

Les entreprises qui semblent mieux réussir sont celles qui ne comptent pas sur un retour sur investissement direct avec les logiciels libres. En d’autres termes, si vous ne vendez pas de l’open source, il est plus facile d’être ouvert. Doc Searls exprime cela de manière tout à fait pertinente quand il dit que « vous gagnez de l’argent grâce à (l’open source), pas de l’open source ».

Les exemples ne manquent pas. IBM en est un, Google également, bien que je sois d’accord avec ceux qui le critiquent car il peut assurément mieux faire. On peut également citer Facebook, Oracle et quelques autres.

À l’avenir, je pense que nous allons voir cette « fauxpen source » décliner, les entreprises séparant clairement leurs efforts dans l’open source et leurs modèles de ventes. L’open source peut offrir une plate-forme directe de gains, mais ce n’est pas le meilleur moyen pour véritablement générer de l’argent. Pas pour la plupart des entreprises en tout cas.

Notes

[1] Crédit photo : Stevoarnold (Creative Commons By)

[2] Pour un aller plus loin on pourra parcourir ce billet similaire de Philippe Scoffoni que je découvre à l’instant. Il y évoque « l’open source Canada Dry » et la tentation d’un « open source washing ». Extrait : « Faire de l’open source en mode licence est relativement facile alors que le faire en mode communautaire est une tout autre chose (…) les éditeurs qui font le choix de l’open source pour la licence cherchent donc avant tout à profiter de l’effet de mode et à monétiser ce qui apparaît aujourd’hui comme un avantage concurrentiel par rapport au modèle propriétaire ».




La libération du savoir est un travail de fourmis

AntWeb - CC by-saUn peu de storytelling aujourd’hui sur le Framablog, avec cette histoire de fourmis qui n’avaient pas d’images dans Wikipédia.

Nous le savons, l’encyclopédie libre est très certainement l’une des plus belles aventures humaines jamais imaginées.

Mais son influence est telle qu’elle a aujourd’hui également la capacité d’influencer directement ou indirectement la politique de licences des contenus produits par les organismes publics, universités en tête[1].

AntWeb passe sous licence Creative Commons BY-SA

AntWeb goes CC-BY-SA

Waldir Pimenta – 6 novembre 2009 – All The Modern Things
(Traduction Framalang : Poupoul2)

Saviez vous que l’insecte le plus venimeux au monde est une fourmi ? En effet, une piqûre de la fourmi Maricopa Harvester équivaut à douze piqures d’abeilles, ce qu’il faut pour tuer un rat de plus de deux kilos.

J’ai découvert cela il y a plus d’un an dans le livre des insectes de l’Université de Floride. Je me suis immédiatement tourné vers Wikipedia pour savoir ce qu’on en disait, mais à ma grande surprise, aucun article n’existait. J’en ai donc commencé un à partir d’un page blanche, en utilisant des informations glanées sur plusieurs sites consacrés aux fourmis. Finalement, les gens ont commencé à enrichir l’article, jusqu’à ce qu’il contienne une somme d’informations de bonne qualité à propos de cette espèce fascinante. Mais il y manquait toujours quelque chose, qui à lui seul pouvait rendre l’article dix fois meilleur : Une image.

Ainsi, en cherchant des images afin d’illustrer cet article, j’ai découvert les fantastiques images d’AntWeb, un projet de l’Académie des Sciences de Californie, qui a pour objectif d’illustrer l’énorme diversité des fourmis dans le monde. J’étais particulièrement heureux qu’ils utilisent une licence Creative Commons, mais j’ai rapidement déchanté en constatant que celle qu’ils utilisaient (la licence Creative Commons BY-NC) n’était pas appropriée pour Wikipédia, ou plus généralement pour ce que les Creative Commons appellent elles-mêmes les « œuvres culturelles libres » (Ndt : voir à ce sujet ce billet du Framablog).

Je leur ai donc envoyé un courriel, suggérant de changer la licence. Lorsqu’ils m’ont répondu, j’ai découvert qu’en fait, des discussions internes à propos de la licence étaient déjà en cours. Je suis resté en contact avec eux, et me suis assuré de leur parler des avantages de voir leurs travaux placés dans des vitrines telles que Wikipédia, Commons ou Wikispecies.

J’aime à penser que ma modeste intervention a participé à leur prise de décision, quelque temps plus tard, non seulement de changer de licence pour une Creative Commons BY-SA, mais également de téléverser leurs images dans Commons eux-mêmes. Il s’agissait d’une partie de leur mission globale : « L’accès universel aux informations sur les fourmis ». Auparavant, le projet AntWeb, se concentrait sur la numérisation de contenus et le développement d’un portail web : ils ont désormais décidé d’exporter le contenu d’AntWeb pour en améliorer l’accès. Mettre les images et les méta-données associées dans Commons fut un exemple en matière d’organisation.

Cette initiative a été saluée par la communauté, et il y a eu de nombreuses contributions à ce massif téléversement, afin de rendre les images plus faciles à trouver et à utiliser pour illustrer des articles, et autres pages pertinentes. Le processus a pris plusieurs jours, mais au final ce sont pas moins de 30 000 images qui auront été téléversées, intégralement associées à leurs données EXIF, mais également aux informations taxonomiques et géographiques, chaque fois qu’elles étaient disponibles.

Tout ceci n’est pourtant quelque part qu’une première pierre. Puisque, comme d’habitude dans le monde des wikis, vous pouvez contribuer. Il existe des articles à illustrer dans toutes les langues de Wikipedia (l’outil de recherche d’images libres FIST de Magnus arrive à point nommé pour cela). Il y a des pages à illustrer sur Wikispecies. Il y a des catégories à créer dans Commons, afin de faciliter la navigation dans l’arbre des catégories des fourmis et d’y rendre chaque image de fourmi accessible. Et plus important, il y a cette nouvelle fantastique à diffuser, afin de faire savoir à tous ceux qui sont intéressés par les fourmis qu’ils peuvent désormais compter sur ce qui est sans doute la plus importante ressource en ligne d’images de fourmis, toutes de grandes qualité.

Un grand merci à Brian Fisher, chef de projet AntWeb, qui a coordonné le processus de changement de licence, Dave Thau, ingénieur logiciel AntWeb, qui a écrit le script de téléversement et réalisé cette opération, et à toute l’équipe d’AntWeb pour leur formidable travail.

Notes

[1] Crédit photo : AntWeb (Creative Commons By-Sa)




Première démonstration « open source » d’un théorème mathématique

Robynejay - CC by-saEst-ce uniquement par leur licence qu’un noyau Linux et une encyclopédie Wikipédia sont identifiés comme étant libres ?

Juridiquement parlant oui, mais s’en tenir là serait passer à côté du modèle collaboratif particulier que ce sont donnés ces deux fleurons de la culture libre pour développer leur projet.

Conséquence de la licence, c’est aussi voire surtout la puissance de ce modèle qui caractérise le Libre. Et ce modèle commence à se diffuser un peu partout dans la société…

Les mathématiques sont « libres » depuis la nuit des temps (enfin depuis que les pythagoriciens ont cessé de se cacher, pour être plus précis)[1]. Chacun est libre des les étudier, les copier et les améliorer en étant fortement encouragé à rendre évidemment publiques ces améliorations, dans la plus pure tradition universitaire.

C’est absurde, mais si il fallait a posteriori leur accoler une licence issue de la culture libre, ce pourrait être la plus simple des Creative Commons, la CC-By, puisque cette notion de paternité est très importante dans un monde scientifique avant tout motivé par la reconnaissance des pairs et la place laissée dans l’Histoire de leur champ disciplinaire.

On retrouve d’ailleurs souvent les crédits et les hommages dans les noms que l’on donne aux résultats. On parlera ainsi de la preuve selon Euclide du théorème de Thalès.

Les mathématiques seraient donc « libres », les professeurs également (enfin surtout en France dans le secondaire avec Sésamath), mais quid des mathématiciens eux-même et de leurs pratiques ? Et si ils s’organisaient à la manière d’un projet de développement d’un logiciel libre pour chercher et éventuellement trouver ensemble des résultats importants ?

Entendons-nous bien. Les mathématiciens ne vivent bien entendu pas dans une tour d’ivoire. Ils sont habitués à travailler et échanger ensemble au sein d’un laboratoire, lors d’un séminaire… et évidemment sur Internet. Mais l’aventure intellectuelle et collective du « Projet Polymath » que nous avons choisi de vous narrer ci-dessous est un peu différente, en ce sens que ses auteurs eux-mêmes la définissent comme une expérience « open source ».

Ne vous arrêtez surtout pas à la complexité mathématique de ce qu’ils cherchent à accomplir (à savoir une « meilleure » preuve d’un théorème déjà démontré !), c’est totalement secondaire ici. Ce qui nous intéresse en revanche c’est comment ils y sont arrivés (désolé d’avoir vendu la mèche) et les enseignements qu’ils en tirent pour l’avenir.

Parce qu’il se pourrait que cet mode opératoire, original et efficient, fasse rapidement des émules, et ce bien au delà des mathématiques.

Remarque : C’est le terme « open source » qui a été choisi tout du long par les auteurs et non « free software ». Contrairement au domaine logiciel, il ne s’agit pas d’un choix ou d’un parti pris mais tout simplement d’une question de sens : « open source mathematics » étant largement plus signifiant que « free software mathematics » !

Mathématiques massivement collaboratives

Massively collaborative mathematics

Timothy Gowers[2] et Michael Nielsen[3] – 24 octobre 2009 – Nature.com (Opinion)
(Traduction Framalang : Olivier et Goofy)

Le « Projet Polymath » est la preuve que l’union de nombreux cerveaux peut résoudre des problèmes mathématiques complexes. Timothy Gowers et Michael Nielsen nous livrent leurs réflexions sur ce qu’ils ont appris des sciences open source.

Le 27 janvier 2009, l’un d’entre nous, Gowers, a lancé une expérience inhabituelle par l’intermédiaire de son blog (NdT : avec ce billet Is massively collaborative mathematics possible?). Le Projet Polymath s’était fixé un but scientifique conventionnel : s’attaquer à un problème mathématique irrésolu. Mais son but plus ambitieux était d’innover dans la recherche en mathématiques. Reprenant l’idée des communauté open source comme Linux et Wikipédia, le projet s’appuyait sur des blogs et des wikis pour canaliser une collaboration complètement ouverte. Libre à tout un chacun d’en suivre la progression et s’il le désire d’apporter sa contribution. Les blogs et wikis étaient en quelque sorte une mémoire à court terme collective, un brainstorming ouvert à grande échelle dédié à l’amélioration des idées.

Le résultat de la collaboration dépassa de loin les espérances de Gowers, offrant une belle illustration de ce que nous pensons être une dynamique formidable pour les découvertes scientifiques : la collaboration de nombreux cerveaux connectés par Internet.

Le Projet Polymath visait à trouver une preuve élémentaire d’un cas particulier du théorème de Hales-Jewett sur la densité (NdT : DHJ pour Density Hales-Jewett), théorème central de l’analyse combinatoire, une branche des mathématiques qui étudie les structures discrètes (voir Morpion à plusieurs dimensions). Ce théorème avait déjà été démontré, mais les mathématiciens ne se contentent pas toujours d’un seul chemin. De nouvelles preuves peuvent déterminantes pour une meilleure compréhension du théorème. Trouver une nouvelle démonstration du théorème DHJ était important pour deux raisons. Tout d’abord il fait partie d’un ensemble de résultats fondamentaux possédant plusieurs démonstrations, alors que le théorème DHJ n’en avait jusqu’alors connu qu’une seule, longue, complexe, et très technique. Seul un élan de nouvelles idées pouvait amener à une preuve plus simple, s’appuyant sur des concepts de base plutôt que sur des techniques compliquées. Ensuite, du théorème DHJ découle un autre théorème important, le théorème de Szemerédi. La découverte de nouvelles preuves de ce théorème a conduit à de grandes avancées au cours de la dernière décennie, on pouvait donc raisonnablement s’attendre à ce qu’un même phénomène accompagne la découverte d’une nouvelle démonstration du théorème DHJ.

À l’origine du projet on retrouve Gowers. Il publia une description du problème, indiqua quelques ressources et établit une liste préliminaire de règles régissant la collaboration. Grâce à ces règles, les échanges sont restés polis et respectueux, elles encourageaient les participants à proposer une et une seule idée par commentaire, même sans la développer complètement. Ces règles stimulaient ainsi les contributions et aidaient à conserver le caractère informel de la discussion.

Mettre le projet sur les bons rails

La discussion collaborative a vraiment commencé le 1er février, doucement : il a fallu attendre plus de 7 heures avant que Jozsef Solymosi, un mathématicien de l’Université de la Colombie Britannique à Vancouver, fasse le premier commentaire. Quinze minutes après, un nouveau commentaire était posté par Jason Dyer, enseignant dans un lycée de l’Arizona. Trois minutes après, c’est Terence Tao (lauréat de la médaille Fields, la plus haute distinction en mathématiques), de l’Université de California à Los Angeles, qui écrivit son commentaire.

Au cours des 37 jours qui suivirent, ce sont pas moins de 27 personnes qui ont apporté leur contribution au travers d’environ 800 messages, pour un total de 170 000 mots. Personne n’a été spécialement invité à participer : la discussion était ouverte à tout le monde, des doctorants aux experts mathématiciens. Nielsen a mis en place un wiki pour mettre en avant les contributions importantes apparues dans les commentaires du blog. Au moins 16 autres blogs ont parlé du projet, il s’est hissé à la première page de l’agrégateur Slashdot technology et a donné naissance à un projet assez proche sur le blog de Tao.

Tout s’est déroulé sans accroc : pas de « trolls » (ces adeptes des posts non constructifs, voire malveillants), ni de commentaires bien intentionnés mais complètement inutiles (on peut malgré tout signaler que le wiki a été spammé). Le rôle de modérateur pris par Gowers se résumait essentiellement à corriger les fautes.

Le projet progressa bien plus rapidement qu’attendu. Le 10 mars, Gowers annonça qu’il était assez sûr que les participants au projet Polymath avaient découvert une preuve élémentaire d’un cas particulier du théorème DHJ et, qu’étonnamment (compte tenu des expériences avec des problèmes similaires), cette preuve pouvait être généralisée assez facilement pour prouver le théorème entier. La rédaction d’un article décrivant cette preuve est entreprise, ainsi que celle d’un second papier décrivant des résultats liés. De plus, alors que le projet était encore actif, Tim Austin, doctorant à l’Université de Californie, Los Angeles, publia une autre preuve (non élémentaire celle-ci) du théorème DHJ en s’appuyant largement sur les idées développées dans le projet Polymath.

Les archives du projet Polymath constituent une ressource exceptionnelle pour les étudiants en mathématiques, les historiens et autres philosophes des sciences. Pour la première fois, on peut suivre le cheminement intellectuel complet à l’origine d’un résultat mathématique sérieux. On y voit les idées naître, grandir, changer, s’améliorer ou être abandonnées, et on y découvre que la progression de la compréhension ne se fait pas nécessairement par un unique pas de géant, mais plutôt par le regroupement et le raffinement de plusieurs petites idées.

C’est un témoignage direct de la persévérance dont il faut faire preuve pour résoudre un problème complexe, pour progresser malgré les incertitudes et on réalise que même les meilleurs mathématiciens peuvent faire des erreurs simples et s’entêter à creuser une idée vouée à l’échec. Il y a des hauts et des bas et on ressent une vraie tension à mesure que les participants s’approchent d’une solution. Les archives d’un projet mathématique peuvent se lire comme un thriller, qui l’eût cru ?

Des implications plus larges

Le projet Polymath ne ressemble pas aux collaborations à grande échelle traditionnelles, comme on peut en trouver dans l’industrie ou dans les sciences. En général, ces organisations sont divisées hiérarchiquement. Le projet Polymath était complètement ouvert, chacun était libre d’apporter sa pierre à l’édifice… n’importe quelle pierre. La variété des points de vue a parfois apporté des résultats inattendus.

Se pose alors la question de la paternité : difficile de décréter une règle de paternité stricte sans heurt ou sans décourager des contributeurs potentiels. Quel crédit accorder aux contributeurs apportant uniquement une idée perspicace, ou à un contributeur très actif mais peu perspicace ? Le projet a adopté une solution provisoire : il signe ses articles du pseudonyme « DHJ Polymath » suivi d’un lien vers les archives (NdT : cf cette première publication ainsi signée A new proof of the density Hales-Jewett theorem). Grâce à la collaboration ouverte privilégiée par le projet Polymath, on sait exactement qui a fait quoi. Au besoin, une lettre de recommandation peut isoler les contributions d’un membre du projet en particulier, comme c’est déjà le cas en physique des particules où il est courant de voir des articles avec des centaines d’auteurs.

Se pose aussi le problème de la conservation. Les archives principales du projet Polymath sont dispersées sur deux blogs (1 et 2) et un wiki, le rendant très dépendant de la disponibilité de ces sites. En 2007, la bibliothèque du Congrès américain a initié un programme de conservation des blogs tenus par les professionnels du droit. De la même manière, mais à plus grande échelle, un programme similaire est nécessaire pour conserver les blogs et wikis de recherche.

D’autres projets, ayant vu le jour depuis, permettront d’en apprendre plus sur le fonctionnement des mathématiques collaboratives. Il est en particulier crucial de savoir si ce genre de projet peut être élargi à plus de contributeurs. Bien qu’il ait rassemblé plus de participants qu’une collaboration classique en mathématiques, le projet Polymath n’est pas devenu la collaboration massive que ses créateurs espéraient. Ceux qui y ont participé s’accordent sur le fait que pour grandir, il faudrait que le projet adapte sa manière de procéder. La narration linéaire du blog posait, entre autre, problème aux nouveaux arrivants. Difficile pour eux, parmi la masse d’informations déjà publiées, d’identifier où leur aide serait la plus précieuse. Il y avait également le risque qu’ils aient loupé un « épisode » et que leur apport soit redondant.

Les projets de logiciels libres utilisent des logiciels de suivi de version pour organiser le développement autour des « problèmes », des rapports de bogues ou des demandes de fonctionnalités en général. Ainsi, les nouveaux arrivants ont une vision claire de l’état du projet, ils peuvent concentrer leurs efforts sur un « problème » particulier. De même, la discussion est séparée en modules. Les futurs projets Polymath pourraient s’en inspirer.

Bientôt, les sciences ouvertes

L’idée derrière le projet Polymath est potentiellement applicable à tous les défis scientifiques, mêmes les plus importants comme ceux pour lesquels le Clay Mathematics Institute de Cambridge, Massachussets offre un prix d’un million de dollars. Même si certaines personnes souhaiteront toujours garder tout le mérite pour elles-mêmes et être pour ainsi dire refroidies par l’aspect collaboratif, d’autres au contraire pourraient y voir une excellente opportunité d’être associés à la résolution de l’un de ces problèmes.

Dans d’autres disciplines, l’approche open source ne gagne que très lentement du terrain. Un domaine s’y est ouvert avec succès : la biologie synthétique. Les informations ADN d’organismes vivants sont enregistrées numériquement et envoyées à un dépôt en ligne, comme celui du MIT Registry of Standard Biological Parts. D’autres groupes peuvent utiliser ces informations dans leur laboratoire et, s’ils le souhaitent, reverser leurs améliorations au dépôt. qui compte actuellement plus de 3 200 contributions, apportées par plus de 100 entités différentes. Les découvertes qui en découlent ont fait l’objet de nombreux articles comme par exemple Targeted Development of Registries of Biological Parts. La biologie open source et les mathématiques open source montrent comment la science peut progresser grâce aux diverses contributions apportées par des gens aux compétences variées.

On pourrait, de la même manière, employer ces techniques open source dans d’autres domaines, telle la physique et l’informatique théoriques, où les données brutes contiennent de nombreuses informations et peuvent être partagées librement en ligne. Appliquer les techniques open source aux travaux pratiques est plus délicat, les conditions expérimentales étant difficilement reproductibles. Quoiqu’il en soit, le partage libre des données expérimentales permet néanmoins leur analyse libre. Adopter ces techniques open source à grande échelle ne sera possible que grâce à un changement profond des mentalités en science et au développement de nouveaux outils en ligne. Nous croyons à un fort développement de la collaboration de masse dans de nombreux domaine des sciences, et que cette collaboration massive repoussera les limites de nos capacités à résoudre des problèmes.

Notes

[1] Crédit photo : Robynejay (Creative Commons By-Sa)

[2] Timothy Gowers appartient au Departement of Pure Mathematics and Mathematical Statistics de l’Université de Cambridge, Wilberforce Road, Cambridge CB3 0WB, UK et il est Royal Society 2010 Anniversary Research Professor.

[3] Michael Nielsen est écrivain et physicien, il habite à Toronto et travaille sur un livre sur le futur de la science.




Google se conjugue au futur et Microsoft au passé ?

Google sfida Microsoft con Chrome - Copyright Federico FieniOn le sait, Microsoft n’a pas vu venir le Web et ne porte pas le logiciel libre dans sa culture (c’est le moins que l’on puisse dire).

À partir de là comment s’étonner qu’un Google lui fasse aujourd’hui concurrence et menace demain d’attaquer frontalement ses deux plus beaux fleurons (et source colossale de revenus) que sont le système d’exploitation Windows et la suite bureautique MS Office.

Un Google qui a massivement investi dans le cloud computing, l’informatique dans les nuages, Un Google qui non seulement ne méprise pas le logiciel libre mais sait très bien l’utiliser quand ça l’arrange, par exemple pour faire s’y reposer son navigateur Chrome ou son prochain et très attendu Google OS (histore de boucler la boucle)[1].

À propos de Google OS, un petit coup de Wikipédia : « Google Chrome OS est un projet de système d’exploitation qui sera fondé sur son navigateur Web Chrome et un noyau Linux. À destination des netbooks dans un premier temps, il serait capable, à terme, de faire tourner des ordinateurs de bureau traditionnels. Google laisse à penser que son OS fonctionnerait en ligne sur tout ou partie, comme ses applications (Google Documents, Gmail, etc.). Après sa suite gratuite Google Documents concurrent de la suite payante Microsoft Office, puis Android face à Windows Mobile, ce nouveau système d’exploitation gratuit attaque le cœur du business Microsoft. »

La fin d’un cycle, si ce n’est d’une époque ?

Google est en compétition pour le futur; Microsoft, pour le passé

Google competes for the future; Microsoft, the past

Matt Asay – 23 octobre 2009 – CNET News
(Traduction Framalang : Poupoul2 et Goofy)

Google est né sur le Web, et provoque de plus en plus de quintes de toux chez Microsoft en contraignant le géant séculaire du logiciel à se battre en utilisant les règles de Google. Comme avec l’open source. Comme avec l’informatique dans les nuages.

Microsoft pourrait se reposer sur ses lauriers dans l’immédiat grâce au lancement réussi de Windows 7. Mais à long terme son plus grand succès que représentent ses vieux logiciels de bureautique menace de céder le marché à Google.

Ce n’est pas très équitable pour Microsoft. Microsoft est victime de son propre succès, en ayant besoin de s’adresser à sa clientèle existante à chaque nouvelle version, coincé qu’il est par le « dilemme de l’innovateur ». Microsoft continue de remplir ses caisses, mais ses deux derniers trimestres ont vu ses forces traditionnelles telles que le système d’exploitation Windows devenir un frein pour ses revenus, tandis que les entreprises dépensent toujours plus d’argent auprès de Google, Red Hat et quelques autres.

L’absence d’héritage de Google lui permet d’innover rapidement à large échelle, comme le suggère Todd Pierce, directeur technique de Genentech et client de Google :

Le rythme d’innovation de Google…, enfin bon, le cycle de production d’Oracle, SAP et Microsoft est de cinq ans, celui de Google est de cinq jours. C’est incrémental. En cinq jours, vous ne pouvez pas supprimer toutes vos licences de Microsoft Office, mais d’ici cinq ans, vous n’aurez plus de Microsoft Office.

Microsoft, de son côté, est tellement préoccupé par la compatibilité ascendante, « Ce produit ou cette fonctionnalité sont-ils compatibles avec notre capacité à monétiser notre monopole sur la bureautique des années 80 ? », qu’ils continuent à se battre pour comprendre le Web. Dave Rosenberg, blogueur sur CNET, note que Windows 7 aurait dû être la tête de pont de Microsoft sur l’informatique dans les nuages, mais qu’il n’en a rien été.

Il y a beaucoup de « aurait dû être » chez Microsoft, lorsqu’on parle du Web.

Dans l’intervalle, personne ne ralentit pour attendre Microsoft. Arrêtons-nous un instant sur l’informatique dans les nuages. VMware domine la virtualisation, et a de grandes ambitions dans l’informatique dans les nuages, alors que les rivaux open source Eucalyptus et VMops menacent de contester la suprématie de VMware et Microsoft, en cherchant à dominer l’informatique dans les nuages.

Et arrive alors Google, qui fournit une gamme de services d’informatique dans les nuages toujours plus large aux entreprises qui cherchent à se détacher de l’ordinateur de bureau. Dans une interview donnée à CNET News, Eric Schmidt, PDG de Google, soutient que le navigateur peut être à la fois orienté entreprise et consommateur. L’architecture est dirigée par le navigateur. C’est toute l’histoire de l’informatique d’entreprise actuelle.

En d’autres termes, le bureau est simplement un moyen pour l’utilisateur de lancer son navigateur. C’est une passerelle. Il n’y a plus de valeur dans le bureau. Elle se trouve dans le navigateur, qui devient le nouveau bureau, en termes de fonctionnalités réelles disponibles

La meilleure opportunité pour Microsoft de contrecarrer la menace de Google et des autres s’appelle SharePoint. Le PDG de Microsoft, Steve Ballmer, l’a décrit comme le nouveau système d’exploitation de Microsoft, mais ce n’est que dans un entretien récent avec Forrester qu’il lui a donné tout son sens :

Dans mon esprit, je compare SharePoint au PC, le PC est venu à la vie comme machine à tableau, puis est devenu une machine à développer, une machine à traiter du texte, SharePoint est une infrastructure à objectif global qui connectera les gens aux gens, et les gens à l’information…

Je crois que SharePoint est considéré par les administrateurs informatiques et les développeurs comme une plateforme de développement très sérieuse pour les développement rapide d’application (NdT : RAD, Rapid Application Development).

SharePoint est la meilleure tentative de Microsoft pour connecter les applications de bureau telles qu’Office, avec des outils collaboratifs et de stockage centralisé ou dans les nuages. Bien sûr, Microsoft a d’autres initiatives telles qu’Office en ligne, mais aucune ne marie aussi bien ses centres de profits historiques et l’innovation future.

SharePoint pourrait alors être le meilleur espoir de Microsoft pour marier son héritage à la future informatique en ligne.

Microsoft a besoin de cela. Ils perdent dans le marché des mobiles, et pas uniquement face à Apple. Android, le système dédié de Google, est déjà efficient et opérationnel, avec par exemple ses données AdMob qui situent aujourd’hui la pénétration des smartphones Android à 10 % au Royaume Uni.

Si nous prenons l’hypothèse que le mobile sera de plus en plus une plateforme de choix pour le client, alors nous voyons Google harceler Microsoft par le haut (les nuages de services) et par le bas (le client).

Dans les deux cas, l’open source est une arme de choix pour Google, et c’en est une que Microsoft va devoir comprendre rapidement s’ils veulent devenir un acteur de poids sur le Web. Le Web est trop grand pour que Microsoft le contrôle, et le Web est incroyablement open source, tel que le remarque Mitch Kapor, fondateur de Lotus :

La victoire de l’open source est qu’il constitue le fondement du Web, la partie invisible, celle que vous ne voyez pas en tant qu’utilisateur.

Les majorité des serveurs utilisent Linux comme système d’exploitation avec Apache comme serveur Web sur lequel tout le reste est construit. Les principaux langages sur lesquels les applications Web sont construites, qu’il s’agisse de Perl, de Python, de PHP ou de n’importe quel autre langage, sont tous open source. Donc l’infrastructure du Web est open source. Le Web tel que nous le connaissons est totalement dépendant de l’open source.

Kapor suggère que la guerre que Microsoft livre à l’open source est terminée, ou devrait l’être : l’open source a gagné. Il s’agit désormais d’une infrastructure essentielle, et quelque chose que Microsoft doit arriver à comprendre, plutôt que de le combattre. Il ne s’agit pas de « religion open source », il ne s’agit que de pragmatisme. Un pragmatisme que Microsoft peut s’approprier aussi bien que n’importe qui d’autre.

Google utilise le futur (l’open source, les nuages) pour se battre pour l’avenir, et ses tactiques menacent de frapper Microsoft au cœur de ses vaches à lait tels que Windows.

Microsoft, cependant, semble être embourbé dans son passé. Windows 7 a l’air d’une mise à jour sérieuse de son prédécesseur Vista, mais dans dix ans, cela aura-t-il une importance pour nous ? Peut-être aurons-nous changé, oubliant ces jours pittoresques où nous nous soucions du système d’exploitation et des applications telles qu’Office ?

Notes

[1] Crédit illustration : Copyright Federico Fieni




Windows 7 comme les 7 « péchés » de Microsoft

Copie d'écran - Windows7Sins en françaisLe 26 août dernier la Free Software Foundation (FSF) lançait la campagne Windows7sins en vue d’alerter l’opinion sur le fait que Windows avait beau avoir changé, (le symbole du logiciel propriétaire qu’est) Microsoft demeurait toujours le même.

Grâce aux efforts communs et conjoints de Framasoft (traduction Framalang) et de l’April (relecture et mise en ligne[1]), le site de la campagne est désormais traduit en français.

Cette campagne joue sur le numéro du dernier système d’exploitation pour se décliner en sept « péchés », malheureusement « capitaux » à freiner le développement et la diffusion du logiciel libre :

  1. Empoisonnement de l’éducation
  2. Invasion de la vie privée
  3. Comportement monopolistique
  4. Verrouillage
  5. Blocage abusif des standards
  6. Soutien des DRM
  7. Menaces sur la sécurité de l’usager

Vous en trouverez quelques extraits ci-dessous mais nous vous invitons surtout à parcourir le site.

Remarque : Cette campagne a été diversement reçue par les internautes anglophones. Encore une critique de Microsoft, occupez-vous plutôt de mettre en avant les qualités du logiciel libre, envoyer une lettre aux 500 plus grandes sociétés américaines ne sert à rien[2], a-t-on ainsi pu entendre ça et là. À vous ne nous dire (avec écoute et courtoisie) dans les commentaires si nous avons néanmoins bien fait de traduire le site.

Les 7 « péchés » de Windows 7

Péché 1 : Empoisonnement de l’éducation

À ce jour, on apprend à la plupart des enfants, dont l’éducation implique des ordinateurs, à utiliser le produit d’une seule entreprise : Microsoft. Cette firme dépense de fortes sommes pour que les groupes de pression et les commerciaux corrompent les services d’éducation. Une éducation qui mise sur la puissance des ordinateurs devrait ouvrir la voie de la liberté et de l’autonomie, et non ouvrir un boulevard au monopole insidieux d’une entreprise.
Pour en savoir plus..

Péché 2 : Invasion de la vie privée

Microsoft utilise des logiciels avec des noms fallacieux comme Windows Genuine Advantage pour inspecter le contenu des disques durs de ses utilisateurs. Les termes de la licence utilisateur que l’on est obligé d’accepter avant de pouvoir utiliser Windows préviennent bien que Microsoft se réserve le droit de faire ça sans avertissement.
Pour en savoir plus..

Péché 3 : Comportement monopolistique

Pratiquement tous les ordinateurs achètés sont vendus avec Windows pré-installé, et non par un libre choix. Microsoft impose ses dictats aux revendeurs de matériel informatique, pour qu’ils ne proposent pas de PC sans Windows pré-installé, bien que de très nombreux clients le leur demandent. Même les ordinateurs disponibles avec d’autres systèmes d’exploitations pré-installés tel que GNU/Linux incluaient souvent Windows au départ.
Pour en savoir plus..

Péché 4 : Verrouillage

Microsoft essaie régulièrement de contraindre ses utilisateurs à faire des mises à jour, en supprimant le support des versions précédentes de Windows et d’Office, et en augmentant le niveau du matériel requis. Pour beaucoup de gens, cela signifie qu’ils doivent mettre leur ordinateur au rebut juste parce qu’il n’est pas à la hauteur des exigences techniques requises par les nouvelles versions de Windows.
Pour en savoir plus..

Péché 5 : Blocage abusif des standards

Microsoft a essayé de bloquer le passage au standard libre pour les formats de documents, parce que des standards comme OpenDocument Format menaceraient le contrôle exercé pour le moment sur l’utilisateur avec les formats propriétaires de Word. Elle s’est lancée dans des manoeuvres en sous-main, qui peuvent aller jusqu’à la corruption de fonctionnaires, pour essayer de stopper de telles initiatives.
Pour en savoir plus..

Péché 6 : Soutien des DRM (Digital Restrictions Management)

Avec Windows Media Player, Microsoft collabore avec les grandes firmes des médias pour imposer des restrictions sur la copie de médias avec leur système d’exploitation. Par exemple, à la demande de NBC, Microsoft est capable d’empêcher les utilisateurs de Windows d’enregistrer des émissions télévisées qu’ils ont pourtant le droit d’enregistrer légalement.
Pour en savoir plus..

Péché 7 : Menaces sur la sécurité de l’usager

Windows a une longue histoire de failles de sécurité, ouvrant la porte à la diffusion des virus et permettant à des utilisateurs distants de prendre le contrôle des ordinateurs d’autres usagers et de les transformer en robots spammeurs. Puisque le logiciel est secret, tous les utilisateurs dépendent de Microsoft pour régler ces problèmes – mais Microsoft tient à ses propres intérêts en matière de sécurité, pas à ceux de ses usagers.
Pour en savoir plus..

Extraits du site Windows7Sins en version française.

Notes

[1] Voir le communiqué de presse de l’April pour l’occasion. Sur le même site et en insistant sur la vente liée, l’April propose également un flyer de 8 pages, qu’elle s’est amusée à distribuer à l’entrée du tout nouveau Windows Café à Paris le jour de son inauguration.

[2] En fait non pas 500 mais 499 car la FSF n’a pas jugé pertinent d’écrire à Microsoft, arguant que la société ne comprendrait pas !