Si on arrêtait d’utiliser les licences libres  ? (au profit du domaine public)

L’un des auteurs que l’on traduit le plus sur le Framablog, Glyn Moody, choisit ici de mettre les pieds dans le libre plat.

Et si on n’utilisait plus les licences libres, qui ne sont pas sans poser problèmes, en plaçant directement le code dans le domaine public ?

Les avantages pourraient finalement dépasser les inconvénients !

Remarque : Sur le même thème on pourra également lire (ou acheter) notre framabook Un monde sans copyright… et sans monopole. Sans oublier notre auteur Pouhiou qui place directement ses romans dans le domaine public et s’en explique ici dans un fort intéressant dialogue avec Lionel Maurel aka Calimaq.

Copyright - OpenSource.com

Pourquoi il est temps d’arrêter d’utiliser les licences libres

Why it’s time to stop using open source licences by Glyn Moody

Glyn Moody – 13 février 2013 – The H Open
(Traduction : Tr4sK, aKa, Sphinx, Isdf, Penguin, ProgVal, lamessen, Shanx, Amargein, ronane, MFolschette, Isser)

Les logiciels libres reposent sur un paradoxe. Afin que les utilisateurs puissent être libres, les licences libres utilisent quelque chose remettant en cause la liberté : le copyright. Ce dernier est un monopole intellectuel se basant sur la restriction de la liberté des gens à partager, la liberté est donc restreinte et non pas étendue. Quand Richard Stallman, en 1985, a créé la GNU Emacs General Public License, cela représentait un bidouillage brillant, maintenant il est peut-être temps de passer à autre chose.

Nous y sommes déjà et des éléments le montrent. Il y a 18 mois, les gens ont commencé à remarquer le déclin des licences copyleft vers des licences plus permissives comme la licence Apache ou BSD. Plus récemment, la croissance de GitHub a attiré l’attention, montrant également que de plus en plus de gens n’utilisent plus de licences sur GitHub (ce qui peut s’avérer problématique d’une certaine manière).

Je ne pense pas que le déclin des licences copyleft soit la preuve d’un échec, bien au contraire ! Je l’écrivais dans mon édito précédent, le logiciel libre a au fond gagné, prenant le pouvoir dans la plupart des secteurs clés de l’informatique. De la même manière, le passage à des licences permissives n’a été rendu possible que grâce au succès du copyleft : les idées participant à la création collaborative et à la contribution à un projet que l’on utilise sont maintenant généralisées. Il n’y a donc plus besoin de licences copyleft « fortes » pour faire respecter ces valeurs, elles font désormais partie de l’ADN des codeurs. Ian Skerrett le déclarait ainsi en 2011 :

« On n’a plus besoin de s’assurer que les développeurs ou les entreprises soient honnêtes. Ils contribuent aux projets open source parce que cela les aide dans leur travail. S’il fallait s’assurer que les développeurs sont honnêtes, pourquoi y aurait-il autant de projets Apache réussis ? Prenons l’exemple du projet Eclipse qui utilise un copyleft faible. Je ne connais que très peu de contributions ayant été intégrées à Eclipse parce que le développeur avait été forcé de contribuer à cause des obligations de licence. Les gens contribuent aux projets qu’ils utilisent parce qu’ils ont saisi le bénéfice qu’ils pouvaient recevoir grâce à leur contribution. »

C’est aussi pourquoi nous ne devons pas nous n’inquiéter du cloud computing — parfois présentée comme la tueuses des licences libres — puisqu’il n’y a pas de distribution obligeant à publier les éventuelles modifications du code. Mais une fois de plus, nous n’avons pas besoin de cette obligation : si une entreprise d’informatique de cloud computing veut pleinement tirer les bénéfices du logiciel libre, elle y contribuera de toute façon. Si elle ne le fait pas, elle n’a rien compris.

Quelle licence devons-nous donc adopter si on n’utilise pas une licence copyleft ? Apache ? BSD ? Pourquoi pas aucune licence du tout , c’est à dire mettre le logiciel dans le domaine public ? Après tout, c’est la conclusion logique du mouvement vers des licences de plus en plus permissives — une qui permet tout.

Compte tenu des discussions passionnées qui ont tendance à se produire lorsqu’on émet l’idée qu’il y a un mouvement des licences copyleft traditionnelles vers des licences légèrement plus permissives, je soupçonne que l’idée d’évoluer vers une licence complètement permissive sera choquante pour certains. À l’évidence, cela semblerait impossible, car conduisant « certainement » à l’effondrement du logiciel libre lui-même si celle-ci était largement adopté.

Un article intéressant de Clark Asay, maître de conférences à la Penn State Univerity Dickinson School of Law (et aussi frère de Matt Asay, personnalité connue de tous dans le logiciel libre) étudie cette idée en profondeur et présente quelques arguments convaincants sur le fait que placer les logiciels libres dans le domaine public fonctionne et s’avère bénéfique.

Asay (Clark et non Matt) remarque qu’il y a un coût à utiliser des licences libres en termes de conformité. Les entreprises dépensent énormément d’argent en se préoccupant de faire les choses bien, mais les programmeurs, eux aussi, perdent du temps à s’occuper de détails légaux alors qu’ils pourraient être en train d’écrire davantage de lignes de code. En particulier, l’incompatibilité entre les nombreuses licences et leurs variantes est une barrière importante à de plus larges réutilisations et collaborations. Ces problèmes signifient que les logiciels libres ne sont pas utilisés aussi largement et efficacement qu’ils le pourraient, commercialement ou non. Ces difficultés peuvent expliquer en partie le glissement vers des licences plus « permissives », guidé par le désir d’éviter justement ces problèmes.

Asay se met alors à examiner les deux objections majeures à rendre le code disponible librement, sans aucune licence. La première tient au fait que les entreprises risquent de récupérer du code puis de l’enfermer, ce qui selon lui a peu de chance de se passer puisque, en faisant ainsi, elles écarteraient beaucoup des bénéfices que seuls les logiciels libres offrent :

« Si une société devait prendre la responsabilité d’un projet et le rendre fermé, elle n’obtiendrait certainement pas le travail bénévole que les contributeurs du monde entier ont envie d’offrir aux projets disposant de licences ouvertes. Sans ce travail bénévole, les sociétés perdraient un des avantages les plus significatifs des modèles ouverts d’innovation, et ce travail bénévole resterait probablement fidèle à la version ouverte du projet. C’est pourquoi les sociétés encouragent d’ores et déjà à ouvrir le plus de projets possibles et à y contribuer. Car en faisant ainsi, cela va attirer une force de travail bénévole et déclenchera une innovation correspondant mieux à à leurs besoins et stratégies.

Est-ce que la réciprocité (c’est-à-dire l’obligation de contribuer au projet en contre-partie) permet d’éviter la désertion des contributeurs individuels ? Il semble peu probable que, dans la plupart de cas, les contributeurs individuels aient le temps, l’intérêt et les ressources pour s’emparer d’un projet non-réciproque et d’en créer un équivalent fermé. La littérature suggère que les buts espérés par les individus qui contribuent à des projets aux licences ouvertes, ont peu à voir avoir avec un avantage financier direct. Leurs intérêts pour la contribution résident plutôt dans la créativité, l’amélioration de sa réputation, et les bénéfices financiers indirects. Bien qu’il soit toujours possible pour des contributeurs de s’emparer d’un projet ouvert et de le rendre fermé pour l’intégrer dans leurs propres produits (et ainsi contrevenir à ce modèle ouvert d’innovation), les mêmes raisons qui suggèrent que les sociétés ne le feront pas s’appliquent également aux contributeurs individuels. Les contributeurs individuels sont encore moins à même d’abandonner les buts qu’ils espèrent atteindre dans la contribution à des projets ouverts, en plus de n’avoir que des ressources limitées pour réussir à fermer et maintenir un projet. »

L’autre objection majeure qu’il met en avant est que si le logiciel est placé dans le domaine public, il n’existe aucune exigence pour que tous les programmeurs reçoivent la reconnaissance qu’ils méritent pour leur contribution à un projet. Cette reconnaissance peut être importante en raison de l’estime des pairs dont ils jouissent en retour et peut même aboutir à des compensations économiques sous la forme d’offres d’emploi et d’augmentations de salaire.

Attribution et réputation

Je suis d’accord pour dire qu’attribuer le mérite d’un projet est important, et cela de manière cruciale. En fait, je pense que cela représente la clé du problème concernant les produits numériques partagés sur Internet, étant donné que les bénéfices économiques dépendent de cela. Toutefois, forcer cette attribution grâce à des licences ne représente peut-être pas le meilleur moyen. Asay l’explique ainsi :

« Dans une large mesure, l’approche de la gestion de la propriété intellectuelle choisie par les modèles d’innovation ouverts (c’est-à-dire les licences classiques des projets open source) échoue à remplir ses missions. Par exemple, le respect des licences attribution-only (mention de l’auteur original du projet) provoque l’enfouissement d’une telle reconnaissance dans les documents légaux ; cela fait que la reconnaissance d’une telle paternité devient minime. Cette réalité montre que ceux qui contribuent en utilisant des licences attribution-only, bien qu’étant motivés par une certaine forme de reconnaissance, obtiendront un tout autre type de reconnaissance que celui engendré par la propriété intellectuelle. Dans le monde du logiciel libre et open source, des outils comme GitHub, utilisé largement comme outil social de développement, peuvent fournir plus efficacement la reconnaissance que cherchent les programmeurs. Le fait que de plus en plus de contributions à des logiciels effectuées via GitHub se font sans avertissement de non-respect de la propriété intellectuelle ou des clauses de licences montre que le « prix » d’un tel avertissement à cause d’une documentation légale obscure n’en est pas un, du moins pour ceux qui contribuent. »

En effet, les personnes et les entreprises ont déjà commencé à utiliser les profils GitHub comme un moyen d’afficher et de mesurer la capacité à coder. Je soupçonne que cela deviendra bientôt la norme, avec des moyens plus formels d’établir sa réputation dans le monde du développment, apparaissant aux côtés de ceux informellement dictés par les normes sociales au sein de la communauté du logiciel libre.

Après avoir abordé les deux principales objections de se passer de licences open source traditionnelles, Asay examine ensuite ce que le domaine public signifierait en pratique :

« Une approche du style domaine public devrait remplacer efficacement les droits d’auteurs automatiques, supprimer tous les droits liés aux brevets (les deux respectant les droits des brevets déjà obtenus ainsi que de façon prospective), et renoncer à tous les recours possibles venant avec eux. Les droits liés au secret commercial, le cas échéant, devraient êtres supprimés dès que le titulaire des droits a publié le logiciel ou le contenu au public. On peut dire que renoncer à tout droit de marques est non seulement inutile mais déconseillé, car les autres pourraient utiliser les marques pour embrouiller les consommateurs quant à la source du logiciel ou du contenu. En effet, c’est exactement pourquoi la licence CC (Creative Commons), qui inclut une licence dédiée au domaine public dans son répertoire légal, exclut expressément les droits de marque dans son outil. »

Ce dernier point sur les marques est important, bien qu’il puisse sembler étrange de prétendre que tous les monopoles intellectuels et marques doivent être conservés, parce qu’ils servent un but très différent de celui du droit d’auteur ou des brevets. Les marques sont conçues pour protéger les consommateurs contre la fraude, plutôt que de chercher à exclure les concurrents, même si c’est la façon dont elles sont souvent utilisées aujourd’hui.

Mais pour les projets open source, les marques sont purement une question de réputation — c’est à dire qu’elles deviennent des garanties de qualité lorsqu’elles sont appliquées à un programme. N’importe qui peut prendre le code et l’utiliser et l’adapter de différentes façons. Mais il ne pourra pas utiliser la marque du projet, car cela impliquerait qu’il s’agit d’une version officielle « approuvée ». Ce qui serait évidemment problématique pour une variété de raisons, à commencer par celle de la sécurité.

Asay aborde également une objection importante dans sa thèse selon laquelle placer un logiciel dans le domaine public serait la meilleure façon de le distribuer : si c’était le cas, pourquoi tout le monde s’en tiendrait à la licence GPL ou Apache ? Comme il le souligne :

« Dans le monde du logiciel libre et open source, par exemple, il n’existe aucun outil reconnu ou largement utilisé dévoué au domaine public. A la place, l’Open Source Initiative et la Free Software Foundation — les deux principales organisations de défense des logiciels libres dans le monde — refusent ou approuvent les licences ouvertes utilisées dans la communauté. S’il est vrai que divers projets pourraient tout simplement ignorer ces licences recommandées et d’adopter une approche par domaine public — certaines ayant essayé de faire exactement cela — cette approche suppose que les organisateurs de ces projets comprennent comment le faire. »

Le fait est qu’il est actuellement assez difficile de placer un logiciel dans le domaine public, premièrement parce qu’il y a un biais culturel contre une telle attitude, même au sein de la la communauté du logiciel libre, et deuxièmement parce que légalement c’est un processus délicat. En effet, Asay suggère que nous avons besoin d’une nouvelle législation — ce qu’il appelle Public Domain Act (NdT, en français : « Loi du Domaine Public ») — pour rendre ce processus plus facile. Il faudra évidemment prendre en compte les différents systèmes de copyright ayant cours dans le monde — par exemple, ceux qui mettent plus l’accent sur les « droits moraux ».

Il y a quelques années, j’ai demandé à Richard Stallman ses points de vue sur la manière dont le copyright devrait être réformé, particulièrement concernant l’aspect logiciel. Voici ce qu’il a répondu :

« Pour la plupart des types de travaux, je pense que le droit d’auteur serait acceptable si nous l’avions (1) fait plus court (je suggère 10 ans), (2) permis la redistribution de copies dans un but non commercial et sans modification, (3) défini comme fair use les réutilisations sous forme de remix. Cependant, je pense que les logiciels et autres œuvres d’usage pratique doivent être libres. »

Notez qu’il pense, lui aussi, que le logiciel devrait être exempt de tout copyright — en d’autres mots, dans le domaine public — mais il a ajouté quelques mises en garde :

« Je serais heureux de voir l’abolition du copyright dans le logiciel si c’était fait de façon à s’assurer que le logiciel est libre. Après tout, l’objectif du copyleft est d’atteindre ce but pour les dérivés de certains programmes. Si tous les logiciels étaient libres, le copyleft ne serait plus nécessaire.

Cependant, l’abolition du copyright peut aussi être faite de manière erronée et pourrait n’avoir aucun effet sur les logiciels propriétaires typiques (qui sont restreints par des CLUF, Contrats de Licence Utilisateur Final, et le secret du code source plus que par le copyright), et ne ferait que porter atteinte à l’utilisation du copyleft. J’y serais naturellement opposé. »

Placer les logiciels libres dans le domaine public serait équivalent à abolir le droit d’auteur pour ces programmes tout en laissant le code propriétaire intact. Est-ce vraiment un problème ? Personnellement, je ne le pense pas, pour les raisons que j’ai mentionnées : toute entreprise prenant du code dans le domaine public et se l’appropriant perd tous les avantages de son ouverture. Il est vrai qu’il reste des programmes hérités des maisons de logiciels à l’ancienne qui ont toujours été propriétaires, mais leurs existence n’affecte pas vraiment le monde plus large du logiciel libre, qui est maintenant arrivé à l’indépendance et à l’autosuffisance. Ce que Microsoft et ses semblables font en ce moment est quelque peu hors de propos.

Bien sûr, le passage au domaine public ne signifiera pas la disparition des licences libres actuelles — elles seront toujours là pour ceux qui souhaitent les utiliser. Comme toujours, le choix et la liberté personnelle sont capitaux. Mais j’espère que les gens y réfléchiront à deux fois avant d’introduire de nouvelles licences, ou même avant d’en mettre à jour d’anciennes. En particulier, j’espère qu’il n’y aura jamais de GNU GPL version 4. Au contraire, nous devons parachever la révolution que Richard Stallman a commencée il y a près de trois décennies en rendant le logiciel libre véritablement libre, en le plaçant dans le domaine public et en brisant les chaînes qui le lient encore à ce monopole vieux de trois cents ans nommé copyright.




Connivences entre lobbys américains et députés européens sur le dos des citoyens

Les lobbys ont toujours tenté d’influencer les politiques. Mais lorsqu’il s’agit de lobbyistes américains qui arrivent à faire passer mot pour mot certains textes de loi en Europe avec la complicité de nos députés, il y a d’autant plus de quoi s’interroger que cela va dans le sens des entreprises US et non du citoyen européen.

Un article traduit du chroniqueur anglais Glyn Moody, souvent traduit sur le Framablog)

Heureusement que nous avons désormais des sites qui permettent de mieux connaître le comportement individuel des députés et leurs éventuelles « sources d’inspiration ». Heureusement aussi que nous avons des structures comme la Quadrature du Net qui tente tant bien que mal d’agir et veiller au grain. Mais la vigilance reste de mise.

European People's Party - CC by

Protection des données dans l’Union Européenne : Les amendements proposés, écrits par des lobbyistes américains

EU Data Protection: Proposed Amendments Written by US Lobbyists

Glyn Moody – 11 février 2013 – ComputerWorld.uk
(Traduction : Fly, Alpha + anonymes)

Il devient évident que le lobby autour des directives européennes sur la protection des données est l’un des plus intenses lobbys jamais rencontrés, certains activistes ont déclaré que le phénomène était même pire que durant le projet de loi ACTA, alors que du côté des États-Unis, le bruit court qu’une guerre commerciale est sur le point d’être lancée si la loi est voté sous sa forme actuelle.

Etant donné la pression exercée pour affaiblir la protection de notre vie privée, une question-clé est : qui défend nos intérêts ?. La réponse évidente serait les députés européens, puisqu’il s’agit de nos représentants élus au Parlement Européen. Leur travail consiste précisément à nous représenter et dans ces circonstances particulières et à nous défendre. Et certains, tel le député européen Vert, Jan Albrecht, font probablement de leur mieux, comme j’ai pu l’écrire dans un billet précédent. Mais qu’en est-il du reste ? Que font-ils exactement ?

Dans le passé il était impossible de répondre à cette question, mais grâce aux miracles de la technologie moderne, et à l’avènement de l’ouverture des données qui permettent l’accès à toutes sortes d’informations. Il est désormais possible d’obtenir une vision claire de ce que font nos représentants européens.

Un nouveau site a été créé, il porte le nom plutôt lourd de LobbyPlag (NdT : Association des mots lobby et plagiat). Aussi disgracieux, que son nom puisse être, ce site ne décrit pas moins une vérité choquante : les députés européens proposent des amendements sur le projet de loi sur la protection des données qui reprennent mot pour mot les propositions des lobbyistes. En tout état de cause, ce qui est inquiétant ici n’est pas le plagiat, mais plutôt le fait que les mesures destinées à protéger les populations européennes soient supprimées ou altérées par les mêmes personnes que nous avons élues pour nous défendre.

Voici par exemple, un paragraphe important sur le fichage. On peut lire, sur la version originale :

Chaque personne physique (NdT : every natural person) doit avoir le droit de ne pas être soumis à une mesure entraînant des effets juridiques relatifs à cette personne physique particulière ou l’atteignant de manière significative, dès lors qu’elle se base uniquement sur un traitement automatisé ayant pour but l’analyse ou la prédiction de certains aspects personnels en lien avec cette personne physique, en particulier, l’efficacité au travail, la situation financière, la localisation, la santé, les préférences personnelles, la fiabilité, ou le comportement de cette personne physique.

Mais la Chambre de Commerce américaine, cette célèbre organisation européenne, n’aimait pas cette version et a souhaité la changer en :

Une personne concernée par la collecte des données (NdT : a data subject) ne doit pas faire l’objet d’une décision injuste ou discriminatoire uniquement basée sur le traitement automatisé ayant pour but l’évaluation de certains aspects personnels liés à cette personne.

Ce qui est sensiblement différent car on supprime ici un droit important.

Or quel texte a été proposé par des députés européens dans pas moins de trois commissions ? Le voici :

Une personne concernée par la collecte des données ne doit pas faire l’objet d’une décision injuste ou discriminatoire uniquement basée sur le traitement automatisé ayant pour but l’évaluation de certains aspects personnels liés à cette personne.

Ce qui correspond donc mot pour mot à la demande de la Chambre de Commerce américaine.

Voici un exemple explicite, issu d’une section extrêmement récente, rédigée par des députés européens, on peut y lire ce qui suit :

La personne responsable est supposée avoir accompli les obligations en exergue dans le paragraphe 1,lorsqu’il s’agit de choisir un organisme certifié de manière autonome ou ayant obtenu une certification, un sceau ou marqué comme étant conforme aux articles 38 ou 39 de ce Réglement, démontrant l’implémentation de normes techniques et de mesures organisationnelles appropriées en réponse aux exigences mises en exergue dans ce Règlement.

Ce qui rend la certification autonome quasiment suffisante pour les services de cloud computing. Alors, d’où vient ce texte sinon d’une modification précise suggérée par Amazon ?

La personne responsable est supposée avoir accompli les obligations en exergue dans le paragraphe 1,lorsqu’il s’agît de choisir un organisme certifié de manière autonome ou ayant obtenu une certification, un sceau ou marqué, démontrant l’implémentation de normes techniques et de mesures organisationnelles appropriées en réponse aux exigences mises en exergue dans ce Règlement.

Ce qui donc, par une autre extraordinaire coïncidence, est quasiment identique à ce que des députés européens ont choisi comme une très bonne idée.

LobbyPlag fournit une analyse intéressante sur le pourcentage d’amendements proposés avec du contenu repris des lobbyistes. Ci-dessous les chiffres pour les députés anglais calculés par le site :

  • Giles Chichester (giles.chichester@europarl.europa.eu): amendements repris des lobbys : 10 sur 44 (22.73%)
  • Malcolm Harbour (malcolm.harbour@europarl.europa.eu): amendements repris des lobbys : 14 sur 55 (25.45%)
  • Sajjid Karim (sajjad.karim@europarl.europa.eu): amendements repris des lobbys : 13 sur 55 (23.64%)
  • Emma McClarkin (emma.mcclarkin@europarl.europa.eu): amendements repris des lobbys : 1 sur 8 (12.50%)

Malheureusement, à l’heure actuelle, aucun de ces députés européens ne me représente donc je ne pourrais pas les contacter. Mais si l’un de vos députés apparaît, ils ont le devoir de vous répondre donc peut-être que vous devriez leur envoyer un courriel et leur demander pourquoi ils ont proposé ces amendements qui sont repris mot-à-mot ou presque d’entreprises américaines et de lobbyistes et que cela nuira à la population européenne tout en bénéficient à ces mêmes entreprises américaines.

Vous pourriez leur demander qui ils pensent représenter réellement : vous et 500 millions citoyens européens dont les impôts paient leurs salaire, qui s’élève actuellement à 80.000 £ par an (NdT : 93 000 € environ) ou alors, une poignée d’entreprises américaines ayant pour but de nous spolier notre vie privée pour pouvoir devenir encore plus riche ?

Si jamais vous recevez un réponse intéressante, merci de me l’envoyer à glyn.moody(AT)gmail.com que je puisse la partager avec mes lecteurs. Je suis certain que les explications seront passionnantes.

Crédit photo : European People’s Party (Creative Commons By)




Innovation et licence libre en biotechnologie

On le constate de plus en plus souvent aidé qu’il est en cela par Internet : quand l’esprit du Libre accoste un nouveau domaine, il interroge voire interpelle son modèle d’organisation antérieur (sans même le demander toujours explicitement).

Est-ce que la fermeture (ici les brevets) est la meilleurs voie vers le progrès et l’innovation ? Doit-on payer plusieurs fois l’usage d’une technologie qui devrait être au bénéfice de tous ?

Il pose alors des questions faussement naïves dont les réponses dessinent les contours du monde de demain.

Idaho National Laboratory - CC by

Oubliez les brevets : Pourquoi les licences libres sont facteurs d’innovation dans les biotechnologies

Forget Patents: Why Open Source Licensing Concepts May Lead To Biotech Innovation

Glyn Moody – 2 novembre 2012 – TechDirt.com
(Traduction : aKa, KoS, Dryt, Amine Brikci-N, Cyrille L., alexis, mazerdan, tanguy)

En direct du département du partage…

L’une des idées directrices conduisant au libre accès dans le domaine de la recherche est que si le public a déjà payé par l’intermédiare des impôts (ou du mécénat), alors il n’est pas légitime de demander à nouveau aux citoyens de payer pour lire l’article publié. La force de cet argument est en partie à l’origine d’une plus grande reconnaissance du libre accès à travers le monde.

Mais le même raisonnement peut s’appliquer à la mise sur le marché de la recherche sur fonds publics. Pourquoi devrait-on céder aux entreprises (qui cherchent naturellement à maximiser leurs profits) des prix si élevés pour des produits qui ont été initialement financés sur fonds publics (rendant par là-même leur mise sur le marché possible) ?

Tout comme pour le libre accès, la difficulté tient de la mise en place d’une nouvelle approche permettant aux traitements médicaux d’être le plus accessible possible. @MaliciaRogue a mis en exergue un article de Frangioni, paru récemment dans Nature Biotechnology, qui propose une solution innovante basée sur un développement open source mené par une fondation à but non lucratif.

Dans ce modèle open source, les structures commerciales sont encouragées à acquérir des licences d’utilisation, mais de manière non exclusive. Les entreprises utilisant la technologie sont encouragées à innover sur la plateforme, qui leur fournira des droits d’auteurs pour leur propriété intellectuelle, qui les aidera à franchir les barrières pour entrer sur le marché et fournir aux patients une version améliorée de la technologie. L’échange et l’évolution des informations ouvertes est encouragé plutôt que découragé, en supposant que les connaissances renforceront les entreprises qui veulent se creuser une niche de contenu protégé tandis que les scientifiques pourront continuer à se saisir d’une technologie de pointe.

C’est un exemple détaillé et fascinant qui nous fait explorer les problèmes que posent la mise sur le marché de la recherche, à commencer par la loi Bay-Dole de 1980 et son échec dans l’accélération des transferts de technologies entre le monde académique et l’industrie :

Au début de Bayh-Dole, la politique de transfert technologique de beaucoup de CMA (centre médico-académique) a été de chercher à breveter le plus d’inventions possible (tout ça à grands frais), parfois sans même se demander si la découverte permettait de compter les brevets comme des actifs ou d’en faire leur commercialisation. De la même façon, trop souvent, des startups émergent des CMA sans qu’une analyse raisonnable n’ait eût lieu, conduisant à un sous-financement de beaucoup d’entreprises.

L’approche de Frangioni est très différente. Puisqu’une structure à but non lucratif est financée par le public, l’accent est mis sur l’optimisation du service rendu au patient, plutôt que sur le retour sur investissement. La nouvelle façon de faire est de demander une forme de réciprocité de la part de ceux qui utilisent ces connaissances.

Les utilisateurs (chercheurs, chirurgiens, et utilisateurs de licences) peuvent acheter la technologie, mais uniquement après s’être formellement engagés à apporter les connaissances acquises par cette technologie dans une sorte de banque publique de connaissances (une base de données publique), à travers ce que nous appelons une boucle de retour d’informations. Ici encore, est mis en œuvre le principe de donner après avoir reçu : l’acheteur doit créer de nouvelles connaissances pour le bien de tous, afin d’avoir accès à la technologie.

C’est ainsi que les logiciels open source fonctionnent : tout le monde peut utiliser le code et bâtir dessus mais il faut redonner ses contributions à la communauté, de manière à ce que les autres puissent, exactement de la même manière, bâtir dessus. Les résultats dans le domaine des logiciels, où l’open source domine l’Internet, les super-ordinateurs et – grâce à Android qui est basé sur Linux – les smartphones, parlent d’eux même. Il reste à voir s’il est possible de généraliser la mise en pratique de ces idées, comme le montre l’expérience de Frangioni avec sa FLARE Foundation. Mais c’est certainement une approche qui vaut le coup d’être tentée.

Crédit photo : Idaho National Laboratory (Creative Commons By)




Rien ne serait arrivé sans la loi de Moore

La loi de Moore (qui n’est en fait qu’un conjecture) affirme que le nombre de transistors des microprocesseurs sur une puce de silicium double tous les deux ans. Ce qui, par extension, a donné pour le grand public que le rapport entre la puissance d’un ordinateur et son prix double tous les dix-huit mois.

Autrement dit, les machines sont de plus en plus puissantes et de moins en moins chères.

C’est bien ce qu’il s’est produit et se produit encore, pour le plus grand bonheur du logiciel libre et sa culture…

Leonardo Rizzi - CC by-sa

Un allié secret de l’open source : la loi de Moore

Open source’s secret ally: Moore’s Law

Glyn Moody – 10 octobre 2012 – The H
(Traduction : KoS, ProgVal, Sylvain, greygjhart)

Linux est passé du statut de petit bidouillage sympa dans une chambre à celui de logiciel capable de changer le monde il y a un peu plus de 21 ans lorsque Linus a envoyé son fameux message : « Bonjour aux utilisateurs de minix », invitant les gens à le rejoindre. Comme je l’ai remarqué le mois dernier, cette approche ouverte, collaborative était tout à fait nouvelle et s’est avérée décisive dans l’adoption et le développement de Linux.

Cela fut possible car Internet était déjà suffisamment présent pour qu’assez de gens se joignent à l’équipe de volontaires de Linus en faisant jouer à plein l’intelligence distribuée. En d’autres termes, l’émergence du logiciel libre est intimement liée à internet. En effet, le décollage rapide de Linux, comparé aux progrès plutôt lents du projet GNU est probablement dû, au moins en partie, au fait que ce dernier ne pouvait se reposer sur une connectivité globale. C’est grâce à cela que Richard Stallman a pu vivre des ventes de GNU Emacs, qu’il distribuait sur des bandes magnétiques.

La nature symbiotique du logiciel libre et d’internet, le premier utilisant le second, le second étant utilisé par le premier, est maintenant largement reconnue. Mais un autre facteur clé dans l’apparition de l’open source a été sous-estimé, alors que Linus lui-même le mentionne dans ce fameux premier message :

Je programme un système d’exploitation (gratuit, c’est juste un passe-temps, ça ne sera pas un gros projet professionnel comme GNU) pour des clones AT 386(486).

Comme nous vivons à l’ère Intel depuis deux décennies, une ère qui touche peut-être à sa fin, avec la montée en puissance des smartphones et des tablettes et leurs processeurs de familles différentes, il est facile de négliger l’importance du fait que Linus développa Linux pour les processeurs 80386.

Aussi étrange que cela puisse paraître , l’ordinateur principal de Linus avant qu’il n’écrive Linux était un Sinclair QL, un ordinateur typiquement anglais qui utilisait le processeur Motorola 68008 (qui fonctionnait à 7,5 MHz), fourni avec 128K de RAM et utilisait un infâme microdrive comme stockage.

Passer à un PC 386, fonctionnant à 33MHz, avec 8 Mo de RAM et 40Mo de disque dur, était un véritable bond en avant pour Linus, et poussa ses finances à leurs limites. En fait, il n’a pu acheter son premier PC que le 5 janvier 1991 parce qu’il reçut de l’argent pour Noël qu’il ajouta à un prêt étudiant que le gouvernement Finlandais lui avait récemment accordé. Ce dernier était censé payer sa nourriture et son logement pendant qu’il étudiait à l’université d’Helsinki mais comme il vivait toujours avec sa mère pendant cette période, il réussi à le détourner pour un usage plus intéressant.

Le fait qu’il puisse se payer un système aussi performant reposait sur l’amélioration continuelle du matériel, couplée à la diminution régulière des prix. C’est à dire que c’est grâce à la loi de Moore, qui dit que le ratio entre performances et prix double tous les 18 mois environ, que Linus a pu se retrouver avec le système 386 qu’il mentionne dans le premier message sur Linux.

Sans la loi de Moore, il serait sans doute resté avec son Sinclair QL, codant pour un système dont peu de gens se souciaient. Avec le 386, il a pu rentrer dans le courant dominant de l’informatique en même temps que de nombreuses autres personnes. Partout dans le monde (ou en tout cas dans les zones les plus riches) les jeunes gens ont pu s’acheter de vrais ordinateurs basés sur l’Intel 80386 et (plus tard) 80486. Cela signifiait qu’ils pouvaient faire tourner le code de Linux dès ses débuts, et aussi qu’ils pouvaient contribuer.

Encore une fois, sans la loi de Moore mettant des ordinateurs moins chers dans les mains de bidouilleurs, Linus n’aurait pas été en mesure de construire cette communauté mondiale à travers Internet et le rythme de développement en aurait souffert. En effet, comme la loi de Moore continuait de tirer les prix vers le bas tout en augmentant les performances, de plus en plus de gens dans un nombre croissant de pays ont pu acquérir des PCs suffisamment puissants pour rejoindre le projet Linux. Des processeurs plus rapides signifiaient des temps de compilation plus courts pour les programmes ce qui rendait le bidouillage du code plus facile – et plus agréable.

Il y a ici un contraste intéressant avec le développement du logiciel propriétaire. Les avancées dues à la loi de Moore ne profitent que peu aux programmeurs dans les entreprises, puisqu’ils ont généralement du matériel assez bon. Et les entreprises n’en bénéficient guère plus, puisque ce qui coûte le plus dans la programmation est le salaire des programmeurs, pas le prix de leurs PCs. Dans le monde du logiciel libre, les programmeurs volontaires sont bénévoles et le facteur limitant est le prix du matériel. C’est pourquoi la loi de Moore est très avantageuse pour l’open source.

Potentiel futur

Ce n’est pas un effet purement historique des premières heures de Linux. Nous voyons encore aujourd’hui la Loi de Moore tirer les prix vers le bas en accueillant toujours plus d’utilisateurs. Un bon exemple est le mini-ordinateur Raspberry Pi. Il offre les bases de la puissance d’un PC sur une petite carte mère, à un prix minuscule. Cela signifie que non seulement les personnes ordinaires – même des enfants – peuvent l’acheter sans avoir à penser au prix, mais aussi que les écoles peuvent envisager d’en acheter un pour chaque étudiant, ce qui est normalement inenvisageable avec les prix prohibitifs des PC, même ceux bon marché.

L’effet que le Raspberry Pi aura sur l’éducation n’est pas encore clair, mais il semble que celui-ci ou l’un des nombreux systèmes semblables à prix très bas va permettre l’arrivée de nouveaux types de projets avec des nouveaux groupes de contributeurs, dans les pays émergents par exemple.

Et les choses sont déjà en train d’aller plus loin. Voici un projet Kickstarter qui illustre à merveille cette progression continue rendue possible grâce à la loi de Moore. Il s’agit de Parallella. l se décrit comme un « Supercalculateur Grand Public », et ce n’est pas une blague.

Une fois terminé, l’ordinateur Parallella devrait fournir l’équivalent d’un processeur à plus de 45Ghz sur un circuit de la taille d’une carte de crédit tout en consommant moins de 5 Watts en fonctionnement normal. En s’en tenant seulement à la fréquence, c’est plus de puissance qu’un serveur haut de gamme qui coûte des milliers de dollars et consomme 400W.

Important, tout le système sera ouvert :

  • Accès ouvert : absolument aucun accord de non divulgation ou accès spéciaux nécessaires ! Toute l’architecture et le kit de développement seront publiés sur le web dès que le projet sera financé sur Kickstarter.
  • Open Source: la plateforme Parallella sera basée sur des outils et des bibliothèques libres et gratuites. Tous les fichiers de conception des circuits seront fournis une fois que Parallella sera sur le marché
  • Bon marché : les coûts du matériel et des outils de développement ont toujours été une barrière très difficile à franchir pour les développeurs cherchant à écrire des applications haute-performance. Notre but est de fournir l’ordinateur haute-performance Parallella à un coût inférieur à 100$, le rendant accessible à tous.

Oui, c’est un super ordinateur à 45GHz, fourni en standard avec Ubuntu, pour moins de 100$. Si Parallella parvient à sortir cela – et en tant que projet Kickstarter (il y a toujours le risque qu’il ne soit pas totalement financé ou qu’il ne fonctionne pas correctement) il va mettre un nouveau niveau de puissance de calcul entre les mains de tout le monde, y compris les étudiants.

Potentiellement, cela va permettre à des gens qui, jusqu’à présent, ne pouvaient tout simplement pas s’acheter une telle puissance de calcul de démarrer une toute nouvelle génération de projets open source. Encore une fois, le principal bénéficiaire ici est l’open source : si une entreprise a besoin d’un supercalculateur, elle va généralement l’acheter immédiatement, puisqu’elle peut se permettre de payer un prix conséquent pour les modèles actuels. Ce que Parallella apporte, grâce à la loi de Moore, est la démocratisation d’une puissance de calcul de cet ordre, qui ne va plus être réservée à des projets commerciaux disposant de solides fonds.

Il est important de noter que c’est la loi de Moore, agissant sur le matériel qui apporte ces bénéfices, plutôt que n’importe quel changement exponentiel dans le logiciel (qui n’y contribue qu’indirectement). De plus des lois de Moore pour d’autres types de matériel commencent également à prendre forme. Un exemple frappant en est l’impression 3D, où les prix baissent régulièrement. Ou encore le monde du séquençage du génome, démêler les milliards de « lettres » chimiques qui forment la double hélice de l’ADN, qui voit l’arrivée de changements encore plus importants.

Vous savez peut-être que le coût de séquençage du génome baisse mais vous n’avez peut-être pas la moindre idée de la vitesse à laquelle il baisse. Le National Human Genome Research Institute qui fait partie du National Institute of Health américain a compilé des données étendues sur le coût de séquençage de l’ADN au cours de la dernière décennie et a utilisé ces informations pour créer deux graphique à couper le souffle. Les chercheurs du NHGRI montrent que non seulement les coûts de séquençage sont en chute libre mais ils dépassent la courbe exponentielle de la loi de Moore d’une grande marge.

Cela signifie que le coût de séquençage de votre génome, ou de n’importe quel autre organisme, va bientôt devenir à la portée de tout le monde. Cela va-t-il créer une communauté globale de bio-hackers libristes, menée par un nouveau Linus avec un séquenceur de bureau (et peut-être un supercalculateur Parallella) dans sa chambre à coucher ? L’expérience des logiciels libres suggère que oui et nous apprend que nous ne devrions jamais sous-estimer le simple pouvoir de la loi de Moore à conduire des changement inattendus et révolutionnaires.

Crédit photo : Leonardo Rizzi (Creative Commons By-Sa)




20 ans de plus pour le Copyright musical en Europe : C’est là qu’est le véritable Vol !

Alan Stanton - CC by-saL’Europe prolonge de 20 ans les droits des interprètes et producteurs de musique pouvait-on lire dans Le Monde il y a un mois.

Pourquoi 20 ans au fait ? Et nous a-t-on jamais demandé notre avis ? D’ailleurs pourquoi 20 ans de plus et pas de 20 ans de moins ?

C’est ce que se demande, non sans une certaine (acide) ironie, l’un de ceux que nous traduisions le plus à Framalang : notre ami Glyn Moody[1].

Le copyright c’est le vol

Copyright Theft

Glyn Moody – 13 septembre 2011 – Blog personnel
(Traduction Framalang : Nilux, ZeHiro, Duthils et Penguin)

L’idée de « vol de copyright » est très répandue et l’idée que les gens « volent » du contenu numérique aux créateurs, sont des figures de style récurrentes chez les maximalistes du droit d’auteur. Tout ceci n’est bien sûr que des âneries. La loi stipule clairement qu’il ne s’agit que d’infraction au droit d’auteur, et la logique nous prouve que la copie numérique n’est pas du vol, puisqu’elle ne prive de rien, mais multiplie.

On peut effectivement se poser la question de savoir si la duplication non autorisée engendre une perte de revenus, mais la réponse n’est pas aussi simple que ce que l’on voudrait nous faire croire. Un large éventail d’études démontre que ce partage stimulerait les ventes, agissant comme une sorte de marketing officieux – et gratuit.

C’est pourquoi j’ai longtemps préconisé des recherches indépendantes sur ce sujet – après tout, si les industries liées au droit d’auteur sont si sûres que le partage de fichiers engendre des pertes de revenus, qu’auraient-elles à craindre d’études objectives à ce sujet ? Pourtant, elles semblent réticentes ne serait-ce qu’à envisager cette idée.

Mais quels que soient vos avis sur ce problème en particulier, il y a de grandes chances que ce qui suit ne fasse que l’aggraver :

Le Conseil Européen a adopté aujourd’hui, à la majorité qualifiée, une directive qui fait passer de cinquante à soixante-dix ans la durée de protection des droits des artistes interprètes ou exécutants et des producteurs d’enregistrements musicaux dans l’UE.

Sur le plan pratique, cela signifie qu’il y a très peu de chances que je – ou n’importe lequel de mes contemporains qui soit plus mélomane que moi – puisse un jour utiliser la musique d’aujourd’hui pour créer de nouvelles œuvres. Tout comme avec les autres médias, la musique enregistrée aujourd’hui vivra pendant près d’une centaine d’années dans une bulle aseptisée dans laquelle personne ne sera autorisé à entrer.

Tout ceci est théorique et très éloigné de nous ; il n’est peut-être pas évident de voir où est le problème. Examinons donc de plus près ce qu’il s’est passé en imaginant un étrange monde parallèle, remarquablement identique au nôtre, dans lequel ceci se serait produit:

Le Conseil Européen a aujourd’hui adopté à la majorité qualifiée une directive réduisant la durée de protection des droits des des artistes interprètes ou exécutants et des producteurs d’enregistrements musicaux dans l’UE de 50 à 30 ans.

Comme vous pouvez le constater, ce monde est presque strictement identique au nôtre, à la légère différence que la durée de validité du droit d’auteur pour les enregistrements musicaux a été raccourcie de 20 ans au lieu d’être allongée. Légère différence, penseriez-vous – après tout, 20 ans de plus ou moins, qu’est-ce que cela change ? Si on peut rallonger cette durée, on peut aussi la raccourcir, non ?

Mais dans ce monde parallèle, imaginez les hurlements de douleur et de colère qui émaneraient de l’industrie musicale face à cette réappropriation outrageuse et injustifiée de ce qui leur revient de droit. Les musiciens descendraient manifester dans la rue, et les compagnies vivant sur leur dos activeraient comme jamais leurs groupes de pression pour inverser cette terrible décision.

Heureusement pour eux, il ne s’agit que d’un monde parallèle. Mais grâce à la symétrie du droit d’auteur – c’est-à-dire le fait qu’il soit une aubaine aussi bien pour les créateurs que pour leur public, les premiers obtenant un monopole temporaire en échange d’un passage dans le domaine public une fois ce monopole expiré – c’est vous, moi et chaque membre de ce nébuleux public – qui sommes dépossédés. À la seule différence que personne n’est descendu dans la rue pour protester.

Quand les musiciens ont enregistré leurs chansons, l’accord était qu’ils recevraient des droits d’auteurs pendant 50 ans (ou moins, selon l’époque à laquelle ils les ont enregistrées). En contrepartie de ces 50 ans, ils acceptaient que le domaine public s’en voie enrichi pour que nous, le public, puissions faire ce que bon nous semble de cette musique.

Ce pacte, accepté librement par les deux parties, vient tout juste d’être brisé. Les enregistrements n’entreront plus dans le domaine public à la date convenue ; au lieu de ça, nous devrons attendre 20 années de plus. Dans les faits, on nous a volé 20 ans de domaine public, vu que rien ne nous a été donné en échange de cette perte soudaine.

Il n’y a donc pas à chipoter pour savoir s’il s’agit de vol ou non, puisque quelque chose nous a été pris sans que l’on nous en demande la permission. Oui, le Conseil Européen est censé, en théorie, agir en notre nom, mais je ne me souviens pas que l’on m’ait, à aucun moment, demandé mon accord. Le fait est que le Conseil a agi de façon unilatérale, à l’injonction de l’industrie musicale qui voulait le beurre et l’argent du beurre – et non parce que nous, le public, demandions aux politiciens de changer la loi en ce sens pour nous rendre plus pauvres que nous ne l’étions.

Voilà ce qu’est le vrai vol de droit d’auteur : on vole le public par une extension injustifiée et non démocratique du droit d’auteur.

Notes

[1] Crédit photo : Alan Stanton (Creative Commons)




OpenOffice.org n’est pas mort, Vive LibreOffice !

Terry Ross - CC by-saComme le souligne avec malice notre ami Gee, la suite bureautique libre LibreOffice 3.3 vient de voir le jour.

Sauf que, comme son numéro ne l’indique pas, c’est sa toute première version stable. Mais alors pourquoi n’a-t-on pas logiquement une version 1.0 ? Parce qu’il s’agit d’un fork de la célèbre suite OpenOffice.org qui, au moment de la séparation, en était restée à la version 3.2.

Petit rappel Wikipédia : « Un fork, ou embranchement, est un nouveau logiciel créé à partir du code source d’un logiciel existant. Cela suppose que les droits accordés par les auteurs le permettent : ils doivent autoriser l’utilisation, la modification et la redistribution du code source. C’est pour cette raison que les forks se produisent facilement dans le domaine des logiciels libres. Les forks sont perçus par certains comme une épée de Damoclès au-dessus des auteurs des projets les moins bons, et aussi comme une méthode pour empêcher l’appropriation d’un projet par un groupe. La « peur de l’embranchement » est un des mécanismes essentiels de régulation et de sélection des projets libres. »[1]

Vous êtes un développeur d’un logiciel libre non satisfait de la manière dont évolue le projet ? Vous avez donc cette possibilité essentielle que constitue le fork. Mais il y parfois un gouffre entre la théorie et la pratique, car il n’est pas simple de reconstituer une communauté active autour du projet dérivé.

C’est pourtant justement ce que vient de réussir l’équipe de LibreOffice, structurée autour de la Document Foundation et qui a décidé de quitter le navire OpenOffice.org suite au rachat de Sun par Oracle. Ce dernier ayant refusé de rejoindre le projet et de céder la marque OpenOffice.org (qu’il continuera de développer par ailleurs), c’est donc désormais LibreOffice (ou LibO) qui sera l’un des fers de lance du logiciel libre grand public aux côtés de Firefox ou GNU/Linux.

LibreOffice 3.3 : les véritables enjeux

The Deeper Significance of LibreOffice 3.3

Glyn Moody – 28 janvier 2011 – ComputerWolrd.uk
(Traduction Framalang : Yonel et Don Rico)

Sur le blog RedMonk, James Governor a publié un billet amusant à propos des forks, suite à l’arrivée imminente d’une mise à jour majeure d’Android, la 3.0, dont le nom de code est « Honeycomb », et laquelle a été conçue en pensant aux tablettes :

Ainsi que le voudrait la sagesse populaire, les développeurs ne devraient pas s’attaquer à des environnements multiples. Ben voyons… le genre de sagesse qui nous a valu une décennie où il n’y en a eu que pour Java, et une vingtaine d’années pendant lesquelles dès qu’il y fallait choisir une architecture on collait du Oracle partout. Avouons que pour l’instant, Android est vraiment pas mal sur les téléphones. J’aime beaucoup mon HTC Desire. J’ai aussi la chance de pouvoir faire joujou avec un Dell Streak qu’on m’a prêté ; encore un bon petit appareil, qui fait bien son boulot pour m’accompagner devant la télé. Mais Android n’a pas été conçu pour un format plus grand, comme l’iPad 10 pouces d’Apple, du moins dans ses premières versions.

Et comme il le fait remarquer :

Tous les éditeurs de logiciels doivent gérer des codebases multiples, en particulier pour les progiciels. Si une entreprise doit gérer les deux codebases, est-ce vraiment un fork ?

Je dirais qu’il s’agit plus de fragmentation, et qu’on en voit partout – dans Android lui-même, dans Windows, admettons, et dans le monde de GNU/Linux à travers les centaines de distributions, chacune avec des versions et des configurations différentes. Rien de bien nouveau.

Les vrais forks ne courent pas les rues, précisément à cause des différences entre le fork et la fragmentation. Cette dernière peut être gênante ou pas, mais elle est rarement aussi douloureuse qu’un fork peut l’être. En général, les forks déchirent les communautés et forcent les programmeurs à choisir leur camp.

C’est ce qui rend l’apparition de LibreOffice si intéressante : c’est un vrai fork, avec des décisions réelles et douloureuses que doivent prendre les codeurs – où vont-ils ? Et à la différence de la fragmentation, qui souvent se produit naturellement et perdure pour un tas de raisons en grande partie banales, les forks exigent beaucoup de travail pour survivre. Résultat, de nombreux forks échouent, car il est souvent plus facile de rester ou de revenir au projet d’origine, plutôt que de se battre pour en installer et en faire grandir un nouveau.

Dans ce contexte, la publication récente de LibreOffice 3.3 est un jalon important, au moins pour ce qu’elle a déjà réussi :

La Document Foundation présente LibreOffice 3.3, la première version stable de la suite bureautique libre développée par la communauté. En moins de quatre mois, le nombre de développeurs codant LibreOffice est passé de moins de vingt à la fin septembre 2010, à largement plus d’une centaine aujourd’hui. Cela nous a permis de publier en avance par rapport au calendrier audacieux fixé par le projet.

À l’évidence, attirer les développeurs est une épreuve cruciale pour le potentiel de survie du fork, et même de son épanouissement. D’autres points importants :

La communauté des développeurs a pu bâtir ses propres méthodes en toute indépendance, et devenir opérationnelle en très peu de temps (eu égard à la taille du codebase et aux grandes ambitions du projet).

Grâce au grand nombre de nouveaux contributeurs qui ont été attirés par ce projet, le code source est vite soumis à un nettoyage d’ampleur, pour offrir une meilleure base aux développements de LibreOffice à venir.

C’est-à-dire que LibreOffice n’en est plus au stade de vague projet, ou à celui des étapes pénibles comme définir l’infrastructure qui permettra au projet d’avancer. La signification de cette réussite va au-delà du fait que la Fondation propose aux utilisateurs une alternative libre à OpenOffice (qui vient également de sortir sa dernière version). La possibilité de choix étant au coeur du logiciel libre, c’est donc certainement une bonne nouvelle, surtout à cause de la politique de copyright de LibreOffice, que j’ai déjà évoquée.

Mais je pense que LibreOffice a une importance supplémentaire parce qu’il représente une attaque délibérée contre la façon dont Oracle traite son catalogue open-source. Hélas, le mécontentement qui a poussé à cette scission va bien plus loin que le seul domaine des suites bureautiques.

L’attitude d’Oracle envers la communauté open-source semble empirer, c’est de plus en plus évident. Marc Fleury le résume bien dans ce billet révélateur. Fondateur de Jboss, et l’un des vrais innovateurs en termes de modèles économiques reposant sur l’open-source, il sait certainement de quoi il parle quand il s’agit de diriger des codeurs open-source dans un contexte professionnel, ce qui rend des commentaires comme celui-ci particulièrement significatifs – et inquiétants pour Oracle :

Il y a d’abord eu le fiasco OpenOffice/Libre Office, où OpenOffice a été forké dans la plus grande partie par sa propre communauté. Puis il y a eu le caprice d’Apache concernant Java/JCP, quand le groupe a bruyamment quitté le JCP (NdT : Java Community Process) après des prises de bec sur les licences open-source de la JVM (Harmony). Et en ce moment, il y a d’autres bisbilles, dont une au sujet de NetBeans. Mais celle qui me concerne le plus (ainsi que mon porte-monnaie), cela concerne un projet mené par un employé de Cloudbees.

Si je comprends bien la situation, le principal développeur était employé par Sun quand il a initié Hudson. Oracle revendique donc l’identité et la marque, ce qui en toute franchise est aberrant, puisque la licence est open-source et que les gars de Cloudbees peuvent poursuivre leur travail sans entrave. Reste donc une dernière étape : la création d’un fork du projet. Et voilà… une grande partie de la communauté open-source dit merde à Oracle.

Ce que LibreOffice montre (jusqu’ici, en tout cas) c’est que dans ces circonstances, il y a bien une vie après Oracle, que les gens se regrouperont dans un fork au lieu de l’éviter, et que le travail alors fourni amène des améliorations non négligeables. Il est vrai que cet argument ne s’appuie que sur un seul exemple, et il faudrait être un expert bien téméraire pour essayer d’en extrapoler quoi que ce soit. Mais cela reste une source d’inspiration importante et tentante pour les codeurs contrariés qui grognent sous le joug d’Oracle. Après tout, comme le met en évidence le nom de LibreOffice, il ne s’agit pas que de code. Il s’agit aussi de liberté.

Notes

[1] Crédit photo : Terry Ross (Creative Commons By-Sa)




Les partisans de l’ouverture participent-ils d’un maoïsme numérique ?

Luca Vanzella - CC by-saOpen, open, open ! les partisans de l’ouverture n’auraient, d’après Jason Lanier[1], que ce mot à la bouche, qu’ils s’appellent WikiLeaks, hackers, logiciels libres ou Wikipédia.

En plus, vous savez quoi ? Cette ouverture signifie la mort de la vie privée, la qualité nivelée par les masses, l’innovation en hibernation et une économie confisquée par une minorité. Ce que Jason Lanier résume par l’expression pas forcément très heureuse de « maoïsme numérique ».

Il n’en fallait pas plus que pour notre ami Glyn Moody, souvent traduit ici, ne réagisse !

La parole est à la défense des hackers et de l’Open Source

Glyn Moody – 18 janvier 2011 – The H Open Source
(Traduction Framalang : Olivier Rosseler)

In defence of hackers and open source

À mes yeux, l’avènement de WikiLeaks est un évènement marquant car il apporte un nouvel éclairage sur de nombreux domaines, pas forcément ceux auxquels on pense, parmi ceux-ci : l’éthique des hackers et le monde de l’Open Source.

Jaron Lanier s’y est intéressé récemment dans un article amusant, mais il reste dubitatif. Si vous ne connaissez pas ses hauts faits d’armes, voilà ce que l’autre Wiki, Wikipédia, dit de lui :

Jaron Zepel Lanier (né le 3 mai 1960) est un informaticien américain, compositeur, artiste graphique et essayiste. Il est l’auteur d’un film expérimental, mais ne se considère pas comme un producteur. Au début des années 80, il est l’un des pionniers de ce qu’il contribuera à faire connaître sous le terme de « Réalité Virtuelle ». Il fonda à l’époque la société VPL Research, la première entreprise à commercialiser des produits de réalité virtuelle. Actuellement, il est entre autres, professeur honoraire à l’université de Berkeley, Californie. Il figure dans la liste des 100 personnes les plus influentes du magazine Time de 2010.

Le titre de son essai est « Les dangers de la suprématie des nerds : Le cas de WikiLeaks » (NdT : nerd, qu’on aurait pu traduire par polard ou intello), ce qui vous donne une idée de son point de vue sur les hackers et l’Open Source. Je pense qu’il se trompe dans son argumentaire contre WikiLeaks, comme je l’ai déjà évoqué, mais je me concentrerai ici sur les prises de position contre les hackers et l’ouverture qu’il distille au passage.

Point de départ de sa critique : une rencontre de la plus haute importance qui aurait, selon ses dires, mené à la création de WikiLeaks.

Le nid qui vit éclore WikiLeaks est un forum organisé par John Gilmore, l’un des fondateurs de l’Electronic Frontier Foundation. J’aurais d’ailleurs pu moi-même devenir l’un des fondateurs de l’EFF. J’étais présent quand tout a commencé, lors d’un repas à San Francisco, dans le quartier de Mission, avec John, John Perry Barlow et Mitch Kapor. C’est un pressentiment qui m’a empêché de suivre les autres dans la création de l’EFF, le pressentiment que quelque chose clochait.

Il poursuit :

Le chiffrement les obsédait, le Graal qui rendrait les hackers aussi puissants que les gouvernements, et ça me posait un problème. Les têtes enflaient : Nous, hackers, pouvions changer le cours de l’Histoire. Mais si l’Histoire nous a appris quelque chose, c’est bien que la quête du pouvoir ne change pas le monde. Vous devez vous changer vous-même en même temps que vous changez le monde. La désobéissance civile est avant tout une question de discipline spirituelle.

Mais c’est là, je pense, que son argumentation est fausse : les hackers ne sont pas en « quête de pouvoir ». Les actions qu’ils entreprennent leur confèrent peut-être un certain pouvoir, mais ce n’est qu’un effet secondaire. Par définition, les hackers hackent car ils aiment hacker : c’est l’équivalent au XXIe siècle de « l’art pour l’art ». Je concède que Richard Stallman et ses sympathisants ajoutent une dimension hautement morale au hack : apporter la liberté aux peuples. Mais, je le répète, ils ne sont pas en « quête de pouvoir » : ils veulent le donner, pas le prendre.

Vers la fin de son article, Lanier écrit :

J’ai toujours pensé qu’un monde ouvert favoriserait l’honnête et le juste et dé-crédibiliserait le magouilleur et l’arnaqueur. Appliquée avec modération, cette idée est attrayante, mais si le concept de vie privée venait à disparaître, les gens deviendraient d’abord sans intérêt, puis incompétents et ils finiraient eux-mêmes par disparaître. Derrière cette idée d’ouverture radicale se cache une allégeance de l’Homme aux machines.

Là encore il nous sert une hypothèse sans fondement : « si le concept de vie privée venait à disparaître ». Il ne me semble pas que beaucoup de hackers aient appelé à la «disparition du concept de vie privée » (aucun nom ne me vient à l’esprit d’ailleurs). Il y a confusion entre « ouverture » et « absence de vie privée » alors que ce sont deux choses bien distinctes (bien que l’ouverture ait certainement des implications sur la vie privée, mais de là à définir le premier par l’absence du second, il y a un grand pas).

Cette tendance à créer des épouvantails et à passer allégrement dans le hors-sujet est récurrente chez Lanier. Sa précédente diatribe sur tout ce qui est ouvert, « Maoïsme numérique » en est un bon exemple. Voilà le passage consacré à l’Open Source :

Il faut que je m’accorde une parenthèse sur Linux et les projets similaires. Qu’ils soient « libres » ou « Open Source », ces logiciels ne sont pas, à bien des égards, comme Wikipédia, à vouloir agréger tous les contenus. Les programmeurs de Linux ne sont pas anonymes, au contraire, la reconnaissance personnelle fait partie de leurs motivations, c’est ce qui fait avancer de tels projets. Mais des points communs existent, comme l’absence d’opinion représentative ou de sens du design (au sens esthétique du terme), ce sont des défauts que partagent les logiciels Open Source et Wikipédia.

Ces mouvements excellent dans la création de tout ce qui est infrastructure cachée, comme les serveurs Web. Mais ils sont incapables de créer des interfaces utilisateurs léchées ou d’améliorer l’expérience utilisateur. Si le code de l’interface utilisateur de Wikipédia était aussi ouvert que ses articles, vous pouvez être sûr que ça deviendrait rapidement un bourbier inextricable. L’intelligence collective parvient avec brio à résoudre des problèmes qui peuvent être évalués sur des critères objectifs, mais elle n’est pas adaptée ici lorsque les goûts et les couleurs comptent.

Il a raison, c’est simplement une question de critères. Pour le code source, de nombreux critères objectifs existent, vitesse, poids, portabilité, etc. Mais pour ce qui est d’imaginer une interface, tout est très subjectif, difficile donc de s’assurer que les choses évoluent dans le bon sens à chaque transformation. Mais ce n’est pas l’« ouverture » ou le « collectif » qui posent problème ici : les projets extrêmement centralisés rencontrent les mêmes difficultés pour mesurer les « progrès » dans les domaines très subjectifs, alors que pour eux aussi, les questions plus objectives sont plus simples à résoudre.

Il semblerait que Lanier s’en prend une nouvelle fois à l’« ouverture » dans son dernier livre You Are Not a Gadget (NdT : Vous n’êtes pas un gadget). Je dis « il semblerait », car je ne l’ai pas lu : il y a bien d’autres livres que j’aimerais commencer avant, surtout si je me fie à ce résumé (et d’après ses autres écrits, je peux) :

Dans son ouvrage paru en 2010 (You Are Not A Gadget), Lanier critique l’« esprit de ruche » et compare l’Open Source et l’expropriation de la production intellectuelle orchestrée par les contenus ouverts à une forme de maoïsme numérique. Il trouve qu’ils ont ralenti le développement de l’informatique et l’innovation musicale. Il s’en prend à quelques icônes sacrées telles que Wikipédia et Linux dans son manifeste, Wikipédia pour la toute-puissance des auteurs et éditeurs anonymes qui font régner leur loi, pour la faiblesse de son contenu non-scientifique et pour l’accueil brutal réservé aux personnes qui ont effectivement une expertise dans leur domaine. Il affirme également que certains aspects de l’« Open Source » et de l’« Open Content » possèdent leurs limitations et qu’au fond ils ne créent rien de vraiment neuf ou innovant. Il poursuit en disant que ces approches ont retiré aux classes moyennes des opportunités de financer la création et ont concentré la richesse dans les mains de ceux qu’il nomme les « dieux dans les nuages » : ceux qui, plutôt que d’innover deviennent des intermédiaires, des concentrateurs de contenus, présents au bon endroit au bon moment, dans les « nuages ».

Le fait qu’il ressorte ce bon vieux troll montre que ses arguments sont usés jusqu’à la corde, a-t-il seulement entendu parler de ce truc qu’on appelle Internet, dont la création repose entièrement sur des protocoles et du code ouvert ?

De même, l’idée que le financement de la création de contenu par la classe moyenne est moins probable nie le fait que les gens créent plus de contenu que jamais, gratuitement, pour l’amour de la création, vous voyez on retrouve « l’art pour l’art ». Je vous accorde que ce ne sont pas que des chefs-d’œuvre, mais bon, cela a toujours été le cas, non ? La grande majorité des créations ont toujours été médiocres. Par contre, maintenant on s’en rend mieux compte car nous jouissons d’un accès sans précédent à la création. C’est cette richesse, cette variété dans l’abondance que Lanier semble ne pas apprécier lorsqu’il écrit :

L’idéologie qui pousse une bonne partie du monde connecté, pas seulement WikiLeaks, mais aussi des sites très visités comme Facebook par exemple, est que l’information en suffisamment grande quantité devient automatiquement une Vérité. Cela implique pour les extrémistes qu’Internet est en train de devenir une nouvelle forme de vie, singulière, mondiale, supérieure, post-humaine. Pour les sympathisants plus modérés, si l’information est vérité et que la vérité vous rend libre, alors enrichir l’Internet de plus d’informations rend automatiquement les gens plus libres et le monde meilleur.

Pour les hackers, ce n’est pas tant la quantité qui compte, mais plutôt la qualité, c’est ce qui fait la force des logiciels libres. L’ouverture a simplement pour but d’encourager les gens à s’appuyer sur l’existant pour améliorer les choses, pas juste pour amasser des lignes de code. De plus, la culture hacker valorise fortement les échanges interpersonnels. Le don et la collaboration sont des éléments clés de la méthodologie Open Source. Ça fonctionne car l’un des piliers de la culture hacker est l’attribution : ne pas indiquer que l’on s’appuie sur le travail d’autres personnes est une bévue monumentale. C’est une bonne protection contre les personnes mal intentionnées qui voudraient siphonner la bonne volonté de la communauté.

Au fond, Lanier devrait plutôt louer les hackers et l’Open Source, puisqu’ils partagent son désire d’allégeance aux Hommes plutôt qu’aux machines. Quel dommage qu’une personne de sa qualité ne s’en rende pas compte.

Notes

[1] Crédit photo : Luca Vanzella (Creative Commons By-Sa)




2011 : année Mozilla Firefox ou année Google Chrome ?

Laihiu - CC byEn mai dernier, nous publiions un billet au titre ravageur : Google Chrome m’a tuer ou le probable déclin de Firefox si nous n’y faisons rien.

De nouveaux chiffres sont arrivés depuis dans le monde des navigateurs. Et si l’on peut légitimement faire la fête et se réjouir de voir Firefox dépasser aujourd’hui Internet Explorer en Europe, on constate comme prévu qu’un nouvel invité est arrivé et qu’il est particulièrement glouton.

Entre les deux, le coeur de Glyn Moody ne balance pas et il sait, tout comme nous, où placer sa confiance. Encore faudrait-il que, techniquement parlant, Firefox ne se laisse pas trop distancer et c’est aussi pourquoi la sortie de la version 4 est tant attendue[1].

2011 : L’année de Firefox ou de Chrome ?

2011: The Year of Firefox – or of Chrome?

Glyn Moody – 4 janvier 2011 – ComputerWorld
(Traduction Framalang : Penguin et Barbidule)

Tout le monde sait qu’il y a les mensonges, les mensonges énormes et les statistiques concernant le Web. Mais ces dernières peuvent néanmoins vous donner une vague idée de la situation. C’est le cas des récents chiffres sur les parts de marché des navigateurs en Europe.

L’événement principal est immédiatement manifeste : comme le graphique le montre, la part de marché de Firefox a dépassé celle d’Internet Explorer, avec 38,11% contre 37,52% (même si les deux dernières décimales ne m’inspirent qu’une confiance limitée voire nulle).

Maintenant, il est vrai qu’il s’agit uniquement de l’Europe, qui a toujours été pionnière dans ce domaine, mais il faut tout de même savourer l’instant. Après tout, lorsque Mozilla puis Firefox furent lancés, peu leur donnaient des chances de réussir à renverser le géant Microsoft. Il n’y avait tout simplement pas de précédent pour un courageux nouvel arrivant, et encore moins un arrivant open source, de partir de zéro et d’arriver à supplanter une entreprise qui semblait inarrêtable sur ses marchés clés. Il est vrai qu’au niveau du serveur, Apache est devant Internet Information Server de Microsoft, mais Apache était arrivé en premier, et était donc celui à battre : la situation du côté du client était très différente.

Évidemment, ce n’est pas la seule chose que nous dit ce graphique. Firefox a en fait légèrement régressé l’année dernière, c’est surtout qu’Internet Explorer a reculé encore plus. Et cette baisse a presque entièrement bénéficié à Google Chrome, dont la part de marché est passée de 5,06% à 14,58% pendant cette période.

C’est vraiment étonnant à tout point de vue, et cela confirme l’ascension de Chrome au Panthéon des navigateurs. La question est évidemment de savoir si cette ascension vertigineuse va se poursuivre, et ce qui va arriver aux autres navigateurs.

Naturellement, cela dépendra beaucoup des fonctionnalités qu’auront les nouvelles versions de Firefox, et dans une moindre mesure, d’Internet Explorer, mais je ne vois pas de raisons qui empêcheraient Chrome de s’élever au-dessus des 20% à court terme. Cela veut dire bien entendu que les parts de marché de Firefox et d’Internet Explorer vont continuer à baisser. Mais comme je le notais il y a quelque temps, ce n’est pas vraiment un gros problème pour Firefox, alors que ça l’est pour Microsoft.

La raison est assez simple : Firefox n´a jamais eu pour objectif la domination du monde, il combattait pour créer un Web ouvert, où aucun navigateur n’occuperait une position dominante d’où il pourrait ignorer les standards ouverts et imposer à la place des standards de facto. C’est plus ou moins la situation actuelle, désormais, Internet Explorer devenant de plus en plus conforme aux standards, et, de façon étonnante, l’affichant avec fierté.

Avec l’ascension continue de Chrome jusqu’au point où les trois navigateurs auront plus ou moins la même part de marché, nous aurons une situation parfaite pour une compétition amicale à trois, ce qui est même mieux qu’une simple rivalité à deux. Je suis presque sûr que le Web va devenir de plus en plus ouvert grâce à cela (c’est dommage qu’il reste menacé par d’autres actions : ACTA, censure, etc.).

Mais cela ne veut pas dire que Firefox et Chrome ont les mêmes buts, et qu’il ne faut pas s’inquiéter des parts de marché de Firefox. Il est important de se rappeler pourquoi Google a créé Chrome, et pourquoi il a libéré le code. C’est simplement parce qu’il sait que libérer le code, et permettre à d’autres de construire par dessus, est le moyen le plus rapide de donner une place à un produit dans un marché concurrentiel. En faisant cela, il est vrai que Google promeut les standards ouverts et l’open source, mais seulement jusqu’à un certain point.

La différence principale est que Google voit l’open source comme un moyen de générer davantage de revenus, alors que Firefox voit les revenus générés par la barre de recherche comme un moyen de favoriser son travail de protection et d’amélioration d’un Web ouvert. Entre les deux, je sais où je préfère placer ma confiance pour l’avenir.

Notes

[1] Crédit photo : Laihiu (Creative Commons By)