La nouvelle version 2 de la Mozilla Public License tend vers l’unité

Le 3 janvier dernier la Fondation Mozilla annonçait la sortie officielle de la version 2 de la Mozilla Public License.

C’est un évènement à saluer comme il se doit car cette nouvelle version rapproche les deux grandes familles de licences libres logicielles que sont les copyleft (comme la GPL) et les licences dites permissives (comme la BSD ou la MIT).

Pour résumer, on pourrait dire que la différence entre une licence libre avec copyleft et une licence libre qui en serait dépourvue, les premières forcent le code dérivé à rester libre alors que les secondes autorisent le code dérivé à être intégré à un produit fermé, non libre[1].

Tristan Nitot - CC by-nc-sa

Mozilla peut-elle apporter l’unité à l’open source ?

Can Mozilla Unify Open Source?

Simon Phipps – 6 janvier 2012 – ComputerWorld.uk
(Traduction Framalang : Don Rico e_Jim et Goofy)

La nouvelle licence open source de Mozilla est bien plus qu’un simple ravalement de façade. Elle pourrait créer de nouvelles possibilités pour l’unité de la communauté du Libre.

La première semaine de janvier 2012 marque un jalon discret mais important dans le mouvement de l’open source, grâce à la publication d’une deuxième version de la Mozilla Public License (MPLv2) et sa validation en tant que licence libre officielle au sens de l’Open Source Initiative (OSI). Quand bien même beaucoup n’y voient qu’un énième détail juridique, cette publication est importante à deux titres : le procédé par lequel on l’a élaborée, et l’objectif pour lequel on l’a créée. Il s’agit d’une licence qui a pour but l’unité.

Rédaction et révision de cette licence se sont déroulées selon un processus très ouvert, dans lequel Luis Villa a joué un rôle prépondérant. Organisé en majeure partie dans des forums publics, le débat a conduit à de nombreuses modifications du texte. Luis est entré en contact très tôt avec l’OSI, a intégré les retours du groupe de révision des licences, puis obtenu sans mal l’approbation du conseil d’administration.

D’autres articles sur cette nouvelle licence se sont concentrés sur les modifications de la partie « patent peace » (NdT: la paix des brevets) et autres ajustements des clauses (adieu, Netscape !), mais le changement le plus important apporté par la version 2 de la licence Mozilla est à mon sens l’inclusion d’une compatibilité particulière avec la GPL (GNU General Public License). Par le passé, le projet Mozilla jonglait avec un système complexe et peu clair de triple licence afin de composer avec les univers des licences copyleft et non copyleft. De manière générale, les autres utilisateurs de la MPL (et ses nombreux clones rebaptisés) ne prenaient pas cette peine, et par conséquent certains codebases se sont retrouvés exclus de toute collaboration possible avec l’immense univers des logiciels placés sous licence GPL.

Selon un procédé inédit que la Commission européenne a inauguré pour la Licence Publique de l’Union européenne (EUPL), la MPLv2 inclut des clauses permettant à un projet de stipuler, de façon optionnelle et explicite, sa compatibilité avec d’autres licences, en particulier celles de la famille GPL. À mes yeux, la MPLv2 représente une mise à jour d’envergure de la famille précédente des v1.x, justement grâce à cette compatibilité explicite avec la GPL, laquelle offre pour la première fois une passerelle praticable entre les paradigmes permissifs et copyleft. Elle ne satisfera pas les puristes des deux mondes, mais propose avec pragmatisme une nouvelle solution aux projets open source appuyés par des entreprises. Celles-ci pourront disposer d’une communauté qui produit du code sous licence permissive tout en fournissant à cette même communauté un moyen d’entretenir des relations avec d’autres communautés travaillant sur du code sous licence copyleft.

Avec le déclin continu du business model de la double licence (ce que d’aucuns nomment « exceptions commerciales au copyleft »), il devient de plus en plus évident que les licences permissives sont importantes pour les entreprises commerciales qui contribuent à l’open source. De la même façon, l’écosystème GPL ne disparaîtra pas, aussi les conceptions qui reposent sur une opposition idéologique – y compris celles qui prônent l’élimination de tout code sous GPL – sont néfastes pour toutes les entreprises

Je salue l’arrivée de la MPLv2, un pas en avant vers l’unification de la cause commune de nombreux développeurs open source. Bravo, Mozilla !

Notes

[1] Crédit photo : Tristan Nitot (Creative Commons By-Nc-Sa)




Mesures de R. Stallman pour une politique publique de promotion du logiciel libre

La « timidité » des pouvoirs publics vis-à-vis du logiciel libre est quelque chose qui en 2012 défie le bon sens.

Comme d’habitude avec Richard Stallman[1] c’est du sans concession mais je me prends à rêver que tous les candidats aux futures élections approuvent ces mesures et s’engagent en signant en bas de la page…

Au delà de ce crucial sujet de fond, ce billet a deux autres intentions. Rappeler l’existence du site Gnu.org qui accueille entre autres les écrits de Richard Stallman et de la Free Software Foundation et qui réalise un gros travail de traduction. Appeler à participer à la campagne de soutien dont il ne manque plus grand chose pour atteindre l’objectif fixé.

Christian Payne - CC by-nc-sa

Mesures à la portée des gouvernements pour promouvoir le logiciel libre

URL d’origine du document

Richard Stallman – GNU.org – version du 06 janvier 2012
Licence Creative Commons By-Nd

Cet article suggère des mesures pour une politique forte et résolue destinée à promouvoir le logiciel libre au sein de l’État, et à conduire le pays vers la liberté informatique.

La mission de l’État est d’organiser la société avec pour objectif la liberté et le bien-être du peuple. Un aspect de cette mission, dans le domaine informatique, est d’encourager les utilisateurs à adopter le logiciel libre.

L’État a besoin d’exiger le logiciel libre dans sa propre informatique pour garantir sa souveraineté dans ce domaine (c’est-à-dire le contrôle par l’État de son informatique). Les utilisateurs ont un droit légitime au contrôle de leur informatique, mais l’État est responsable envers les citoyens du maintien de son contrôle sur les travaux informatiques qu’il effectue pour eux. La plupart des activités de l’État se font actuellement par ce moyen, et son contrôle de ces activités dépend donc de son contrôle de son informatique. Lorsqu’il s’agit d’une agence dont la mission est cruciale, perdre ce contrôle sape la sécurité nationale.

La migration des organismes étatiques vers le logiciel libre peut fournir des bénéfices supplémentaires qui sont d’induire des économies budgétaires et de dynamiser l’industrie locale de support de logiciel.

Dans ce texte, « organismes étatiques » se réfère à tous les niveaux de gouvernement, et signifie les organismes publics y compris les écoles, les partenariats public-privé, les organismes en grande partie financés par l’État, et les sociétés « privées » contrôlées par l’État ou auxquelles l’État a attribué des privilèges ou des missions particulières.

Le domaine politique le plus important concerne l’éducation, dans la mesure où celle-ci détermine l’avenir d’une nation :

  • Les activités éducatives, du moins celles qui sont assurées par des organismes étatiques, doivent enseigner uniquement les logiciels libres (et donc ne devraient jamais conduire les élèves à utiliser un programme non libre), et devraient enseigner les raisons civiques de promouvoir le logiciel libre. Enseigner un programme non libre revient à enseigner la dépendance, ce qui est contraire à la mission de l’école.

Sont également cruciales les politiques publiques qui ont des conséquences sur le type de logiciel utilisé par les particuliers et par les organisations :

  • Les lois et les pratiques du secteur public doivent être modifiées afin de ne jamais obliger les particuliers ou les organisations à utiliser un programme non libre, ni les y pousser, même indirectement. Elles doivent aussi décourager les pratiques de communication et de publication qui impliquent de telles conséquences, y compris la gestion numérique des restrictions (DRM) EN).
  • Chaque fois qu’un organisme étatique distribue des logiciels au public, y compris des programmes inclus dans ses pages web ou exigés par elles, ces programmes doivent être distribués en tant que logiciels libres, et être aptes à fonctionner dans un environnement 100% libre.
  • Les sites web et les serveurs des organismes étatiques doivent être conçus pour fonctionner parfaitement dans des environnements 100% libres sur l’ordinateur de l’utilisateur.
  • Les organismes étatiques doivent utiliser uniquement les formats de fichier et les protocoles de communication qui sont bien pris en charge par le logiciel libre, et de préférence ceux dont les spécifications ont été publiées. (Nous n’énonçons pas cette règle en termes de « standards » parce qu’elle doit s’appliquer aux interfaces non standardisées aussi bien que standardisées.) Par exemple, ils ne doivent pas distribuer d’enregistrements audio ou vidéo dans des formats qui nécessitent de recourir à Flash ou à des codecs non libres, et les bibliothèques publiques ne doivent pas distribuer d’œuvres munies de dispositifs de gestion numérique des restrictions (DRM).

Plusieurs politiques affectent la souveraineté informatique de l’État. Les organes étatiques doivent exercer le contrôle de leur informatique, et ne pas céder celui-ci aux mains d’entités privées. Ces points s’appliquent à tous leurs ordinateurs, y compris les smartphones.

  • Tous les organismes étatiques doivent migrer vers le logiciel libre, et ne doivent installer ni continuer à utiliser aucun logiciel non libre, sauf exception temporaire. Une seule agence doit être compétente pour accorder ces dérogations temporaires, et seulement lorsque des raisons impérieuses sont démontrées. L’objectif de cette agence devrait être de réduire le nombre de ces exceptions à zéro.
  • Quand un organisme étatique finance le développement d’une solution informatique, le contrat doit exiger que ce soit une solution logicielle libre et capable de fonctionner dans un environnement 100% libre. Tous les contrats doivent l’exiger, de sorte que si les développeurs ne se conforment pas à cette exigence, leur ouvrage ne puisse être payé.
  • Quand un organisme étatique achète ou loue des ordinateurs, il doit choisir parmi les modèles qui se rapprochent le plus, dans leur catégorie de spécifications et capacités, d’un fonctionnement sans aucun logiciel privateur (non libre). L’État doit maintenir, pour chaque catégorie d’ordinateurs, une liste des modèles acceptables répondant à ce critère. Les modèles disponibles à la fois pour le public et l’État doivent être préférés aux modèles disponibles uniquement pour l’État.
  • L’État se doit de négocier activement avec les fabricants pour favoriser la disponibilité sur le marché (tant pour le public que pour l’État), dans tous les domaines pertinents, de produits matériels hardware appropriés qui ne nécessitent aucun logiciel privateur.
  • L’État devrait inviter d’autres États à négocier collectivement avec les fabricants la fourniture de produits matériels appropriés. Car ensemble ils auront plus de poids.

La souveraineté et la sécurité informatiques d’un État supposent le contrôle de l’État sur les ordinateurs effectuant des tâches de son ressort. Cela exige d’éviter le logiciel en tant que service (SaaS), à moins qu’il ne soit géré par une agence de l’État. (Cependant, pour respecter la séparation des pouvoirs, les travaux informatiques des services relevant respectivement de l’exécutif, du législatif et du judiciaire ne doivent pas être confiés à une agence relevant d’un autre pouvoir.) Plus généralement, cela exige d’éviter toute pratique qui diminuerait le contrôle exercé par l’État sur son informatique.

  • Tout ordinateur utilisé au service de l’État doit avoir été acquis ou loué par une entité relevant du même « pouvoir » (exécutif, législatif ou judiciaire) que l’administration utilisatrice ; aucune entité extérieure à ce pouvoir ne doit avoir le droit de décider qui a accès à l’ordinateur, qui peut en effectuer la maintenance (matérielle ou logicielle), ou quels logiciels doivent y être installés. Si l’ordinateur n’est pas portable, alors il doit être utilisé dans un espace dont l’État est propriétaire ou locataire.

Une autre politique concerne le développement de logiciels libres et non libres :

  • L’État doit encourager les développeurs à créer ou à améliorer le logiciel libre ainsi que tous ceux qui les mettent à disposition du public, par exemple au moyen d’exonérations fiscales ou de toutes autres incitations financières. Au contraire, aucune incitation ne doit être accordée pour le développement, la distribution ou l’utilisation de logiciels non libres.
  • En particulier, les développeurs de logiciels privateurs ne devraient pas être en mesure de « donner » des copies à des écoles et réclamer une déduction d’impôt basée sur la valeur nominale du logiciel. Les logiciels privateurs n’ont nulle légitimité dans les écoles.

Un tel train de mesures doit permettre à l’État de recouvrer le contrôle et la souveraineté de son informatique, ainsi que d’amener les citoyens, les entreprises et les organisations du pays à prendre le contrôle de leur informatique.

Notes

[1] Crédit photo : Christian Payne (Creative Commons By-Nc-Sa)




Blackout de la Wikipédia en anglais pour protester contre SOPA le 18 janvier 2012

« Chers étudiants, faites vos devoirs à la maison avant mercredi car Wikipédia sera coupé du Net ce jour-là ». Tel est le tweet ironique envoyé par Jimmy Wales pour annoncer la fermeture totale de la version anglophone de Wikipédia demain, mercredi 18 janvier 2012, pour protester contre les mortifères lois SOPA et PIPA.

Ce n’est évidemment pas lui seul qui a pris cette grave et sans précédente décision mais l’ensemble de la communauté, comme l’explique le message de la directrice générale de la Wikimedia Foundation Sue Gardner traduit ci-dessous par nos soins.

Signalons que Framasoft se joindra également au mouvement, non seulement en guise de solidarité mais aussi voire surtout parce que nous pensons que ces lois américaines (à l’influence internationale) sont susceptibles d’impacter négativement l’ensemble d’Internet. Nous avions consacré une série d’articles à SOPA en décembre dernier (voir aussi le dossier de La Quadrature).

À priori les wikipédias italiennes et allemandes participeront également, ne serait-ce que par un bandeau informatif, mais pas la francophone. Il semblerait que la communauté se soit réveillée trop tard pour en discuter, que pour certains ces lois sont lointaines et cet engagement « politique » en désaccord avec « le principe de neutralité ».

C’est respectable mais pour ainsi dire dommage car il s’agit là d’un signal fort (et une bonne manière de sensibiliser d’un coup un grand nombre de personnes), sans oublier pragmatiquement que la majorité des serveurs sont aux USA et que ces lois peuvent brutalement couper les accès de la Wikipédia francophone aux Américains.

Wikipédia Blackout

Blackout anti SOPA de la Wikipedia en anglais le 18 janvier

English Wikipedia anti-SOPA blackout

Sue Gardner, 16 janvier 2012 – Wikimedia Foundation
(Traduction Framalang : Clochix, Poupoul2, DonRico)

Aujourd’hui, la communauté Wikipedia a décidé de fermer la version anglophone de Wikipedia pour vingt-quatre heures, dans le monde entier, à partir de 5h UTC le mercredi 18 janvier. Cette fermeture est un acte de protestation contre deux propositions de loi aux USA – le Stop Online Piracy Act (SOPA) présentée à la Chambre des représentants, et le PROTECTIP Act (PIPA) au Sénat – qui, si elles étaient votées, endommageraient gravement l’Internet libre et ouvert, dont Wikipedia.

Ce sera la première fois que la Wikipedia anglophone manifestera ainsi, et cette décision n’a pas été prise à la légère. Voici comment la présentent les trois administrateurs de Wikipedia qui ont animé la discussion de la communauté, au travers d’un extrait de la déclaration publique signée par NuclearWarfare, Risker et billinghurst :

La communauté de la Wikipedia anglophone estime que ces deux lois, si elles étaient votées, seraient dévastatrices pour le Web libre et ouvert.

Au cours des dernières soixante-douze heures, plus de 1.800 Wikipédiens ont participé à une discussion visant à définir les actions que la communauté pourrait vouloir entreprendre contre SOPA et PIPA. C’est de loin le plus fort niveau de participation à un débat jamais vu sur Wikipedia, et cela illustre combien les Wikipédiens se sentent concernés par ces propositions de lois. L’écrasante majorité des participants est favorable à une action de la communauté afin d”encourager une participation plus générale de la population contre ces deux lois. Parmi les propositions étudiées par les Wikipédiens, ce sont celles qui conduiraient à un « blackout » de la Wikipedia anglophone, conjointement avec des blackout similaires d’autres sites opposés à SOPA et PIPA, qui ont reçu le plus de soutien.

Après un passage en revue détaillé de ce débat, les administrateurs chargés de le clore constatent un soutien solide des Wikipédiens du monde entier, et pas seulement aux États-Unis, en faveur d’une action. L’opposition principale à un blackout généralisé du réseau Wikipedia venait de membres de la communauté préférant que le blackout se limite aux visiteurs américains, et que le reste du monde ne voie s’afficher qu’un simple bandeau d’explication. Nous avons néanmoins relevé qu’environ 55% des Wikipédiens en faveur du blackout préféraient une action mondiale, nombre d’entre eux faisant part d’inquiétudes concernant des lois similaires dans d’autres pays.

En prenant cette décision, les Wikipédiens essuieront des critiques pour avoir abandonné leur neutralité et pris un position politique. C’est une question justifiée et légitime. Nous souhaitons que les internautes accordent leur confiance à Wikipedia, et ne craignent pas d’être soumis à une quelconque propagande.

Mais bien que les articles de Wikipedia soient neutres, son existence ne l’est pas. Comme l’a écrit récemment Kat Walsh, qui appartient au conseil d’administration de la Wikimedia Foundation, sur une de nos listes de discussion :

Nous dépendons d’une infrastructure légale qui nous permet de publier nos sites. Et nous dépendons d’une infrastructure légale qui permet aussi à d’autres sites d’héberger du contenu produit par les utilisateurs, qu’il s’agisse d’information ou d’avis personnels. Le rôle principal des projets Wikimedia consiste à organiser et rassembler le savoir mondial. Nous l’intégrons dans son contexte et permettons à nos visiteurs de le comprendre.

Mais ce savoir doit être publié à un endroit où tout un chacun peut y accéder et l’utiliser. Si ce contenu pouvait être censuré sans autre forme de procès, cela serait néfaste pour qui veut exprimer son opinion, pour le public, et pour Wikimedia. Si l’on ne peut s’exprimer que si l’on a les moyens d’affronter des défis juridiques, ou si une opinion doit être approuvée au préalable par quelqu’un qui les a, on ne trouvera plus sur internet qu’un même ensemble d’idées consensuelles.

La décision d’éteindre la Wikipedia anglophone ne vient pas que de moi – elle a été prise collégialement par de nombreux éditeurs du réseau. Et je la soutiens.

Comme Kat et le reste du conseil d’administration de la Fondation Wikimedia, je considère de plus en plus la voix publique de Wikipedia et la bonne volonté que les gens ont pour Wikipedia comme une ressource qui doit être utilisée pour le bénéfice du public. Les lecteurs font confiance à Wikipedia parce qu’ils savent que malgré ses erreurs, Wikipedia a le cœur au bon endroit. Wikipedia n’a pas pour but de monétiser leurs visites ou de leur faire croire quoi que ce soit de particulier, ni même de leur vendre un produit. Wikipedia n’a pas de programme secret : elle veut seulement être utile.

C’est moins vrai pour d’autres sites. La plupart ont des motivations commerciales : leur objectif est de gagner de l’argent. Cela ne signifie pas qu’ils n’ont pas le souhait de rendre le monde meilleur (beaucoup le font), mais que leurs positions et leurs actions doivent être envisagés dans un contexte d’intérêts contradictoires.

Je nourris l’espoir que, lorsque Wikipedia fermera le 18 janvier, les internautes comprendront que nous le faisons pour nos lecteurs. Nous soutenons le droit de chacun à la liberté d’opinion et à la liberté d’expression. Nous estimons que tout le monde devrait avoir accès à du matériel éducatif pour un large éventail de sujets, même s’ils ne peuvent pas le payer. Nous croyons à un internet libre et ouvert où l’information peut être partagée sans entrave. Nous croyons que des propositions de loi telles que SOPA ou PIPA, ou d’autres lois similaires en cours de discussion à l’intérieur ou à l’extérieur des États-Unis, ne font pas avancer les intérêts du grand public. Vous pourrez prendre connaissance ici d’une liste de très bonnes raisons de vous opposer à SOPA et PIPA, proposée par l’Electronic Frontier Foundation.

Pourquoi une action globale, et pas limitée aux seuls États-Unis ? Et pourquoi maintenant, si certains législateurs américains semblent adopter une tactique de retrait vis à vis de SOPA ?

La réalité, à notre sens, c’est que le Congrès ne renoncera pas à SOPA, et que PIPA est toujours en pleine forme. Qui plus est, SOPA et PIPA ne sont que les indicateurs d’un problème bien plus important. Partout dans le monde, nous observons la mise en place de réglementations destinées à combattre le piratage et à réguler internet d’autres manières, avec pour effet de nuire aux libertés numériques. Notre inquiétude ne se limite pas à SOPA et PIPA, qui ne sont que des éléments du problème. Nous voulons que l’internet demeure libre et ouvert, partout dans le monde, et pour tous.

Le 18 janvier, nous espérons que vous partagerez notre engagement et que vous ferez tout votre possible pour faire entendre votre voix.

Sue Gardner




Stallman avait malheureusement raison depuis le début

Nur Hussein - CC by-saLe cauchemar paranoïaque et apocalyptique d’un geek psychorigide est en passe de devenir réalité.

Trente ans, trente ans que Stallman et la Free Software Foundation répètent inlassablement qu’il est fondamental que ce soit l’homme qui contrôle le logiciel, et donc la machine, et non l’inverse.

Le discours est peut-être radical sur le fond (car il ne souffre d’aucune compromission) et parfois excentrique dans la forme (le personnage Richard Stallman[1]) mais, comme Thom Holwerda ci-dessous, nous sommes de plus en plus nombreux à réaliser sa justesse et sa pertinence au fur et à mesure que le temps passe et les libertés s’amenuisent.

C’est d’ailleurs aussi voire surtout pour cela que nous avions traduit et enrichi avec lui sa biographie où figure en exergue cette citation de Lessig qui, cela dépend de nous, peut tout aussi bien être prémonitoire que tomber dans l’oubli :

« Chaque génération a son philosophe, écrivain ou artiste qui saisit et incarne l’imaginaire du moment. Il arrive que ces philosophes soient reconnus de leur vivant, mais le plus souvent il faut attendre que la patine du temps fasse son effet. Que cette reconnaissance soit immédiate ou différée, une époque est marquée par ces hommes qui expriment leurs idéaux, dans les murmures d’un poème ou dans le grondement d’un mouvement politique. Notre génération a un philosophe. Ce n’est ni un artiste ni un écrivain. C’est un informaticien. »

Remarque : On notera que l’auteur fait référence à une récente et marquante conférence de Cory Doctorow qui affirme l’importance de gagner la guerre actuelle contre le copyright, prélude, ni plus ni moins selon lui, à une future éventuelle guerre totale contre le Net et donc les citoyens. Nous aurons l’occasion d’en reparler car notre fine équipe Framalang a prévu son sous-titrage.

Richard Stallman avait raison depuis le début

Richard Stallman Was Right All Along

Thom Holwerda – 2 janvier 2012 – OSNews.com
(Traduction Framalang : Lolo le 13, Goofy, Slystone, e-Jim, Pandark et Clochix)

À la fin de l’année dernière, le président Obama a signé une loi qui permet de maintenir indéfiniment en détention des gens soupçonnés de terrorisme sans la moindre forme de procès ou de jugement en bonne et due forme. Les manifestants pacifiques des mouvements Occupy du monde entier ont été qualifiés de terroristes par les autorités. Des initiatives comme SOPA promeuvent une surveillance constante de tous les canaux de communication.

Il y a trente ans, lorsque Richard Stallman a lancé le projet GNU, et pendant les trois décennies qui ont suivi, ses vues radicales et parfois extrêmes ont été raillées et méprisées comme étant de la paranoïa — mais nous y voici, en 2012, et ses suppositions paranoïaques sont devenues réalité.

Jusqu’à récemment, il était facile d’écarter Richard Stallman en le qualifiant de fanatique paranoïaque, quelqu’un qui avait depuis longtemps perdu le contact avec la réalité. Une sorte d’éternel hippie des ordinateurs, la personnification parfaite de l’archétype du nerd vivant retiré du monde dans le garage d’une maison. Sa barbe, ses cheveux, sa tenue — dans notre monde d’apparences, il était très facile de l’écarter.

Ses positions ont toujours été extrêmes. Son unique ordinateur est un netbook Lemote Yeelong, car c’est le seul ordinateur qui n’utilise que des logiciels libres — pas de binaires dans le firmware, pas de BIOS propriétaire ; il est complètement libre. Il refuse également de posséder un téléphone portable, car ils sont trop simples à pister. En attendant qu’il existe un téléphone mobile équivalent au Yeelong, Stallman ne veut pas en posséder.

En règle générale, tous les logiciels devraient être libres. Ou, comme le dit la Free Software Foundation :

À mesure que notre société devient plus dépendantes des ordinateurs, les logiciels que nous utilisons sont d’une importance critique pour sécuriser l’avenir d’une société libre. Le logiciel libre permet d’avoir le contrôle de la technologie que nous utilisons dans nos maisons, nos écoles, nos entreprises, là où les ordinateurs travaillent à notre service et au service du bien commun, et non pour des entreprises de logiciels propriétaires ou des gouvernements qui pourraient essayer de restreindre nos libertés et de nous surveiller.

J’ai, moi aussi, ignoré Richard Stallman que je jugeais trop extrême. Le logiciel libre pour combattre les gouvernements qui contrôlent et espionnent ? Des entreprises démoniaques prêtes à prendre le contrôle du monde ? Le logiciel comme outil pour surveiller les canaux de communication privés ? Ok, je suis d’accord, le logiciel libre est important, et je le choisis à chaque fois qu’il implémente les mêmes fonctionnalités que les solutions propriétaires, mais de là à croire et adhérer aux sornettes de Stallman et de la FSF…

Or nous y voici.

Nous sommes au début de 2012 et Obama a signé le NDAA, qui autorise la rétention indéfinie de citoyens américains sans aucune forme de jugement ou de procès, simplement parce qu’ils sont suspectés de terrorisme. Au même moment, nous avons la loi SOPA, qui, si elle passe, mettrait en place un système dans lequel les sites peuvent être débranchés du Web, une fois encore sans la moindre forme de jugement ou de procès, tout en autorisant également la surveillance du trafic Internet. Combinez cela avec la façon dont les autorités ont qualifié de terroristes les mouvements Occupy et vous pouvez voir où cela nous amène.

Au cas où ça vous rappelle la Chine et des régimes totalitaires similaires, vous n’êtes pas le seul. Même l’Association du Cinéma d’Amérique, la MPAA, clame fièrement que ce qui fonctionne en Chine, Syrie, Iran et dans d’autres pays devrait fonctionner aux États-Unis. La Grande Muraille pare-feu de Chine et les systèmes de filtrage similaires sont glorifiés et cités en exemple dans ce qui est supposé être le monde libre.

Le nœud du problème ici est qu’à la différence de jadis, à l’époque où les régimes répressifs avaient besoin de réseaux compliqués de police secrète et d’informateurs pour surveiller les communications, tout ce dont ils ont besoin à présent est de contrôle sur le logiciel et le matériel que nous utilisons. Nos ordinateurs de bureau, nos portables, nos tablettes, nos smartphones, et toutes sortes de terminaux jouent un rôle dans pratiquement toutes nos communications. Vous pensez être à l’abri lorsque vous communiquez en face-à-face ? Réfléchissez-y à deux fois. Comment avez-vous préparé la rencontre ? Au téléphone ? Via le Web ? Et qu’est-ce que vous avez dans votre poche ou votre sac, toujours connecté au réseau ?

C’est contre cela que Stallman nous a mis en garde pendant toutes ces années — et la plupart d’entre nous, moi compris, ne l’ont jamais réellement pris au sérieux. Cependant, à mesure que le monde change, l’importance de la possibilité de vérifier ce que fait le code dans vos terminaux — ou de le faire faire par quelqu’un d’autre si vous n’en avez pas les compétences — devient de plus en plus évidente. Si nous perdons la possibilité de vérifier ce que font nos ordinateurs, nous sommes foutus.

C’est au cœur de ce que croient la Free Software Foundation et Stallman : que le logiciel propriétaire enlève à l’utilisateur le contrôle sur la machine, ce qui peut avoir des conséquences désastreuses, en particulier à présent que nous dépendons des ordinateurs pour à peu près tout ce que nous faisons. Le fait que Stallman l’ait prévu il y a près de trois décennies est remarquable, et donne raison à son activisme.

Et en 2012, nous allons avoir plus que jamais besoin de logiciels libres. Au récent Chaos Computer Congress de Berlin, Cory Doctorow a donné une conférence intitulée La guerre à venir sur l’informatique généraliste (NdT : The Coming War on General Purpose Computation). À cette occasion, Doctorow nous informa que l’ordinateur dont le contrôle complet est accessible à l’utilisateur est perçu comme une menace pour l’ordre établi actuel. La guerre du copyright ? Rien de plus qu’un prélude à la vraie guerre.

« En tant que membre de la génération Walkman, j’ai accepté le fait que j’aurai sûrement bientôt besoin d’implants auditifs, et, bien sûr, il ne s’agira pas de prothèses au sens classique, mais bien d’un ordinateur implanté dans mon corps », explique Doctorow. « Donc, lorsque je rentre dans ma voiture (un ordinateur dans lequel j’insère mon corps) avec mes audioprothèses (un ordinateur que j’insère dans mon corps), je veux être certain que ces technologies n’ont pas été conçues de manière à me cacher des choses, ni à m’empêcher de mettre fin à des processus qu’elles exécutent et qui nuiraient à mes intérêts ».

Et ceci est vraiment le coeur de la problématique. À partir du moment où les ordinateurs s’occupent de choses comme l’audition, la conduite automobile, et bien d’autres choses encore, nous ne pouvons plus nous permettre d’être privés d’accès à leur code. Nous devons avoir un droit de regard sur leur fonctionnement interne et pouvoir comprendre ce qu’ils font, afin de nous assurer que nous ne sommes pas surveillés, filtrés ou manipulés. Il y a peu, j’aurais encore affirmé que tout ceci n’est que pure paranoïa, mais avec tout ce qui se passe ces derniers temps, ce n’est plus de la paranoïa. C’est la réalité.

« À l’avenir, la liberté exigera de nous que nous ayons la capacité de surveiller nos appareils, de leur imposer ce que nous voulons qu’ils fassent, de définir une politique éthique et sensée pour leur utilisation, d’examiner et de pouvoir choisir et mettre fin aux processus qu’ils exécutent, afin qu’ils restent nos fidèles serviteurs, et non des traîtres et des espions à la solde de criminels, de voyous et d’obsédés du contrôle, qu’ils soient individus, États ou multinationales », nous avertit Doctorow, « Nous n’avons pas encore perdu, mais il nous faut gagner la guerre du Copyright afin de garder Internet et nos ordinateurs libres et ouverts. Parce que ces derniers sont les armes des guerres à venir, nous serons incapables de nous battre sans eux. »

Voilà pourquoi vous devriez soutenir Android (pas Google, mais Android), même si vous préférez l’iPhone. Voilà pourquoi vous devriez soutenir Linux, même si vous utilisez Windows. Voilà pourquoi vous devriez soutenir le serveur Web Apache, même si vous utilisez Microsoft IIS. Il va arriver un moment où être libre et ouvert ne sera plus seulement un avantage amusant, mais une nécessité.

Et ce moment approche beaucoup plus rapidement que vous ne le pensez.

Notes

[1] Crédit photo : Nur Hussein (Creative commons By-Sa)




Le changement le plus important dans la courte histoire de Wikipédia ?

Rappelant que le pouvoir de transformation est désormais entre les mains de ceux qui codent, c’est la venue prochaine d’une simple modification technique que The Economist n’hésite pas à qualifier de « changement le plus important dans la courte histoire de Wikipédia ».

Il s’agit de la très attendue amélioration de l’interface d’édition des articles de l’encyclopédie qui passera bientôt en mode WYSIWYG (voir tout de suite ici ce que cela donne en avant-première). L’espoir est alors d’abaisser la barrière à l’entrée pour voir arriver de nouveaux contributeurs, au moment même où l’on constate si ce n’est une érosion tout du moins une stagnation de la participation.

Parce qu’il est vrai que lorsque l’on a la curiosité de pousser pour la première fois le bouton « Modifier » d’un article (et de basculer alors dans un autre monde possible), on se retrouve face à un déroutant mélange de texte et de balises complexes à appréhender. Tellement complexes que certains pouvent abandonner avant même d’avoir pu commencer, laissant alors la place aux seuls téméraires, un peu geeks sur les bords, qui ont eux réussi à franchir l’obstacle.

Mais attention, l’opération comporte aussi ses risques. Un afflux massif de nouveaux contributeurs implique d’être capable de les accueillir comme il se doit et d’être patient et tolérant face aux inévitables erreurs commises lors des premières tentatives. Ce sera un test pour le beau et fameux principe wikipédien qui suppose la bonne foi de tous. La démocratisation n’est évidemment pas synonyme de médiocrité mais elle impactera forcément la situation et la culture de ceux qui étaient là avant.

Un peu comme quand Ubuntu a débarqué sans crier gare dans le monde tranquille des distributions GNU/Linux 😉

Wikipédia Visual Editor

Des changements chez Wikipedia – Voir les choses

Changes at Wikipedia – Seeing things

Babbage – 13 décembre 2011 – The Economist
(Traduction Framalang : Lolo le 13, Goofy, Clochix, e-Jim et Martin)

Wikipédia vient tout juste de révéler la première version de sa nouvelle interface d’édition visuelle. Nous avons vu une avant-première de la nouvelle interface (à tester d’ores et déjà ici) avant qu’elle ne soit mise en ligne et ce ne sera pas exagérer que de dire que ce sera le changement le plus important dans la courte histoire de Wikipédia. L’espoir est qu’éditer l’encyclopédie en ligne avec un éditeur visuel deviendra aussi facile qu’écrire sur son blog ou sur Facebook et ne sera plus réservé à une minorité d’initiés seuls capables de comprendre le chinois des balises du code.

Pour le moment, l’éditeur visuel n’est encore qu’un prototype, ou la démo d’une démo, à la seule intention des développeurs et des testeurs pour le permettre d’apporter les dernière améliorations. Les options sont limitées à l’utilisation de listes préformatées et d’insertion de gras, d’italiques et de liens. Il y a aussi un menu déroulant avec une liste des formats des paragraphes (cf image ci-dessus) qui fait oublier le besoin de marquer explicitement les titres par la balise adéquate. Les utilisateurs avancés ont aussi la possibilité de voir les changements qu’ils opérent dans la wikisyntaxe, le HTML ou le JSON (une sorte de JavaScript allégé). Tout ce qui concerne les images et le reste seront inclus dans les versions ultérieures, avant le début de l’intégration officielle dans Wikipédia prévue en juin 2012. Wikipédia affirme que c’est le projet technique le plus stimulant qu’ils aient pu entreprendre.

Le nouvel éditeur s’avère nécessaire pour une simple et bonne raison : le nombre de contributeurs actifs sur la version anglaise est en déclin après avoir atteint son apogée en 2007. En accord avec le plan annuel 2011-2012 de la Wikimedia Foundation (l’organisation qui fait tourner Wikipédia), « le déclin de la participation est de loin le problème le plus sérieux auquel le projet Wikimedia fait face ». L’éditeur visuel est une « solution évidente » qui fait partie d’un projet de développement de nouvelles fonctionnalités soutenu à hauteur d’un million de dollars. C’est un changement qui était prévu depuis longtemps.

La nuit avant qu’ils créent Wikipedia, le 15 juillet 2001, ni Jimmy Wales ni Larry Sanger n’avait entendu parler d’un wiki. Lorsqu’on présenta l’idée à Sanger, il fut impressionné par sa simplicité, et écrivit qu’il s’agissait du format simple et ouvert ULTIME (les majuscules sont de lui). A cette époque, les wikis semblaient révolutionnaires et ils l’étaient effectivement. Ils représentaient un moyen simple d’éditer et mettre directement en ligne des pages Web en s’affranchissant de la connaissance du code HTML. Le balisage était toujours là mais il avait été fortement simplifié et allégé.

Mais c’était il y a longtemps, bien avant que votre grand-mère ne se crée un compte Facebook. Dix ans plus tard, la population connectée s’est élargie au point d’inclure la plupart des êtres humains (du moins, dans les pays industrialisés) et les internautes se sont de plus en plus habitués aux interfaces graphiques et ergonomiques. Aujourd’hui, le langage wiki semble impénétrable pour la majorité d’entre eux, ou à tout le moins faire l’effort de l’apprendre et le maîtriser ne semble pas valoir le coup. « Lors de la création de Wikipédia, tout était difficile sur Internet. Nous n’étions pas plus compliqués que les autres, bien au contraire. Mais aujourd’hui, la plupart des interactions en ligne sont plus faciles que l’édition d’un article d’un wiki, et cela crée une barrière à l’entrée qui n’est bénéfique à personne », explique Sue Gardner, directrice exécutive de la Fondation Wikimédia.

Imaginons que l’édition de pages Web soit un vaste espace ouvert dans lequel vous pouvez vous promener sans restriction de n’importe quelle direction. Alors Facebook est une ligne de tram, confortable et structurée mais restreignant les destinations possibles de ceux qui l’utilisent. Les wikis sont se situe entre les deux : la liberté de se déplacer est potentiellement là mais elle demande un apprentissage et une expérience pour pouvoir en jouir pleinement. Vous pouvez vous les réprésenter comme un réseau de sentiers et des pistes cyclables sur lesquels votre itinéraires dépend des besoins spécifiques de votre voyage. La syntaxe wiki prenait pour acquis que les utilisateurs connaissaient peu ou prou la configuration du terrain. La mise en place d’un éditeur visuel revient alors à distribuer des cartes à l’entrée.

La Fondation espère que cela va amener une nouvelle vague de contributeurs, dont « le succès du projet dépend entièrement ». Attention cependant car ce progrès a ses pièges. La dernière arrivée massive, en 2006-07, n’a pas été forcément bien traitée par les anciens contributeurs, qui n’ont pas pu, su ou voulu gérer cette arrivée soudaine. Incapables d’aider ou d’orienter correctement ces nouveaux éditeurs que Mme Gardner qualifie de « bien intentionnés mais nuls », ils ont érigé des barrières sous la forme de bannières d’avertissement et de réponses automatiques.

Cette fois-ci, la Fondation va faire les choses différemment. Comme pour l’édition des articles, les contributeurs n’auront plus besoin de connaître de codes secrets pour distribuer des « wikilove », ces médailles virtuelles qui félicitent les contributeurs pour la qualité de leur travail. Un nouvel outil rendra également plus simple la distribution d’étoiles et de badges, qui sont un moyen d’encourager les nouvelles recrues. Difficile de prédire si cela sera suffisant. Mais si les choses de déroulent bien, les fameux pionniers, vieux éditeurs grognons de Wikipédia, auront à nouveau du pain sur la planche.




Parce qu’il est important que la belle histoire de Mozilla se poursuive…

Parce qu’il est important que la belle histoire de Mozilla se poursuive, soutenons la Fondation !

—> La vidéo au format webm
—> Le fichier de sous-titres

URL d’origine du document

PS : Si vous avez un lien vers un format plus ouvert de la vidéo, je suis preneur, ainsi que le crédit aux traducteurs.

PS2 : On peut encore grandement améliorer la traduction selon moi, c’est par là…




Le code source du Kindle d’Amazon : Beaucoup de bruit pour rien, hélas !

goXunuReviews - CC byAmazon a publié récemment le code source du système d’exploitation de sa nouvelle tablette liseuse Kindle Fire basée sur Android.

D’aucuns ont salué cette libération et souhaité la bienvenue à Amazon dans le club de l’open source.

D’autres, comme ici la Free Software Foundation de Stallman (ou Numerama), ne sont pas dupes et demandent légitimement d’aller beaucoup plus loin.

Il y a un monde entre respecter les licences et contribuer effectivement à la communauté[1].

Le code source du Kindle d’Amazon : Beaucoup de bruit pour rien

Amazon’s Kindle source code: Much ado about nothing

Brett Smith – 30 novembre 2011 – FSF.org
(Traduction Framalang : Don Rico et Goofy)

Il y a eu cette semaine beaucoup de battage concernant la mise à disposition par Amazon du code source du logiciel de ses Kindle, incluant le Kindle Fire. Cette médiatisation à outrance est en grande partie injustifiée. Certes, on peut télécharger le code source qu’Amazon a été dans l’obligation légale de publier, mais la plupart des logiciels sur ces appareils restent privateurs, et chaque Kindle est encore « Defective by Design » (NdT: Défectueux par conception).

La principale source de confusion serait que le système d’exploitation du Kindle Fire est basé sur Android. Google distribue le code source d’Android sous licence Apache, une licence de logiciel libre qui n’est pas copyleft. En général, les appareils tournant sous Android comprennent aussi quelques logiciels non-libres, mais le code source suffit à créer un système d’exploitation libre et riche en fonctionnalités. Le projet Replicant en est la preuve : il vise à créer des systèmes entièrement libres pour divers appareils Android.

Lorsque Amazon a publié le code source de son Kindle Fire, certains journalistes semblent avoir présumé que l’étendue de cette publication serait similaire à celles de Google. Il n’en est rien – Amazon a seulement publié le code source des programmes placés sous licence GPL (GNU General Public Licence) et LGPL (Lesser General Public License). Ces licences exigent toutes deux d’Amazon qu’elle mette à disposition ce code source, afin qu’elle puisse distribuer les logiciels du Kindle Fire couverts par ces mêmes licences. Amazon s’est contenté de respecter ces obligations légales précises, sans aller plus loin. Aucune ligne du code source publié par Amazon n’est propre à Android, et n’inclut en aucun cas la moindre modification apportée par Amazon à l’interface utilisateur d’Android.

En outre, publier cette quantité minimale de code source ne résout en rien la question des Gestions de Droits Numériques (Digital Restrictions Management / DRM) d’Amazon. Les logiciels privateurs présents sur le Kindle empêchent toujours les utilisateurs de copier et de prêter les livres et les différents médias qu’ils ont pourtant achetés. Il est néanmoins possible que ce code source facilite la tâche de hackers (NdT : bidouilleurs) entreprenants qui souhaiteraient installer de nouveaux logiciels sur ces appareils en se débarrassant des DRM, mais personne ne devrait avoir à fournir des efforts herculéens dans le seul but de jouir des droits que leur aurait conféré un livre imprimé. Le meilleur moyen d’échapper à ces restrictions draconiennes des DRM est de refuser d’acheter un Kindle. Toutes nos critiques passées à l’encontre du Kindle et de son caractère « Défectueux par conception » restent d’actualité.

Si Amazon tient vraiment à faire un coup médiatique, elle devrait abandonner ses DRM et faire en sorte que tous les logiciels présents sur le Kindle soient des logiciels libres. Cela permettrait aux possesseurs de Kindle d’utiliser leur appareil et leurs médias comme bon leur semble. Voilà qui représenterait un véritable changement pour cette entreprise. La publication de code source dont elle s’est fendue n’a rien d’une telle révolution : Amazon ne fait que se conformer à une obligation légale (ce qu’elle fait depuis la première version du Kindle), et cela ne mérite même pas un entrefilet.

Notes

[1] Crédit photo : goXunuReviews (Creative Commons By)




Le logiciel libre perd de son influence, la faute à la FSF de Stallman ?

Steve Winton - CC byVoici un billet un brin polémique qui affirme que le logiciel libre (et non l’open source) perd actuellement de son influence et que la Free Software Foundation de Richard Stallman en porte une lourde responsabilité.

Il est signé du chroniqueur Bruce Byfield que nous avons souvent traduit par le passé et qu’on ne peut soupçonner de troller pour troller. Il s’agit au contraire d’un réel et sincère amour déçu[1].

D’accord, pas d’accord ? Trop américano-centré ? En France, en Europe, il en va différemment ? Le logiciel libre se résume-t-il à la FSF ? etc. Il va sans dire que nous vous attendons dans les commentaires sinon c’est pas drôle 🙂

7 raisons qui expliquent pourquoi le logiciel libre perd de son influence

7 Reasons Why Free Software Is Losing Influence

Bruce Byfield – 22 Novembre 2011 – Datamation
(Traduction Framalang : Goofy)

Pourquoi les idéaux du logiciel libre sont-ils moins populaires qu’il y a cinq ans ? La réponse n’est pas évidente et un peu polémique.

Il y a cinq ans, quand la majeure partie du code Java a été publiée sous licence GPL (General Public License), Sun Microsystems a pris soin d’associer la FSF (Free Software Foundation) à l’annonce, d’obtenir une déclaration d’approbation de Richard Stallman, le président de la FSF, et d’Eben Moglen son conseiller juridique.

Aujourd’hui, on voit mal quelle entreprise serait susceptible de faire le même effort. Lentement mais sûrement, le logiciel libre a perdu l’influence qu’il exerçait au sein de la communauté qu’il a créée.

Pratiquement il est difficile d’employer l’expression FOSS (Free and Open Source Software) en espérant être compris. Dans la plupart des cas, l’expression « logiciel libre », que l’on n’entend pratiquement plus, a été remplacée par « open source ».

Que s’est-il donc passé ?

Je ne dispose pas de chiffres précis à l’appui mais je suggère ici au moins sept raisons possibles. Certaines externes à la FSF, d’autres résultant directement de ses prises de décision. Choix qui ont pu paraître sensés à une époque mais ont eu parfois des effets pervers à long terme, quand ils n’ont pas été effectués trop hâtivement…

1. Trop de bonnes causes, pas assez de ressources

La FSF fonctionne avec une équipe dirigeante de moins d’une douzaine de personnes, et avec des bénévoles. Ses revenus pour 2010 étaient de 1,23 million de dollars. Avec de telles ressources, elle soutient le projet GNU, aide des entreprises et des projets à se conformer aux licences libres, et lance une dizaine de campagnes, depuis la lutte contre les DRM et les initiatives anti-Windows jusqu’aux efforts pour convaincre le plus grand nombre d’utiliser des formats audio libres.

Tous ces efforts sont dignes d’intérêt en eux-mêmes, mais pour rarement mentionnés et relayés, ils ne trouvent que peu d’écho. Mais ce sont là des problèmes bien plus nombreux que ceux qu’a traités la FSF dans le passé, et elle le fait avec à peine quelques centaines de milliers de dollars de plus qu’en 2006, quand ses ressources lui permettent difficilement de mener à bien une seule de ces actions. Par conséquent la FSF finit par se révéler inefficace, et rares sont les campagnes qui captivent l’attention générale au sein de la communauté, plus rares encores celles qui atteignent leur objectif.

2. On ne trouve pas de nouveaux adeptes et on néglige les anciens

Ces cinq dernières années, la FSF s’est efforcée d’investir son activité sur les réseaux sociaux, pour atteindre un plus large public. Le mérite de ces efforts revient essentiellement aux actions du précédent directeur général Peter Brown, parce qu’il a une trajectoire personnelle d’activiste. C’est un pas en avant dont j’ai dit tout le bien que je pensais à l’époque, et je considère encore que c’est une bonne stratégie.

Malheureusement, cette tentative a largement échoué, certainement là encore victime de ressources trop limitées. Par ailleurs il s’agissait dans le mouvement d’établir une distinction entre la FSF et le plus technique projet GNU. J’ai entendu beaucoup de développeurs exprimer leur réticence quant aux positions activistes de la FSF en souhaitant qu’elle recentre ses activités sur le logiciel. Au final la FSF a aggravé son cas : échouant à gagner de nouveaux publics à sa cause, éloignant d’elle ses adeptes déjà existants.

3. Ubuntu a remplacé Debian

Nombreux sont ceux qui ne s’en souviennent plus aujourd’hui, mais il y a cinq ans, la communauté Debian était une référence pour le logiciel libre. Elle n’était pas toujours d’accord avec la FSF, en fait, Debian était réputé pour suivre son propre chemin, imposer sa propre définition du logiciel libre, et se faire un avis autonome sur des questions comme celle de savoir si la licence GNU Free Documentation est vraiment une licence libre (oui, c’est Debian qui décidait après un long débat, dans certaines occasions). Et encore récemment quand la FSF a créé la version 3 de la GPL, elle a pris soin de consulter les représentants de Debian.

Toute aigreur mise à part, en tant que distribution basée sur la communauté la plus répandue, Debian a donné une crédibilité supplémentaire à la reconnaissance du logiciel libre. Tout du moins Debian a-t-elle aidé à donner l’impression d’une communauté suffisamment grande pour avoir des différences. Aujourd’hui, cependant, alors que Debian est une distribution plus influente que jamais, une bonne part de la notoriété dont elle jouissait a été captée par sa dérivée Ubuntu. Et ce n’est pas la faute d’Ubuntu qui, soutenue par une entreprise commerciale qui doit rechercher le profit, n’hésite pas à renoncer à certains principes du logiciel libre par commodité

Avec cet allié et partenaire de la FSF qui devient moins influent, c’est toute la cause du logiciel libre qui s’est affaiblie. À défaut de mieux, la controverse et les débats avec Debian ont aidé à garder présents à l’esprit de la communauté les problèmes de principes.

4. Le défi des nouvelles technologies n’est pas relevé

De nouvelles technologies aient été introduites ces cinq dernières années. Or la stratégie majeure de la FSF a été de les dénoncer, puis de les ignorer. Ces derniers temps, Stallman a ainsi vilipendé l’informatique dans les nuages, les e-books, les téléphones mobiles en général et Android en particulier.

Dans chaque cas, Stallman a souligné à juste titre les problèmes concernant la vie privée et les droits du consommateurs, ce que les autres ont souvent oublié de mentionner. Le problème c’est qu’en continuant d’ignorer ces nouvelles technologies on ne résout rien, et que le mouvement du logiciel libre devient moins pertinent dans la vie des gens. Beaucoup sont attirés par ces nouvelles technologies, et d’autres sont contraints de les utiliser pour échanger, travailler et communiquer avec la majorité.

La licence libre Affero GNU GPL de la FSF devait etre tout indiquée pour l’informatique dans le nuage. Pourtant, selon les statistiques de Black Duck, elle n’est dans le fait que trop rarement utilisée, seulement 401 logiciel sont sous cette licence alors qu’il existe des centaines de milliers de logiciels sous licence libre. En persistant à mettre l’accent sur l’ordinateur de bureau traditionnel, le logiciel libre se tient à distance des technologies actuelles pour lesquelles justement il serait le plus nécessaire.

6. La scission de la licence GPL

En juin 2007, la FSF a publié la version 3 de la GPL. Cette mise à jour s’efforçait de prendre en compte les nouvelles technologies et les moyens de contourner les clauses de la version 2. Cette nouvelle version a été le résultat d’une concertation sans précédent entre la communauté et les entreprises parties prenantes.

Toutefois, cette consultation demandait d’atteindre un consensus. Lorsque Linus Torvalds a décidé que le noyau Linux resterait sous la GPLv2, la FSF est allée de l’avant vers la GPLv3 sans en tenir compte.

Sur le moment, la décision a paru sensée pour éviter une impasse. Mais on se retrouve actuellement avec une GPLv2 utilisée par 42,5% des logiciels libres contre moins de 6,5% pour la GPLv3 selon Black Duck.

Avant cette révision majeure, la licence GPL contribuait à unifier la communauté, et la FSF, en tant que créateur, promoteur et défenseur de la GPL, avait une forte présence en son sein. Or aujourd’hui, la GPLv2 est considérée comme la version que privilégient les supporters de l’open source, et la GPLv3 celle des défenseurs du logiciel libre. Et non seulement l’ensemble de la philosophie du logiciel libre en apparaît affaiblie, mais encore le fossé s’élargit entre logiciel libre et open source.

Plus encore, comme si la situation n’était pas déjà assez mauvaise, il semble qu’il y ait une tendance à adopter des licences permissives qui n’exigent pas le partage du code, comme le font toutes le versions de la GPL.

6. On n’assiste pas aux conférences

Richard Stallman et beaucoup d’autres membres de la FSF refusent de participer à des conférences qui n’utilisent pas l’expression exacte « GNU/Linux » en lieu et place du simple « Linux » dans leur intitulé et leur promotion. En fait Stallman est connu pour refuser de s’exprimer devant un groupe de journalistes qui n’utiliseraient pas la bonne nomenclature, c’est-à-dire la sienne (NdT : cf la librologie Les mots interdits de Richard Stallman).

La principale exception à ma connaissance est Eben Moglen, dont le travail à la Software Freedom Law Center implique beaucoup de gens qui se revendiquent comme des supporters de l’open source.

Je comprends que ce refus soit une question de principe. Cependant, en dépit de tous les moyens de communication qu’offre Internet, le contact et la communication directs demeurent importants pour la communauté. En maintenant coûte que coûte leurs idéaux, les défenseurs du logiciel libre se sont rendus invisibles, se coupant des réseaux sociaux et autres associations informelles qui émergent lorsque les gens se parlent dans la vraie vie.

7. Richard Stallman fait des gaffes

En tant que fondateur et principal porte-parole de la FSF, Richard Stallman a joué un rôle décisif dans l’histoire du logiciel libre. Personne ne peut le contester et personne ne reviendra là-dessus

Mais l’entêtement de Stallman, qui a aidé la diffusion et l’essor des principes du logiciel libre, semble maintenant à beaucoup un handicap. Stallman affiche de façon continuelle son obsession des définitions qui détournent des principaux points pour lesquels la liberté logicielle est nécessaire. De plus, ces temps-ci, il semble ne vouloir jamais rater la moindre occasion de critiquer, pas toujours avec pertinence, la philosophie de l’open source,

Pire encore, Stallman a tout un passé de gaffeur, sans jamais admettre avoir eu tort. En juillet 2009, il a suscité la controverse en refusant de retirer une remarque sexiste qu’il avait faite au Desktop Summit à la Grande Canarie. Plus récemment, Stallman notait à propos de Steve Jobs « je ne suis pas content qu’il soit mort, mais je suis content qu’il soit parti », puis il a précisé son propos quelques semaines plus tard. Le problème ce n’est pas qu’il ait eu tort d’accuser Jobs de rendre populaires des technologies fermées, c’est que beaucoup de gens ont trouvé que ses déclarations étaient indélicates et inopportunes en parlant d’un homme qui venait de mourir, et qu’un responsable d’organisation aurait dû montrer plus de bon sens et ne pas faire de suite de telles remarques.

Stallman est loin de représenter à lui seul l’ensemble du logiciel libre, mais force est de constater que beaucoup de gens ont une mauvaise opinion de ce mouvement à cause de lui.

Renverser la vapeur

Aucune des raisons mentionnées ci-dessus ici n’est fatale en elle-même. Cependant, additionnées, elles forment une longue trame sur laquelle on peut expliquer pourquoi les idéaux de la FSF et des logiciels libres exercent moins d’influence qu’auparavant.

En tant que supporter du logiciel libre, je ne peux qu’espérer que ce manque d’influence pourra être renversé. Cinq ans c’est court, et je ne vois aucune raison qui pourrait empêcher le logiciel libre de récupérer le temps et le terrain perdus.

Le seul problème est de savoir si les membres influents du logiciel libre vont admettre les problèmes et les corriger… Je l’espère, mais je ne suis pas très optimiste quant à la réponse.

Notes

[1] Crédit photo : Steve Winton (Creative Commons By)