Protéger le secteur du logiciel des brevets, par Richard Stallman

En novembre dernier, Richard Stallman faisait paraître dans le magazine Wired un article important sur l’épineuse et dangereuse question des brevets logiciels (ou plutôt « brevets sur des idées informatiques » comme nous le verrons ci-après).

Un article que nous nous sommes empressés de traduire via notre circuit, désormais classique, compte Twitter + Framapad, et qui a été relu et corrigé par la liste « trad-gnu » de l’April.

OpenSourceWay - CC by-sa

Protéger le secteur du logiciel des brevets

Giving the Software Field Protection from Patents

Richard Stallman – version du 02 février 2013 – Gnu.org (CC BY-ND)
(Traduction Framalang : satbadkd, Thérèse, DarthMickey, geecko, Marc, igor, EEva, greygjhart)

Une première version de cet article a été publiée sur Wired en novembre 2012.

Les brevets menacent chaque concepteur de logiciel, et les guerres de brevet que nous avons longtemps craintes ont éclaté. Les développeurs et les utilisateurs – soit, dans notre société, la plupart des gens – ont besoin de logiciels libres de tout brevet.

Les brevets qui nous menacent sont souvent appelés « brevets logiciels », mais ce terme est trompeur. Ces brevets ne concernent aucun programme en particulier. En fait, chaque brevet décrit une idée applicable en pratique, et affirme que quiconque utilise cette idée peut être poursuivi en justice. Il est donc plus clair de les appeler « brevets sur des idées informatiques », ou « brevets sur des algorithmes ».

Le système de brevets américain ne différencie pas les « brevets logiciels » des autres. Seuls les développeurs font la distinction entre les brevets qui nous menacent – ceux qui concernent des idées pouvant être implémentées dans des logiciels – et les autres. Par exemple : si l’idée brevetée est la forme d’une structure physique ou une réaction chimique, aucun programme ne peut implémenter cette idée ; ce brevet ne menace pas le secteur du logiciel. Si par contre l’idée qui est brevetée est un algorithme, alors le canon de ce brevet est braqué sur les développeurs et les utilisateurs.

Cela ne veut pas dire que les brevets couvrant des algorithmes concernent seulement les logiciels. Ces idées peuvent être aussi implémentées dans du matériel… et beaucoup d’entre elles l’ont été. Chaque brevet couvre typiquement les implémentations matérielles et logicielles de l’idée.

Le problème particulier du logiciel

Toujours est-il que c’est dans le domaine du logiciel que les brevets sur des algorithmes posent un problème particulier. Il est facile de combiner des milliers d’idées dans un seul programme. Si 10% de ces idées sont brevetées, cela signifie que des centaines de brevets le menacent.

Quand Dan Ravicher, de la Public Patent Foundation (Fondation publique des brevets) a étudié en 2004 un programme de taille importante (Linux, qui est le noyau du système d’exploitation GNU/Linux), il a trouvé 283 brevets américains qui semblaient couvrir des algorithmes implémentés dans son code source. Cette année-là, on estimait la part de Linux dans le système GNU/Linux complet à 0,25%. En multipliant 300 par 400, on peut estimer que le nombre de brevets qui menacent le système dans son ensemble est de l’ordre de 100 000.

Si la moitié de ces brevets était supprimée pour cause de « mauvaise qualité » – c’est-à-dire pour cause de ratés du système de brevets – cela ne changerait pas grand chose. Que ce soit 100 000 ou 50 000 brevets, la catastrophe est la même. C’est pourquoi c’est une erreur de limiter nos critiques des brevets logiciels aux seuls patent trolls ou aux brevets de « mauvaise qualité ». En ce sens Apple, qui n’est pas un « troll » selon la définition habituelle, est actuellement l’entreprise la plus dangereuse quand elle se sert de ses brevets pour attaquer les autres. Je ne sais pas si les brevets d’Apple sont de « bonne qualité », mais plus la « qualité » du brevet est élevée, plus la menace est grande.

Nous devons corriger l’ensemble du problème, pas seulement une partie.

Pour corriger le problème sur le plan législatif, on suggère habituellement de changer les critères d’octroi des brevets – par exemple, d’interdire la délivrance de brevets sur les pratiques algorithmiques et les systèmes nécessaires à leur mise en œuvre. Mais cette approche a deux inconvénients.

Premièrement, les avocats reformulent les brevets de manière astucieuse pour qu’ils correspondent à toute règle applicable ; ils transforment toute tentative de limiter un brevet sur le fond en une simple exigence de forme. Par exemple, de nombreux brevets américains sur des algorithmes décrivent un système qui comprend une unité de traitement arithmétique, un séquenceur d’instruction, une mémoire ainsi que des contrôles pour mener à bien un calcul précis. C’est une manière assez particulière de décrire un programme tournant sur un ordinateur pour effectuer un certain calcul ; elle a été élaborée pour que la demande de brevet se conforme aux critères que, pendant quelques temps, l’on a cru être ceux du système américain de brevets.

Deuxièmement, les États-Unis ont déjà plusieurs milliers de brevets sur des algorithmes, et changer les critères pour empêcher d’en créer d’autres ne permettrait pas de se débarrasser de ceux qui existent. Il faudrait attendre pratiquement 20 ans avant que le problème ne soit entièrement résolu du fait de l’expiration des brevets. Et abolir les brevets existants par la loi est probablement anticonstitutionnel (de manière assez perverse, la Cour suprême a insisté pour que le Congrès puisse étendre les privilèges privés au détriment des droits du public mais ne puisse pas aller dans l’autre direction).

Une approche différente : limiter l’effet des brevets, pas la brevetabilité

Ma proposition est de changer l‘effet des brevets. Il faut inscrire dans la loi que développer, distribuer ou exécuter un programme sur des systèmes informatiques polyvalents ne constitue pas une violation de brevet. Cette approche a plusieurs avantages :

  • elle n’impose pas de classer les brevets selon qu’ils sont logiciels ou non ;
  • elle apporte aux développeurs ainsi qu’aux utilisateurs une protection contre les brevets sur des algorithmes, existants ou futurs ;
  • les avocats spécialistes des brevets ne peuvent plus trouver d’échappatoire en changeant la formulation de leurs demandes.

Cette approche n’invalide pas entièrement les brevets existants sur des algorithmes, parce qu’ils continueront à s’appliquer aux implémentations utilisant du matériel dédié. C’est un avantage dans le sens que cela supprime un argument mettant en question la validité de cette proposition du point de vue législatif. Les États-Unis ont légiféré il y a quelques années afin d’immuniser les chirurgiens contre les procès en contrefaçon de brevet, de sorte que même si des procédures chirurgicales sont brevetées, les chirurgiens sont protégés. Cela fournit un précédent pour ce type de solution.

Les développeurs et les utilisateurs de logiciels ont besoin de protection contre les brevets. Cette proposition est la seule solution législative qui apporte une protection totale à tous. Nous pourrions ensuite retourner à notre monde de concurrence ou de coopération… sans craindre qu’un inconnu ne vienne balayer notre travail.

Voir également : Une réforme des brevets n’est pas suffisante

Crédit photo : OpenSourceWay (Creative Commons By-Sa)




Quelques réflexions personnelles d’un développeur open source

Antirez est un développeur de logiciel libre… ou plutôt open source, car c’est l’expression qu’il semble privilégier.

Il nous livre ici le fruit de sa petit réflexion.

Ainsi il préfère les licences permissives à celles copyleft. Ce qui ne l’empêche pas de souhaiter voir plus de rétribution dans le domaine, parce que si l’on est obligé de payer sa facture autrement alors il y aura moins de code utile à disposition de tous.

Antirez

Quelques réflexions sur le logiciel open source

A few thoughts about Open Source Software

Antirez – janvier 2013 – Blog personnel
(Traduction : FanGio, peupleLà, ehsavoie, Tibo, Sphinx, Penguin + anonymes)

Voilà plus de quinze ans que je contribue régulièrement à l‘open source, et cependant je m’arrête assez rarement pour réfléchir à ce que cela représente pour moi. C’est probablement parce que j’aime écrire du code et que c’est ainsi que je passe mon temps : écrire du code plutôt que réfléchir à ce que cela signifie… Cependant ces derniers temps, je commence à avoir des idées récurrentes sur l‘open source, ses relations avec l’industrie informatique et mon interprétation de ce qu’est le logiciel open source pour moi, en tant que développeur.

Tout d’abord, l‘open source n’est pas pour moi une manière de contribuer au mouvement du logiciel libre, mais de contribuer à l’humanité. Cela veut dire beaucoup de choses, par exemple peu m’importe ce que les autres font avec mon code ou qu’ils ne reversent pas leurs modifications. Je veux tout simplement que des personnes utilisent mon code d’une manière ou d’une autre.

En particulier, je veux que les gens s’amusent, apprennent de nouvelles chose et se « fassent de l’argent » avec mon code. Pour moi, que d’autres se fassent de l’argent avec le code que j’ai écrit n’est pas une perte mais un gain.

  1. J’ai beaucoup plus d’impact sur le monde si quelqu’un peut payer ses factures en utilisant mon code ;
  2. Si N personnes gagnent de l’argent avec mon code, peut-être qu’elles seront heureuses de m’en faire profiter ou plus disposées à m’engager ;
  3. Je peux être moi-même l’une de ces personnes qui gagnent de l’argent avec mon code, et avec celui d’autres logiciels open source.

Pour toutes ces raisons, mon choix se porte sur la licence BSD qui est en ces termes l’incarnation parfaite de la licence « faites ce que vous voulez ».

Cependant, il est clair que tout le monde ne pense pas de même, et nombreux sont les développeurs contribuant à l‘open source qui n’aiment pas l’idée que d’autres puissent prendre le code source et créer une entreprise qui ferait un logiciel commercial sous une autre licence.

Pour moi, les règles que vous devez suivre pour utiliser une licence GPL représentent une barrière qui réduit la liberté de ce que les personnes peuvent faire avec le code source. De plus, j’ai le sentiment qu’obtenir des contributions n’est pas tellement lié à la licence : si quelque chose est utile, des personnes vont contribuer en retour d’une manière ou d’une autre, car maintenir un fork n’est pas simple. La véritable valeur se trouve là où le développement se produit. Du code non corrigé, qui n’évolue pas, ne vaut rien. Si, en tant que développeur open source, vous pouvez apporter de la valeur, des parties tierces seront encouragées à faire intégrer leurs modifications.

Cependant, je suis beaucoup plus heureux quand il y a moins de correctifs à fusionner et plus de liberté du point de vue des utilisateurs, plutôt que l’inverse, il n’y a donc pas grand chose à discuter pour moi.

De mon point de vue, ce que l‘open source ne reçoit pas suffisamment en retour, ce ne sont pas les correctifs mais plutôt l’argent. Le nouveau mouvement des startups, et les faibles coûts opérationnels de nombreuses entreprises IT viennent de l’existence même de tout ce code open source qui fonctionne bien. Les entreprises devraient essayer de partager une petite partie de l’argent qu’elles gagnent avec les personnes qui écrivent les logiciels open source qui sont un facteur clé de leur réussite, et je pense qu’une manière saine de redistribuer cet argent est d’embaucher ces développeurs pour qu’ils écrivent du logiciel open source (comme VMware l’a fait pour moi), ou de faire des dons.

Beaucoup de développeurs travaillent pendant leur temps libre par passion, seul un petit pourcentage parvient à être payé pour leur contribution à l‘open source. Une éventuelle redistribution peut permettre à plus de gens de se concentrer sur le code qu’ils écrivent par passion et qui a peut être « un impact plus important » sur l’économie que le travail qu’ils font pour obtenir leur salaire chaque mois. Et malheureusement, il est impossible de payer les factures avec des PULL REQUESTS, c’est pourquoi je pense qu’apporter de l’aide à un projet sous forme de code est une bonne chose, mais ce n’est pas suffisant.

Vous pouvez avoir un point de vue différent sur tout cela, mais ce que j’observe, c’est que le logiciel open source produit beaucoup de valeur dans l’industrie informatique actuelle, et qu’il est souvent écrit sur son temps libre ou en jonglant entre les différentes tâches pendant son temps de travail, si votre employeur est assez souple pour vous permettre de le faire.

Ce que je pense, c’est que cela est économiquement sous-optimal, beaucoup de codeurs intelligents pourraient donner une impulsion à l’économie s’ils étaient plus libres d’écrire du code qu’ils aiment et que beaucoup de gens utilisent sans doute déjà pour faire de l’argent.




Liberté pour les utilisateurs, pas pour les logiciels, par Benjamin Mako Hill

Un article fort intéressant de Benjamin Mako Hill (que nous traduisons souvent) qui apporte un éclairage nouveau à la différence importante entre « logiciel libre » et « open source ».

C’est bien la question de la liberté des utilisateurs qui est fondamentale ici. À mesure que la technologie avance et que de plus en plus de domaines expérimentent « le Libre », elle rejoint tout simplement la liberté des citoyens…

Remarque : C’est d’ailleurs pourquoi nous regrettons « l’abus d’open source » dans les premiers États Généraux de l’Open Source qui se déroulent actuellement à Paris (cf ce tweet ironique).

David Shankbone - CC by

Liberté pour les utilisateurs, pas pour les logiciels

Freedom for Users, Not for Software

Benjamin Mako Hill – 23 octobre 2011 – Blog personnel
(Traduction : Munto, VifArgent, aKa, KarmaSama, Lycoris, aaron, PeupleLa, bruno + anonymous)

En 1985, Richard Stallman a fondé le mouvement du Logiciel Libre en publiant un manifeste qui proposait aux utilisateurs d’ordinateurs de le rejoindre pour défendre, développer et diffuser des logiciels qui garantissent aux utilisateurs certaines libertés. Stallman a publié la « Définition du Logiciel Libre » (Free Software Definition ou FSD) qui énumère les droits fondamentaux des utilisateurs concernant les logiciels.

  • La liberté d’exécuter le programme, pour n’importe quel usage ;
  • la liberté d’étudier le fonctionnement du programme et de l’adapter à ses besoins ;
  • la liberté d’en redistribuer des copies pour aider les autres ;
  • la liberté d’améliorer le programme et de rendre publiques les améliorations, afin que la communauté entière puisse en bénéficier.

Stallman est informaticien. Il avait compris que la manière dont les programmeurs concevaient les logiciels pouvait influer sur les possibilités des utilisateurs à interagir avec eux. Par exemple, des programmeurs pourraient concevoir des systèmes qui espionnent les utilisateurs, vont à leur encontre ou créent des dépendances. Dans la mesure où les ordinateurs occupent une place de plus en plus importante dans la communication des usagers, et dans leur vie toute entière, leur expérience est de plus en plus sous le contrôle de la technologie, et par conséquent de ceux qui la maîtrisent. Si le logiciel est libre, les utilisateurs peuvent désactiver les fonctionnalités cachées ou abusives et travailler ensemble à l’amélioration et au contrôle de leurs technologies. Pour Stallman, le logiciel libre est essentiel à une société libre.

Hélas, beaucoup de personnes qui entendent « logiciels libres » (NdT : free software en anglais) pensent que le mot libre (free) veut dire qu’il peut être distribué gratuitement – une confusion bien naturelle puisque les logiciels libres peuvent être, et sont le plus souvent, partagés sans permission expresse ni paiement. Dans des tentatives concertées pour démêler cette confusion, le slogan « free as in free speech not as in free beer » (free comme dans la liberté de parole et non comme une bière gratuite), et la référence à la distinction que l’on fait en français entre libre et gratuit, sont devenus des clichés dans la communauté du logiciel libre. Une biographie de Stallman est d’ailleurs intitulée « Free as in Freedom » (NdT : Libre comme dans Liberté, biographie traduite et publiée par Framasoft dans sa collection Framabook).

À la fin des années 90, un groupe de passionnés de logiciels libres a suggéré un nouveau terme : « open source ». À l’instar de Stallman, ce groupe était agacé par l’ambiguïté autour du mot « free ». Cependant, la principale préoccupation du groupe open source était l’utilité du logiciel libre pour les entreprises.

Plutôt que de mettre en avant la « liberté », qui pouvait, selon eux, rebuter des entreprises commerciales, les promoteurs de l’open source décrivaient les bénéfices techniques que l’« ouverture » du développement de logiciels libres pourrait apporter, grâce à la collaboration de nombreux utilisateurs mis en réseau. Ces appels ont trouvé un écho au sein des entreprises high-tech à la fin du millénaire au moment où le système d’exploitation libre GNU/Linux gagnait en popularité et où le serveur web Apache dominait un marché bondé de concurrents propriétaires. Le concept « open source » prit un nouvel élan en 1998 quand Netscape rendit public le code source de son navigateur web Navigator.

Malgré des différences rhétoriques et philosophiques, les logiciels libres et les logiciels open source font référence aux mêmes programmes, aux mêmes communautés, aux mêmes licences et aux mêmes pratiques. La définition de l‘open source est presque une copie conforme des directives du logiciel libre publiées par la communauté Debian qui sont elles-mêmes une tentative de redéfinir la déclaration de Stallman sur la Définition du Logiciel Libre. Stallman a décrit cette distinction entre « logiciel libre » et « logiciel open source » comme étant le contraire d’un schisme. Dans un schisme, deux groupes religieux auront des cultes séparés, souvent à cause de désaccords mineurs sur des points de liturgie ou de doctrine. Dans le logiciel libre et l‘open source, les deux groupes se sont articulés autour de philosophies, de principes politiques et de motivations qui sont fondamentalement différentes. Et pourtant les deux parties continuent de travailler en étroite collaboration au sein des mêmes organisations.

Les conversations autour du libre et du gratuit dans les communautés du logiciel libre et de l‘open source ont occulté un second niveau d’ambiguïté dans le terme « logiciel libre », bien moins discuté : le terme a conduit à croire qu’il fallait interpréter les quatre libertés comme des déclarations sur les qualités que les programmes eux-mêmes devraient posséder. Stallman se fiche du logiciel libre en tant que tel, ce qui lui importe c’est la liberté des utilisateurs. Les slogans « free as in freedom » et « free speech not free beer » n’aident en rien à résoudre ce second type d’ambiguïté, et créent même de la confusion. « Free as in freedom » ne dit rien sur ce qui devrait être libre, tandis que « free speech not free beer », reproduit un problème similaire : les défenseurs de la liberté de parole ne défendent pas tant la liberté d’expression en tant que telle que la liberté des individus dans leur parole. Quand pour l’essentiel le discours des promoteurs du logiciel libre insiste sur les caractéristiques des programmes, certains en viennent à considérer la liberté de l’utilisateur comme un problème de second ordre – c’est tout simplement ce qui se produit lorsque le logiciel est libre.

Quand le logiciel est libre, mais pas les utilisateurs

La liberté de l’utilisateur ne découle pas toujours de la liberté du logiciel. En effet, le logiciel libre a pris de l’importance dans les domaines économique et politique : cela a suscité l’intérêt de certaines personnes qui souhaitaient en récolter les bénéfices tout en maintenant l’action et l’indépendance des utilisateurs dans des limites.

Google, Facebook, et autres titans de l’économie du Web ont bâti leur entreprise sur les logiciels libres. En les utilisant ils n’agissent pas seulement en passagers clandestins, dans de nombreux cas ces firmes partagent gratuitement, au minimum, une partie du code qui fait fonctionner leurs services et investissent des ressources conséquentes dans la création ou l’amélioration de ce code. Chaque utilisateur d’un réseau basé sur des logiciels libres peut posséder une copie du logiciel qui respecte les quatre libertés de la FSD. Mais à moins que ces utilisateurs n’exécutent le service web eux-mêmes- ce qui peut s’avérer techniquement ou économiquement infaisable – ils restent sous la coupe des firmes qui, elles, font bel et bien fonctionner leurs copies. Le « Logiciel en tant que Service » (Software as a Service, ou SaaS) – ou logiciel fourni via « le cloud » – est à priori entièrement compatible avec le principe d’un logiciel libre. Toutefois, du fait que les utilisateurs du service ne peuvent pas changer le logiciel ou l’utiliser comme ils le souhaitent sans l’autorisation et la surveillance de leur fournisseur de service, les utilisateurs de SaaS sont au moins aussi dépendants et vulnérables qu’ils le seraient si le code était fermé.

Chrome OS de Google est une tentative pour construire un système d’exploitation qui pousse les utilisateurs à être constamment en ligne et à utiliser des services comme Google Docs pour réaliser la plupart de leurs tâches informatiques. Quand Google a annoncé Chrome OS, nombreux étaient ceux qui ont applaudi dans la communauté du logiciel libre ; Chrome OS est en effet basé sur GNU/Linux, il s’agit presque entièrement de logiciel libre, et il avait l’appui de Google. Mais le but réel de Chrome OS est de changer l’endroit où les utilisateurs réalisent leurs tâches informatiques, en remplaçant les applications que l’utilisateur aurait fait tourner sur sa machine par des SaaS sur Internet. Chaque fois qu’on remplace un logiciel libre du bureau par un SaaS, on passe d’une situation où l’utilisateur avait le contrôle sur ses logiciels à une situation où il n’a pratiquement plus aucun contrôle. Par exemple, l’utilisation que fait Google des logiciels libre dans les services SaaS lui permet de surveiller tous les usages et d’ajouter ou retirer des fonctionnalités selon son bon vouloir. Ainsi, en se concentrant sur la liberté des logiciels et non sur celle des utilisateurs, bien des partisans du logiciel libre n’ont pas su anticiper cette inquiétante dynamique.

TiVo – le pionnier des magnétoscopes numériques – présentait un défi différent. Son système se basait sur GNU/Linux et, conformément à la licence « copyleft » sous laquelle sont distribués la plupart des logiciels libres, la société TiVo autorisait l’accès complet à son code source. Mais TiVo utilisait le chiffrage pour verrouiller son système afin qu’il ne s’exécute que sur des versions approuvées de Linux. Les utilisateurs de TiVo pouvaient étudier et modifier le logiciel TiVo, mais ils ne pouvaient pas utiliser ce logiciel modifié sur leur TiVo. Le logiciel était libre, les utilisateurs ne l’étaient pas.

Les SaaS, Chrome OS et la Tivoisation sont des sujets qui continuent de remuer le milieu des logiciels libres et open source et mettent à jour des lignes de fracture. Il n’est guère surprenant que les partisans de l‘open source ne voient aucun problème avec les SaaS, Chrome OS et la Tivoisation ; ils ne sont pas engagés dans la liberté des utilisateurs ou du logiciel. Toutefois chacun de ces exemples a été facteur de division, y compris parmi les personnes qui pensaient que le logiciel devrait être libre. La Fondation du Logiciel Libre (Free Software Foundation, FSF) a pris explicitement position contre chacun des sujets ci-dessus. Mais il a fallu du temps avant d’identifier chacune de ces menaces et ce fut laborieux de réussir à faire passer le message aux sympathisants. Aujourd’hui, il semble probable que Google et son modèle d’entreprise orienté service représentent une plus grande menace pour la liberté des futurs utilisateurs d’ordinateur que ne l’a été Microsoft. Mais comme Google se conforme scrupuleusement aux termes de la licence du logiciel libre et contribue aux projets de logiciels libres par une grande quantité de code et d’argent, les partisans du logiciel libre ont mis du temps à l’identifier comme une menace et à réagir.

Même la Free Software Foundation continue à se battre avec sa propre mission axée sur le logiciel. Stallman et la FSF ont travaillé ces dernières années pour déplacer du code non-libre qui s’exécute sur les périphériques internes des ordinateurs (par exemple, une carte wifi ou une carte graphique intégrée à l’intérieur d’un portable) depuis le disque dur principal de l’ordinateur vers les sous-processeurs eux-mêmes. L’idée derrière ces efforts est d’éliminer le code non-libre en le basculant vers les composants matériels. Mais les utilisateurs des logiciels sont-ils plus libres si les technologies propriétaires, qu’ils ne peuvent changer, existent dans leur ordinateur sous une forme plutôt qu’une autre ?

La clé pour répondre à cette question – et à d’autres -, c’est de rester concentré sur ce qui distingue libre et ouvert. Les promoteurs du logiciel libre doivent revenir à leur objectif premier : la liberté des personnes, et non celle des logiciels. L’apport fondamental de Stallman et du mouvement libre a été de relier les questions de la liberté et de l’autonomie personnelle à d’autres considérations, quoique ce lien ne soit pas évident pour beaucoup. La manière dont les utilisateurs resteront libres évoluera avec les changements de nature de la technologie. Et alors que certains adaptent les principes du logiciel libre à de nouveaux domaines, ils vont se retrouver confrontés à des problèmes de traduction comparables. Selon le soin que portera notre communauté à distinguer entre les différents mode d’ouverture et à mettre en évidence les questions de contrôle, de politique et de pouvoir, la philosophie du logiciel libre restera pertinente dans toutes ces discussions plus générales autour des nouveaux et différents biens communs – dans les logiciels et au delà.

Crédit photo : David Shankbone (Creative Commons By)




Richard Stallman : Un logiciel espion dans Ubuntu ! Que faire ?

Un logiciel espion dans Ubuntu ! Que faire ?

par Richard Stallman

L’un des principaux avantages du logiciel libre est que la communauté protège les utilisateurs des logiciels malveillants. Aujourd’hui Ubuntu GNU/Linux est devenu un contre-exemple. Que devons-nous faire ?

Le logiciel privateur est associé à la malveillance envers l’utilisateur : code de surveillance, menottes numériques (gestion numérique des restrictions, ou DRM) destinées à imposer des limites aux utilisateurs, et portes dérobées qui peuvent faire des choses déplaisantes sous contrôle à distance. Les programmes qui effectuent l’une quelconque de ces opérations sont des logiciels malveillants et devraient être considérés comme tels. Les exemples les plus communs sont Windows, les iTrucs, ou encore le « Kindle » d’Amazon (connu pour son autodafé de livres virtualisés[1] ), qui font ces trois choses ; Macintosh et la Playstation III qui imposent des menottes numériques ; la plupart des téléphones portables, qui espionnent et possèdent des portes dérobées ; Adobe Flash Player, qui espionne et fait respecter les menottes numériques ; ainsi que de nombreuses applications iTrucs ou Android, qui intègrent une ou plusieurs de ces pratiques néfastes.

Le logiciel libre donne aux utilisateurs la possibilité de se protéger contre les comportements malveillants des logiciels. Encore mieux, la communauté protège en général tout le monde et la majorité des utilisateurs n’a pas à bouger le petit doigt. Voici comment.

De temps à autre, des utilisateurs sachant programmer trouvent du code malveillant dans un programme libre. Généralement, ce qu’ils font ensuite c’est de publier une version corrigée du programme : les quatre libertés (voir http://www.gnu.org/philosophy/free-sw.html) qui définissent le logiciel libre le permettent. On appelle cela un fork du programme. Rapidement, la communauté bascule sur la version corrigée, et la version infectée est rejetée. La perspective d’un rejet ignominieux n’est pas vraiment tentante : donc, la plupart du temps, même ceux qui ne sont pas arrêtés par leur conscience ou par la pression sociale s’abstiennent de glisser des malfaçons dans les logiciels libres.

Mais pas toujours. Ubuntu, distribution influente et largement utilisée, a installé du code de surveillance. Lorsque l’utilisateur effectue une recherche dans ses propres fichiers en utilisant le système de recherche d’Ubuntu desktop, Ubuntu envoie cette recherche à l’un des serveurs de Canonical (Canonical étant la société qui développe Ubuntu).

C’est exactement comme le premier cas de surveillance dont j’aie appris l’existence, dans Windows. Mon vieil ami Fravia m’avait expliqué qu’un jour, alors qu’il recherchait une phrase dans ses fichiers avec Windows, un paquet – détecté par son pare-feu – avait été émis vers un serveur. À compter de cet exemple, je suis devenu attentif et n’ai pas oublié la propension à la malveillance qu’ont les logiciels privateurs « réputés ». Ce n’est peut-être pas par hasard qu’Ubuntu émet la même information.

Ubuntu se sert de ces informations sur leurs recherches pour afficher aux utilisateurs des publicités pour des produits vendus par Amazon. Cette société cause beaucoup de tort (voir http://stallman.org/amazon.html) ; en promouvant Amazon, Canonical y contribue. Cependant, les publicités ne sont pas le cœur du problème. Le véritable problème est l’espionnage des utilisateurs. Canonical affirme qu’Amazon ne sait rien de l’origine des recherches. Toutefois, il est tout aussi déplorable de la part de Canonical de collecter vos informations personnelles que cela ne l’aurait été de la part d’Amazon.

Certains feront sûrement des versions modifiées d’Ubuntu dépourvues de cette fonctionnalité espionne. De fait, plusieurs distributions GNU/Linux sont des versions modifiées d’Ubuntu. Lorsqu’elles se mettront à niveau avec la dernière version d’Ubuntu, je m’attends à ce que cette fonctionnalité soit enlevée. Canonical s’y attend également, sans aucun doute.

La plupart des développeurs de logiciel libre laisseraient tomber un tel projet, étant donné la perspective d’une migration en masse vers la version corrigée de quelqu’un d’autre. Mais Canonical n’a pas abandonné le logiciel espion d’Ubuntu. Peut-être Canonical pense-t-il que le nom « Ubuntu » a assez de poids et d’influence pour éviter les conséquences habituelles et s’en tirer avec cette surveillance.

Canonical dit que cette fonctionnalité permet de faire des recherches sur Internet « autrement ». Selon les détails de la méthode, cela pourrait, ou non, aggraver problème, mais cela ne l’atténuerait pas.

Ubuntu permet aux utilisateurs de désactiver la surveillance. Évidemment, Canonical pense que beaucoup d’utilisateurs d’Ubuntu vont laisser cette fonctionnalité à son état par défaut, c’est-à-dire active. Et c’est ce que beaucoup font probablement, car il ne leur vient pas à l’esprit d’essayer d’y changer quoi que ce soit. Ainsi, l’existence de cette option ne rend pas pour autant la fonctionnalité de surveillance acceptable.

Même si elle était désactivée par défaut, cette fonctionnalité resterait dangereuse : « activer une fois pour toutes » une pratique risquée, dont le risque varie selon les spécificités du système, invite au laisser-faire. Pour protéger la vie privée de l’utilisateur, les systèmes doivent simplifier l’usage de la prudence : quand un programme de recherche locale a une option de recherche sur le réseau, ce devrait être à l’utilisateur de choisir la recherche sur le réseau explicitement à chaque fois. C’est simple : il suffit de boutons séparés pour la recherche sur le réseau ou la recherche locale, comme c’était le cas dans les anciennes versions d’Ubuntu. Une fonctionnalité de recherche sur le réseau devrait aussi informer l’utilisateur clairement et concrètement sur la nature et la destination précise des données personnelles collectées, lorsqu’il utilise cette fonctionnalité.

Si une proportion suffisante des faiseurs d’opinion de la communauté voient cette question d’un point de vue uniquement personnel, s’ils désactivent la surveillance pour eux-mêmes et continuent à promouvoir Ubuntu, Canonical pourrait s’en tirer. Ce serait une grande perte pour la communauté du logiciel libre.

Nous, qui présentons le logiciel libre comme une défense contre les logiciels malveillants, n’affirmons pas qu’il s’agit d’une défense parfaite. Il n’existe pas de défense parfaite. Nous ne disons pas que la communauté va à coup sûr dissuader les gens d’implanter des logiciels espions. Donc, à proprement parler, ce n’est pas parce qu’il y a un logiciel malveillant dans Ubuntu que nous devons manger notre chapeau.

Mais ce qui est en jeu ici dépasse le fait de savoir si quelques-uns d’entre nous vont devoir avaler leur chapeau. La question est ici de savoir si notre communauté peut efficacement utiliser l’argument des logiciels espions privateurs. Si nous pouvons seulement dire « les logiciels libres ne vous espionnent pas, sauf si c’est Ubuntu », c’est bien moins percutant que de dire « les logiciels libres ne vous espionnent pas ».

Il nous appartient d’exprimer notre réprobation à Canonical avec suffisamment de force pour qu’il arrête cela. Canonical peut donner toutes les excuses qu’il veut, elles seront insuffisantes ; même s’il affectait tout l’argent que lui donne Amazon au développement de logiciel libre, cela pourrait difficilement contrebalancer ce que le logiciel libre a à perdre s’il cesse d’être un moyen efficace d’éviter aux utilisateurs de se faire flouer.

Si jamais vous recommandez ou redistribuez GNU/Linux, merci de retirer Ubuntu des distributions que vous recommandez ou redistribuez. Si la pratique d’installer et recommander des logiciels non libres ne vous convainc pas d’arrêter, ceci le fera. Dans vos install parties, dans vos « Journées du Libre », au FLISOL, n’installez pas et ne recommandez pas Ubuntu. À la place, dites qu’Ubuntu est mis à l’index pour espionnage.

Pendant que vous y êtes, vous pouvez aussi leur dire qu’Ubuntu contient des programmes non libres et suggère l’installation d’autres programmes non libres (voir http://www.gnu.org/distros/common-distros.html). Cela contrecarrera l’autre forme d’influence négative qu’exerce Ubuntu dans la communauté du logiciel libre : la légitimation des logiciels non libres.

Copyright © 2012 Richard Stallman

Cette page peut être utilisée suivant les conditions de la licence Creative Commons Attribution-NoDerivs 3.0 United States.

Traduction : Framalang (Quentin Carnicelli, Thomas, Liu Qihao, Thérèse, darkelda, Kyriog, neo_phryte, Michaël, dadall, mart-e et 3 anonymes)
Révision : trad-gnu@april.org

Version du 7 décembre 2012

Crédit photo : Christophe Ducamp (Creative Commons By)

Notes :

[1To kindle : allumer du feu.




Ça a débuté comme ça, par un simple tweet sur le peigne liturgique…

Aujourd’hui c’est le top départ de la désormais traditionnelle levée de fonds annuelle et internationale visant à financer et soutenir tous les projets de la fondation Wikimedia, l’encyclopédie Wikipédia en tête.

Vous ne le savez peut-être pas mais les dons collectés en France se partagent pour moitié entre la fondation et l’association Wikimédia France.

Il y a deux ans nous avions relayé un excellent reportage de la télévision suisse qui précisait la destination et illustrait l’usage des dons helvètes. Cette année nous vous proposons de mettre modestement en avant une action parmi tant d’autres de Wikimédia France : le partenariat avec le Musée de Cluny.

Je cite ce dernier (Elisabeth Taburet-Delahaye Conservateur général du Patrimoine, directrice du musée de Cluny et Claire Séguret Responsable adjointe Communication et Mécénat, musée de Cluny sur le blog du Ministère de la Culture) :

L’encyclopédie Wikipedia est aujourd’hui au cœur des pratiques quotidiennes de nos visiteurs, mais également des universitaires et des conservateurs. En mars 2012, Wikimedia Foundation se classe 5e groupe français en terme d’audience sur Internet.

En étant présent sur cette formidable plateforme, le musée répond à sa mission première de diffusion du savoir et va à la rencontre d’un large public. L’amélioration d’articles existants ou la création de nouvelles entrées sont également une possibilité pour l’établissement, au moment même de la refonte de son site, de sensibiliser ses équipes aux spécificités de l’écriture pour le web, mais aussi aux notions d’outil collaboratif ou à la question des licences libres. C’est également l’occasion d’un travail collectif au sein du musée, transcendant les habituels cloisonnements.

Et c’est ainsi que deux ateliers ont été organisés en juin dernier. Pour en savoir davantage nous vous invitons à écouter le très intéressant entretien ci-dessous (vidéo réalisée par Buzzeum).

Mais ce qui est également intéressant c’est l’originalité de la toute première prise de contact dont il est rapidement fait mention dans l’entretien : un simple tweet d’Adrienne Charmet-Alix, directrice des programmes de l’association, s’étonnant du peu d’informations concernant un objet du musée, le peigne liturgique. Et rien non plus sur Wikipédia, pas d’article !

Qu’à cela ne tienne, une fois à la maison elle s’attelle à la tâche pour réparer cette incongruité. Mais nouveau problème : l’absence d’image pour illustrer le propos, tant il est vrai qu’il y a des articles qui se bonifient grandement avec des photos ad hoc

Alors elle interpelle gentiment le compte Twitter du musée via son propre compte :

Et :

Ceci fit prendre conscience à l’animatrice du compte (en l’occurrence Claire Séguret) qu’il y avait une demande et un besoin. Et c’est ainsi que l’aventure commença…

Fin de l’histoire, Je peux désormais vous donner le lien vers l’article (illustré) Peigne liturgique de Wikipédia et vous inviter à suivre ce lien 😉




Rien ne serait arrivé sans la loi de Moore

La loi de Moore (qui n’est en fait qu’un conjecture) affirme que le nombre de transistors des microprocesseurs sur une puce de silicium double tous les deux ans. Ce qui, par extension, a donné pour le grand public que le rapport entre la puissance d’un ordinateur et son prix double tous les dix-huit mois.

Autrement dit, les machines sont de plus en plus puissantes et de moins en moins chères.

C’est bien ce qu’il s’est produit et se produit encore, pour le plus grand bonheur du logiciel libre et sa culture…

Leonardo Rizzi - CC by-sa

Un allié secret de l’open source : la loi de Moore

Open source’s secret ally: Moore’s Law

Glyn Moody – 10 octobre 2012 – The H
(Traduction : KoS, ProgVal, Sylvain, greygjhart)

Linux est passé du statut de petit bidouillage sympa dans une chambre à celui de logiciel capable de changer le monde il y a un peu plus de 21 ans lorsque Linus a envoyé son fameux message : « Bonjour aux utilisateurs de minix », invitant les gens à le rejoindre. Comme je l’ai remarqué le mois dernier, cette approche ouverte, collaborative était tout à fait nouvelle et s’est avérée décisive dans l’adoption et le développement de Linux.

Cela fut possible car Internet était déjà suffisamment présent pour qu’assez de gens se joignent à l’équipe de volontaires de Linus en faisant jouer à plein l’intelligence distribuée. En d’autres termes, l’émergence du logiciel libre est intimement liée à internet. En effet, le décollage rapide de Linux, comparé aux progrès plutôt lents du projet GNU est probablement dû, au moins en partie, au fait que ce dernier ne pouvait se reposer sur une connectivité globale. C’est grâce à cela que Richard Stallman a pu vivre des ventes de GNU Emacs, qu’il distribuait sur des bandes magnétiques.

La nature symbiotique du logiciel libre et d’internet, le premier utilisant le second, le second étant utilisé par le premier, est maintenant largement reconnue. Mais un autre facteur clé dans l’apparition de l’open source a été sous-estimé, alors que Linus lui-même le mentionne dans ce fameux premier message :

Je programme un système d’exploitation (gratuit, c’est juste un passe-temps, ça ne sera pas un gros projet professionnel comme GNU) pour des clones AT 386(486).

Comme nous vivons à l’ère Intel depuis deux décennies, une ère qui touche peut-être à sa fin, avec la montée en puissance des smartphones et des tablettes et leurs processeurs de familles différentes, il est facile de négliger l’importance du fait que Linus développa Linux pour les processeurs 80386.

Aussi étrange que cela puisse paraître , l’ordinateur principal de Linus avant qu’il n’écrive Linux était un Sinclair QL, un ordinateur typiquement anglais qui utilisait le processeur Motorola 68008 (qui fonctionnait à 7,5 MHz), fourni avec 128K de RAM et utilisait un infâme microdrive comme stockage.

Passer à un PC 386, fonctionnant à 33MHz, avec 8 Mo de RAM et 40Mo de disque dur, était un véritable bond en avant pour Linus, et poussa ses finances à leurs limites. En fait, il n’a pu acheter son premier PC que le 5 janvier 1991 parce qu’il reçut de l’argent pour Noël qu’il ajouta à un prêt étudiant que le gouvernement Finlandais lui avait récemment accordé. Ce dernier était censé payer sa nourriture et son logement pendant qu’il étudiait à l’université d’Helsinki mais comme il vivait toujours avec sa mère pendant cette période, il réussi à le détourner pour un usage plus intéressant.

Le fait qu’il puisse se payer un système aussi performant reposait sur l’amélioration continuelle du matériel, couplée à la diminution régulière des prix. C’est à dire que c’est grâce à la loi de Moore, qui dit que le ratio entre performances et prix double tous les 18 mois environ, que Linus a pu se retrouver avec le système 386 qu’il mentionne dans le premier message sur Linux.

Sans la loi de Moore, il serait sans doute resté avec son Sinclair QL, codant pour un système dont peu de gens se souciaient. Avec le 386, il a pu rentrer dans le courant dominant de l’informatique en même temps que de nombreuses autres personnes. Partout dans le monde (ou en tout cas dans les zones les plus riches) les jeunes gens ont pu s’acheter de vrais ordinateurs basés sur l’Intel 80386 et (plus tard) 80486. Cela signifiait qu’ils pouvaient faire tourner le code de Linux dès ses débuts, et aussi qu’ils pouvaient contribuer.

Encore une fois, sans la loi de Moore mettant des ordinateurs moins chers dans les mains de bidouilleurs, Linus n’aurait pas été en mesure de construire cette communauté mondiale à travers Internet et le rythme de développement en aurait souffert. En effet, comme la loi de Moore continuait de tirer les prix vers le bas tout en augmentant les performances, de plus en plus de gens dans un nombre croissant de pays ont pu acquérir des PCs suffisamment puissants pour rejoindre le projet Linux. Des processeurs plus rapides signifiaient des temps de compilation plus courts pour les programmes ce qui rendait le bidouillage du code plus facile – et plus agréable.

Il y a ici un contraste intéressant avec le développement du logiciel propriétaire. Les avancées dues à la loi de Moore ne profitent que peu aux programmeurs dans les entreprises, puisqu’ils ont généralement du matériel assez bon. Et les entreprises n’en bénéficient guère plus, puisque ce qui coûte le plus dans la programmation est le salaire des programmeurs, pas le prix de leurs PCs. Dans le monde du logiciel libre, les programmeurs volontaires sont bénévoles et le facteur limitant est le prix du matériel. C’est pourquoi la loi de Moore est très avantageuse pour l’open source.

Potentiel futur

Ce n’est pas un effet purement historique des premières heures de Linux. Nous voyons encore aujourd’hui la Loi de Moore tirer les prix vers le bas en accueillant toujours plus d’utilisateurs. Un bon exemple est le mini-ordinateur Raspberry Pi. Il offre les bases de la puissance d’un PC sur une petite carte mère, à un prix minuscule. Cela signifie que non seulement les personnes ordinaires – même des enfants – peuvent l’acheter sans avoir à penser au prix, mais aussi que les écoles peuvent envisager d’en acheter un pour chaque étudiant, ce qui est normalement inenvisageable avec les prix prohibitifs des PC, même ceux bon marché.

L’effet que le Raspberry Pi aura sur l’éducation n’est pas encore clair, mais il semble que celui-ci ou l’un des nombreux systèmes semblables à prix très bas va permettre l’arrivée de nouveaux types de projets avec des nouveaux groupes de contributeurs, dans les pays émergents par exemple.

Et les choses sont déjà en train d’aller plus loin. Voici un projet Kickstarter qui illustre à merveille cette progression continue rendue possible grâce à la loi de Moore. Il s’agit de Parallella. l se décrit comme un « Supercalculateur Grand Public », et ce n’est pas une blague.

Une fois terminé, l’ordinateur Parallella devrait fournir l’équivalent d’un processeur à plus de 45Ghz sur un circuit de la taille d’une carte de crédit tout en consommant moins de 5 Watts en fonctionnement normal. En s’en tenant seulement à la fréquence, c’est plus de puissance qu’un serveur haut de gamme qui coûte des milliers de dollars et consomme 400W.

Important, tout le système sera ouvert :

  • Accès ouvert : absolument aucun accord de non divulgation ou accès spéciaux nécessaires ! Toute l’architecture et le kit de développement seront publiés sur le web dès que le projet sera financé sur Kickstarter.
  • Open Source: la plateforme Parallella sera basée sur des outils et des bibliothèques libres et gratuites. Tous les fichiers de conception des circuits seront fournis une fois que Parallella sera sur le marché
  • Bon marché : les coûts du matériel et des outils de développement ont toujours été une barrière très difficile à franchir pour les développeurs cherchant à écrire des applications haute-performance. Notre but est de fournir l’ordinateur haute-performance Parallella à un coût inférieur à 100$, le rendant accessible à tous.

Oui, c’est un super ordinateur à 45GHz, fourni en standard avec Ubuntu, pour moins de 100$. Si Parallella parvient à sortir cela – et en tant que projet Kickstarter (il y a toujours le risque qu’il ne soit pas totalement financé ou qu’il ne fonctionne pas correctement) il va mettre un nouveau niveau de puissance de calcul entre les mains de tout le monde, y compris les étudiants.

Potentiellement, cela va permettre à des gens qui, jusqu’à présent, ne pouvaient tout simplement pas s’acheter une telle puissance de calcul de démarrer une toute nouvelle génération de projets open source. Encore une fois, le principal bénéficiaire ici est l’open source : si une entreprise a besoin d’un supercalculateur, elle va généralement l’acheter immédiatement, puisqu’elle peut se permettre de payer un prix conséquent pour les modèles actuels. Ce que Parallella apporte, grâce à la loi de Moore, est la démocratisation d’une puissance de calcul de cet ordre, qui ne va plus être réservée à des projets commerciaux disposant de solides fonds.

Il est important de noter que c’est la loi de Moore, agissant sur le matériel qui apporte ces bénéfices, plutôt que n’importe quel changement exponentiel dans le logiciel (qui n’y contribue qu’indirectement). De plus des lois de Moore pour d’autres types de matériel commencent également à prendre forme. Un exemple frappant en est l’impression 3D, où les prix baissent régulièrement. Ou encore le monde du séquençage du génome, démêler les milliards de « lettres » chimiques qui forment la double hélice de l’ADN, qui voit l’arrivée de changements encore plus importants.

Vous savez peut-être que le coût de séquençage du génome baisse mais vous n’avez peut-être pas la moindre idée de la vitesse à laquelle il baisse. Le National Human Genome Research Institute qui fait partie du National Institute of Health américain a compilé des données étendues sur le coût de séquençage de l’ADN au cours de la dernière décennie et a utilisé ces informations pour créer deux graphique à couper le souffle. Les chercheurs du NHGRI montrent que non seulement les coûts de séquençage sont en chute libre mais ils dépassent la courbe exponentielle de la loi de Moore d’une grande marge.

Cela signifie que le coût de séquençage de votre génome, ou de n’importe quel autre organisme, va bientôt devenir à la portée de tout le monde. Cela va-t-il créer une communauté globale de bio-hackers libristes, menée par un nouveau Linus avec un séquenceur de bureau (et peut-être un supercalculateur Parallella) dans sa chambre à coucher ? L’expérience des logiciels libres suggère que oui et nous apprend que nous ne devrions jamais sous-estimer le simple pouvoir de la loi de Moore à conduire des changement inattendus et révolutionnaires.

Crédit photo : Leonardo Rizzi (Creative Commons By-Sa)




Ubuntu est-elle une distribution commerciale ? Et si oui pourquoi le taire ?

Excellent accélérateur de migration Windows vers GNU/Linux, Framasoft soutient et promeut depuis le début la distribution grand public Ubuntu. Et ce ne sont ni les annotations de Richard Stallman ni la récente « affaire Amazon » (fort bien explicitée par Christophe Sauthier) qui nous feront changer d’avis.

Mais cela ne nous empêche pas dans ces colonnes de traduire de temps en temps des articles parfois critiques à son égard, au risque de déclencher des ires dans les commentaires 😉

Ici le journaliste Sam Varghese reproche à Mark Shuttleworth de ne pas avoir clairement affirmé, et ce dès l’origine, le caractère commercial d’Ubuntu intimement liée à sa société Canonical. C’est ce qui explique pour lui que cette histoire avec Amazon a été si mal prise pour la communauté.

Et de citer alors en exemple la société Red Hat qui lui semble plus claire dans ses objectifs (de profits). D’ailleurs cette dernière propose deux distributions plutôt qu’une : la « commerciale » Red Hat Enterprise Linux et la « communautaire » Fedora.

Il est d’ailleurs possible que cette éventuelle confusion soit encore plus forte dans des pays comme la France où la communauté Ubuntu est très dynamique.

Il est vrai qu’une fois qu’on découvre GNU/Linux (souvent avec Ubuntu), on s’aperçoit qu’il existe bien des différences entre les distributions. Le très pratique mais pas très libre Linux Mint n’est pas la même que la moins pratique mais très libre Trisquel. La gouvernance et finalité d’une Debian diffèrent sensiblement de celle d’Ubuntu qui s’en est inspirée à la base.

C’est toute la richesse et diversité du logiciel libre et c’est très bien ainsi, non ?

StephenrWalli - CC by-sa

La grande erreur de Mark Shuttleworth

Mark Shuttleworth’s big mistake

Sam Varghese – 26 octobre 2012 – ITWire.com
(Traduction : peupleLa, Bob Young, KoS, Yuston, Gatitac, HgO, greygjhart)

La semaine dernière a marqué le huitième anniversaire de l’apparition d’Ubuntu sur la scène GNU/Linux. Depuis octobre 2004, de nouvelles versions de cette distribution sont sorties tous les six mois : le buzz initial a été très fort avant de s’estomper peu à peu.

Il est remarquable qu’au fil des ans, chaque fois que Mark Shuttleworth, l’homme qui possède Canonical, la compagnie qui est derrière Ubuntu, introduit une nouvelle fonctionnalité destinée à générer des revenus, des cris et des pleurs se font entendre. Alors, les gens d’Ubuntu essaient de s’expliquer et pour finir, on trouve un semi-compromis qui ne satisfait personne.

La dernière de ces fonctionnalités, dans la version 12.10, fut l’ajout des résultats de recherche d’Amazon aux résultats de recherche habituels. Ce qui signifie un peu d’argent venant d’Amazon pour Canonical (à chaque fois qu’un utilisateur d’Ubuntu achète un produit Amazon à partir de la recherche). Le compromis a été d’en faire une fonctionnalité optionnelle.

De telles situations se sont déjà produites par le passé, et se reproduiront encore à l’avenir. Il y a selon moi une raison simple à cela : Mark Shuttleworth n’a pas réussi à formuler une vision claire du projet Ubuntu à ses débuts. Grave erreur.

Lorsqu’Ubuntu est sortie pour la première fois, il y a eu beaucoup de discussions à propos de la signification de la formule : l’humanité en partage (NdT : humanity to others). Il y avait un tas de fonctionnalités cools, qui mettaient l’accent sur l’implication de la « communauté ». Des cédéroms étaient livrés gratuitement aux gens. On aurait dit une œuvre de bienfaisance du logiciel libre gonflée aux stéroïdes. Ou à l’EPO, à la Lance Armstrong (en français dans le texte) si vous préférez.

Mais il n’y a jamais eu de discussions à propos du fait qu’Ubuntu est une distribution commerciale ; elle a besoin de générer du profit pour exister. Shuttleworth a les poches profondes mais elles ne sont pas sans fond. Le logiciel a beau être gratuit, il faut néanmoins que les comptes atteignent un jour l’équilibre.

À l’opposé, lorsque Red Hat, de loin l’entreprise générant le plus de profits grâce à GNU/Linux, est née, en 1994, tout le monde savait que son but était de générer de l’argent grâce au système d’exploitation libre. Il n’y avait pas d’illusions. C’est pourquoi en 1997, lorsque j’ai pour la première fois entendu parler de GNU/Linux, la communauté du logiciel libre surnommait déjà Red Hat la « Microsoft » des distributions Linux !

Mais au fil des ans, Red Hat a acquis beaucoup de karma positif auprès de la communauté. Elle contribue largement au progrès de Linux en recrutant une bonne partie des développeurs contibuant au noyau. Elle finance des activités périphériques pour participer à la croissance de l’écosystème des logiciels libres.

Personne n’a dit le moindre mal d’Ubuntu à ses débuts. Mais à certains moments en cours de route, quand il s’agissait d’incorporer des fonctionnalités en vue de générer des revenus, les utilisateurs se sont dressés en masse. On ne peut pas leur en vouloir; ils avaient été amenés à croire que la communauté était primordiale et ils ont réagi.

Après quelques-unes de ces confrontations, Shuttleworth a levé le pied et poursuivi sur le chemin qu’il avait choisi. Il ne pouvait pas vraiment faire autrement, après les critiques d’abords douces puis amères soulevées par ses tentatives progressives d’introduire des fonctionnalités commerciales.

Les membres de la communeauté n’ont rien contre ceux qui gagnent de l’argent grâce à des logiciels libres. Patrick Volkerding, créateur et mainteneur principal de la distribution Slackware, est considéré par beaucoup comme un héros pour avoir toujours fourni à ses utilisateurs la distribution qu’ils voulaient. En retour, ces utilisateurs achètent tout ce qu’il produit pour qu’il gagne de l’argent et continue son travail. Et sa distribution est demeurée bénéficiaire la majeure partie de son existence.

Mais Shuttleworth a plus ou moins creusé sa propre tombe. Il aurait dû être clair quant au chemin qu’il allait prendre, clair à propos de son but, et faire attention à ce que son plan soit transparent. Une société basée sur GNU/Linux doit tracer son chemin différemment d’une société ordinaire ; peut être que Shuttleworth n’en avait pas conscience.

Quelle qu’en soit la raison, son manque de communication a abouti à ce qui s’est produit avec les résultats de recherche Amazon et ce qui s’en suivra. C’était la grosse erreur de Mark Shuttleworth.

Crédit photo : Stephen Walli (Creative Commons By-Sa)




Quand le politique se met au service du privé pour que le public arrête le libre !

« L’affaire OpenJustitia » qui se déroule actuellement en Suisse est un cas très intéressant.

Comme on peut le lire sur le site du projet, OpenJustitia est « un ensemble de logiciels spécifiques pour les tribunaux. Le Tribunal fédéral a développé ces derniers de sa propre main et les a personnalisés à ses propres besoins. OpenJustitia permet notamment une recherche efficace dans les décisions du tribunal. »

Il a donc été développé en interne et, comme son nom le suggère, il est libre (sous lience GNU GPL v3) et a d’ailleurs reçu un prix dernièrement aux CH Open Source Awards 2012.

OpenJustitia

Nous voici donc en présence d’un logiciel libre métier développé et mutualisé par l’administration. D’ailleurs le canton de Vaud a d’ores et déjà signé une convention de collaboration avec le Tribunal fédéral.

C’est exactement ce que prône en France une association comme l’ADULLACT avec la fameuse citation de son président François Elie : « l’argent public ne doit payer qu’une fois ».

Sauf qu’un parti politique (et derrière lui un éditeur de logiciels propriétaires) ne l’entendent pas de cette oreille, comme nous le rapporte l’ICTjournal.

Pour ce qui concerne l’éditeur, c’est (plus que) maladroit mais (malheureusement) compréhensible :

L’entreprise bernoise Weblaw, éditrice de logiciels de tribunaux propriétaires, estime que le Tribunal fédéral et sa solution font de l’ombre aux fournisseurs privés de logiciels. Le Tribunal fédéral doit-il s’occuper de droit ou de logiciels ?

Mais ce qui l’est moins c’est de voir l’UDC lui emboîter le pas et ne pas saisir l’intérêt, voire le bon sens, à utiliser du logiciel libre dans les institutions publiques :

Le Conseil fédéral doit examiner, à la demande de l’UDC, si le Tribunal fédéral a le droit de d’agir comme fournisseur du logiciel open-source Openjustitia. En agissant de la sorte, ce dernier délivrerait des services non liés à ses compétences judiciaires.

Il est « totalement absurde » que le Tribunal fédéral fonctionne comme distributeur de logiciels, a déclaré Martin Baltisser, secrétaire général de l’UDC. Selon lui, d’une part le Tribunal fédéral n’aurait aucun intérêt prépondérant à agir en tant que fournisseur de logiciels, d’autre part il serait également dépourvu de base légale. Selon la Constitution et la Loi sur les finances de la Confédération, l’Etat ne peut intervenir au niveau commercial uniquement s’il n’existe pas d’offre privée et qu’une loi l’y autorise. Le Tribunal fédéral réplique qu’il ne réalise «aucun service commercial», comme le projet est open source, le logiciel est mis à disposition gratuitement.

Comme on peut le voir ci-dessous, on en a même parlé le 20 octobre dernier à la RTS mais, triste classique, en occultant complètement le libre pour n’évoquer que le gratuit :

D’autres voix se font heureusement entendre, comme celle de l’élu des Verts François Marthaler qui conteste, à juste titre et avec vigueur, cette demande de clarification de l’UDC sur son blog :

Je veux bien croire que la situation économique de Weblaw soit menacée. Mais je ne peux pas imaginer que les pouvoirs publics se trouvent empêchés de développer des solutions plus performantes et surtout moins onéreuses, dans l’intérêt de tous les contribuables et du bon fonctionnement de l’Etat. Plus encore que les coûts du développement initial du logiciel, ce qui est en jeu, c’est la maintenance et l’évolution du système au profit de l’administration, des justiciables et, finalement, des contribuables.

Sans le dire, Weblaw s’attaque au modèle économique des logiciels libres (open source). Un modèle dans lequel le prestataire ne peut prétendre encaisser plus que la réelle valeur ajoutée au produit et pas une rente de situation. Que se serait-il passé si une société privée avait conçu le logiciel OpenJustitia et avait décidé de le mettre sous licence GNU/GPL ? Rien ! L’UDC n’aurait pas pu invoquer le « moins d’Etat » pour défendre les intérêts privés de cette petite société.

Espérons que comme le dit le dicton : les chiens aboient, la caravane passe…