Paul Ariès et le logiciel libre ont-ils des choses à se dire ?

Un internaute a eu l’idée de compiler les interventions de Paul Ariès (et uniquement celles-ci), lors de l’émission Ce soir ou jamais du 1er avril dernier consacrée à l’actualité économique : bouclier fiscal, taxe carbone. situation de la Grèce, etc. Vous trouverez cette vidéo à la fin du billet.

Montage oblige, il n’y a plus ni dialogue ni débat, et on mouche ainsi facilement l’autre invité qu’était Alain Madelin (ce qui, je le confesse, ne m’a pas dérangé). Mais j’ai néanmoins trouvé cela fort intéressant et parfois très proche de certains articles parus dans la rubrique « Hors-sujet ou presque » du Framablog, où il s’agit souvent, avec moult précautions, de voir un peu si le logiciel libre et sa culture sont solubles dans le politique, l’économique, l’écologique ou le social.

Paul Ariès était ainsi présenté sur le site de l’émission :

Paul Ariès est politologue, directeur du journal Le Sarkophage qui se veut un journal d’analyse critique de la politique de Nicolas Sarkozy, rédacteur au mensuel La Décroissance, collaborateur à Politis et organisateur du « Contre-Grenelle de l’Environnement ». Paul Ariès est considéré par ses adversaires comme par ses défenseurs comme « l’intellectuel de référence » du courant de la décroissance. Auteur d’une trentaine d’essais, il vient de publier « La simplicité volontaire contre le mythe de l’abondance » (La Découverte), et un pamphlet intitulé « Cohn Bendit, l’imposture » (Max Milo).

Extrait (autour de la 13e minute) :

On peut reprocher tout ce que l’on veut au système capitaliste et à cette société d’hyper-consommation, mais il faut reconnaître que c’est une société diablement efficace. Pourquoi ? Parce qu’elle sait susciter le désir et le rabattre ensuite sur la consommation de biens marchands. Or, comme le désir est illimité, on va désirer toujours plus de consommation.

Donc, si on veut être a la hauteur il ne s’agit pas de vouloir faire la même chose mais en moins. Il faut avoir un principe aussi fort à opposer. Et à mes yeux la seule chose aussi forte que l’on peut opposer au toujours plus, c’est la gratuité. Parce que la gratuité, on l’a chevillée au corps. C’est le souvenir du paradis perdu, c’est le sein maternel, c’est les relations amoureuses, amicales, associatives, c’est les services publics, c’est le bien commun.

Le bon combat pour les XXIe siècle, ce n’est pas de manifester pour l’augmentation du pouvoir d’achat, c’est de manifester pour la défense et l’extension de la sphère de la gratuité.

Sémantiquement parlant, on se méfie beaucoup sur ce blog et ailleurs de cette notion de « gratuité ». Alors j’ai eu envie d’en savoir plus et je suis tombé sur ce tout aussi intéressant article (issu du site du NPA) : La révolution par la gratuité de Paul Ariès.

Extrait :

Il ne peut y avoir de société de la gratuité sans culture de la gratuité, comme il n’existe pas de société marchande sans culture marchande. Les adversaires de la gratuité le disent beaucoup mieux que nous. John H. Exclusive est devenu aux Etats-Unis un des gourous de la pensée « anti-gratuité » en publiant Fuck them, they’re pirates (« Qu’ils aillent se faire foutre, ce sont des pirates »). Il y explique que le piratage existe parce que les enfants sont habitués à l’école à recopier des citations d’auteurs, à se prêter des disques, à regarder des vidéos ensemble, à emprunter gratuitement des livres dans les bibliothèques, etc. L’école (même américaine) ferait donc l’éducation à la gratuité.

Les milieux néoconservateurs proposent donc de développer une politique dite de la «gratuité-zéro» qui serait la réponse du pouvoir aux difficultés des industries « culturelles » confrontées au développement des échanges gratuits, via les systèmes « peer-to-peer ». La politique à promouvoir sera totalement à l’opposé et passera par la généralisation d’une culture de la (quasi)gratuité. Nous aurons besoin pour cela de nouvelles valeurs, de nouveaux rites, de nouveaux symboles, de nouvelles communications et technologies, etc. Puisque les objets sont ce qui médiatisent le rapport des humains à la nature quels devront être le nouveau type d’objets de la gratuité ?

L’invention d’une culture de la gratuité est donc un chantier considérable pour lequel nous avons besoin d’expérimenter des formules différentes mais on peut penser que l’école sera un relais essentiel pour développer une culture de la gratuité et apprendre le métier d’humain, et non plus celui de bon producteur et consommateur. Parions que la gratuité ayant des racines collectives et individuelles beaucoup plus profondes que la vénalité en cours, il ne faudrait pas très longtemps pour que raison et passion suivent…

Je ne sais pas ce que vous en penserez mais j’ai comme eu l’impression que l’auteur ignorait tout simplement l’existence du logiciel libre, qui n’est pas cité une seule fois dans ce long article.

Est-ce que la « gratuité » de Paul Ariès ne ressemble pas finalement à la « liberté » du logiciel libre (dont la gratuité n’est qu’une éventuelle conséquence) ? Cette liberté du logiciel libre n’est-elle pas plus forte, subversive, et au final plus pertinente et efficace pour étayer les arguments de Paul Ariès ?

Voici quelques unes des questions qui me sont donc venues en tête à la lecture du passage vidéo ci-dessous[1] :

—> La vidéo au format webm

Une vidéo qui fait écho, plus ou moins directement, aux billets suivants du Framablog :

Notes

[1] Merci à Dd pour la conversion de la vidéo au format Ogg sur Blip.tv.




La liberté contre les traces dans le nuage – Une interview d’Eben Moglen

SheevaPlugIl y a un peu plus d’une semaine Tristan Nitot évoquait sur son blog une « magnifique interview » du juriste Eben Moglen par le journaliste Glyn Moody (que nous connaissons bien sûr le Framablog, preuve en est qu’ils ont l’honneur de tags dédiés : Moglen et Moody).

C’est la traduction de l’intégralité de cette interview que nous vous proposons ci-dessous.

Pourquoi Nitot était-il si enthousiaste ? Parce qu’il est légitime de s’inquiéter chaque jour davantage du devenir de nos données personnelles captées par des Facebook et des Google. Mais la critique récurrente sans possibilités d’alternatives pousse au découragement.

Or, poursuit-il, cette interview propose « une ébauche de solution technique qui pourrait bien signer la fin du Minitel 2.0 ». Eben Moglen y explique « comment des petits ordinateurs comme le Sheevaplug (cf photo ci-contre) ou le Linutop 2 pourraient bien changer la donne en permettant la construction d’un réseau social distribué (ou a-centré) dont chacun pourrait contrôler un bout et surtout contrôler son niveau de participation ».

Et Tristan de conclure de manière cinglante : « l’identité en ligne, la liste de nos relations, les archives de nos messages échangés sont bien trop précieuses pour être confiées à quelconque organisation privée, quelle qu’elle soit ».

La décennie « Microsoft » qui s’achève nous aura vu essayer, avec plus ou moins de succès, d’empêcher le contrôle de nos ordinateurs personnels, en y substituant du logiciel propriétaire par du logiciel libre.

La décennie « Google » qui s’annonce risque fort d’être celle des tentatives pour empêcher le contrôle d’Internet, en ne laissant plus nos données personnelles sur des serveurs privés mais sur nos propres serveurs personnels.

Remarque : à propos d’Eben Moglen, nous vous rappelons l’existence d’une conférence que nous considérons parmi les plus importantes jamais présentées par la communauté du Libre.

Une interview d’Eben Moglen – La liberté contre les données dans le nuage

Interview: Eben Moglen – Freedom vs. The Cloud Log

Eben Moglen interviewé par Glyn Moody – 17 mars 2010 – The H
(Traduction Framalang : Goofy, Simon Descarpentries et Barbidule)

Le logiciel libre a gagné : presque tous les poids lourds du Web les plus en vue comme Google, Facebook et Twitter, fonctionnent grâce à lui. Mais celui-ci risque aussi de perdre la partie, car ces mêmes services représentent aujourd’hui une sérieuse menace pour notre liberté, en raison de l’énorme masse d’informations qu’ils détiennent sur nous, et de la surveillance approfondie que cela implique.

Eben Moglen est sûrement mieux placé que quiconque pour savoir quels sont les enjeux. Il a été le principal conseiller juridique de la Free Software Foundation pendant 13 ans, et il a contribué à plusieurs versions préparatoires de la licence GNU GPL. Tout en étant professeur de droit à l’école de droit de Columbia, il a été le directeur fondateur du Software Freedom Law Center (Centre Juridique du Logiciel Libre). Le voici aujourd’hui avec un projet ambitieux pour nous préserver des entreprises de services en ligne qui, bien que séduisantes, menacent nos libertés. Il a expliqué ce problème à Glyn Moody, et comment nous pouvons y remédier.

Glyn Moody : Quelle est donc cette menace à laquelle vous faites face ?

Eben Moglen : Nous sommes face à une sorte de dilemme social qui vient d’une dérive dans la conception de fond. Nous avions un Internet conçu autour de la notion de parité – des machines sans relation hiérarchique entre elles, et sans garanties quant à leur architectures internes et leur comportements, mises en communication par une série de règles qui permettaient à des réseaux hétérogènes d’être interconnectés sur le principe admis de l’égalité de tous.

Sur le Web, les problèmes de société engendrés par le modèle client-serveur viennent de ce que les serveurs conservent dans leur journaux de connexion (logs) les traces de toute activité humaine sur le Web, et que ces journaux peuvent être centralisés sur des serveurs sous contrôle hiérarchisé. Ces traces deviennent le pouvoir. À l’exception des moteurs de recherche, que personne ne sait encore décentraliser efficacement, quasiment aucun autre service ne repose vraiment sur un modèle hiérarchisé. Ils reposent en fait sur le Web – c’est-à-dire le modèle de pair-à-pair non hiérarchisé créé par Tim Berners-Lee, et qui est aujourd’hui la structure de données dominante dans notre monde.

Les services sont centralisés dans un but commercial. Le pouvoir des traces est monnayable, parce qu’elles fournissent un moyen de surveillance qui est intéressant autant pour le commerce que pour le contrôle social exercé par les gouvernements. Si bien que le Web, avec des services fournis suivant une architecture de base client-serveur, devient un outil de surveillance autant qu’un prestataire de services supplémentaires. Et la surveillance devient le service masqué, caché au cœur de tous les services gratuits.

Le nuage est le nom vernaculaire que nous donnons à une amélioration importante du Web côté serveur – le serveur, décentralisé. Au lieu d’être une petite boîte d’acier, c’est un périphérique digital qui peut être en train de fonctionner n’importe où. Ce qui signifie que dans tous les cas, les serveurs cessent d’être soumis à un contrôle légal significatif. Ils n’opèrent plus d’une manière politiquement orientée, car ils ne sont plus en métal, sujets aux orientations localisées des lois. Dans un monde de prestation de services virtuels, le serveur qui assure le service, et donc le journal qui provient du service de surveillance induit, peut être transporté sur n’importe quel domaine à n’importe quel moment, et débarrassé de toute obligation légale presque aussi librement.

C’est la pire des conséquences.

GM : Est-ce qu’un autre facteur déclenchant de ce phénomène n’a pas été la monétisation d’Internet, qui a transféré le pouvoir à une entreprise fournissant des services aux consommateurs ?

EM : C’est tout à fait exact. Le capitalisme a aussi son plan d’architecte, qu’il rechigne à abandonner. En fait, ce que le réseau impose surtout au capitalisme, c’est de l’obliger à reconsidérer son architecture par un processus social que nous baptisons bien maladroitement dés-intermédiation. Ce qui correspond vraiment à la description d’un réseau qui contraint le capitalisme à changer son mode de fonctionnement. Mais les résistances à ce mouvement sont nombreuses, et ce qui nous intéresse tous énormément, je suppose, quand nous voyons l’ascension de Google vers une position prééminente, c’est la façon dont Google se comporte ou non (les deux à la fois d’ailleurs) à la manière de Microsoft dans sa phase de croissance. Ce sont ces sortes de tentations qui s’imposent à vous lorsque vous croissez au point de devenir le plus grand organisme d’un écosystème.

GM : Pensez-vous que le logiciel libre a réagi un peu lentement face au problème que vous soulevez ?

EM : Oui, je crois que c’est vrai. Je pense que c’est difficile conceptuellement, et dans une large mesure cette difficulté vient de ce que nous vivons un changement de génération. À la suite d’une conférence que j’ai donnée récemment, une jeune femme s’est approchée et m’a dit : « j’ai 23 ans, et aucun de mes amis ne s’inquiète de la protection de sa vie privée ». Eh bien voilà un autre paramètre important, n’est-ce pas ? – parce que nous faisons des logiciels aujourd’hui en utilisant toute l’énergie et les neurones de gens qui ont grandi dans un monde qui a déjà été touché par tout cela. Richard et moi pouvons avoir l’air un peu vieux jeu.

GM : Et donc quelle est la solution que vous proposez ?

EM : Si nous avions une classification des services qui soit véritablement défendable intellectuellement, nous nous rendrions compte qu’un grand nombre d’entre eux qui sont aujourd’hui hautement centralisés, et qui représentent une part importante de la surveillance contenue dans la société vers laquelle nous nous dirigeons, sont en fait des services qui n’exigent pas une centralisation pour être technologiquement viables. En réalité ils proposent juste le Web dans un nouvel emballage.

Les applications de réseaux sociaux en sont l’exemple le plus flagrant. Elles s’appuient, dans leurs métaphores élémentaires de fonctionnement, sur une relation bilatérale appelée amitié, et sur ses conséquences multilatérales. Et elles sont complètement façonnées autour de structures du Web déjà existantes. Facebook c’est un hébergement Web gratuit avec des gadgets en php et des APIs, et un espionnage permanent – pas vraiment une offre imbattable.

Voici donc ce que je propose : si nous pouvions désagréger les journaux de connexion, tout en procurant aux gens les mêmes fonctionnalités, nous atteindrions une situation Pareto-supérieure. Tout le monde – sauf M. Zuckerberg peut-être – s’en porterait mieux, et personne n’en serait victime. Et nous pouvons le faire en utilisant ce qui existe déjà.

Le meilleur matériel est la SheevaPlug, un serveur ultra-léger, à base de processeur ARM (basse consommation), à brancher sur une prise murale. Un appareil qui peut être vendu à tous, une fois pour toutes et pour un prix modique ; les gens le ramènent à la maison, le branchent sur une prise électrique, puis sur une prise réseau, et c’est parti. Il s’installe, se configure via votre navigateur Web, ou n’importe quelle machine disponible au logis, et puis il va chercher toutes les données de vos réseaux sociaux en ligne, et peut fermer vos comptes. Il fait de lui-même une sauvegarde chiffrée vers les prises de vos amis, si bien que chacun est sécurisé de façon optimale, disposant d’une version protégée de ses données chez ses amis.

Et il se met à faire toutes les opérations que nous estimons nécessaires avec une application de réseau social. Il lit les flux, il s’occupe du mur sur lequel écrivent vos amis – il rend toutes les fonctionnalités compatibles avec ce dont vous avez l’habitude.

Mais le journal de connexion est chez vous, et dans la société à laquelle j’appartiens au moins, nous avons encore quelques vestiges de règles qui encadrent l’accès au domicile privé : si des gens veulent accéder au journal de connexion ils doivent avoir une commission rogatoire. En fait, dans chaque société, le domicile privé de quelqu’un est presque aussi sacré qu’il peut l’être.

Et donc, ce que je propose basiquement, c’est que nous construisions un environnement de réseau social reposant sur les logiciels libres dont nous disposons, qui sont d’ailleurs déjà les logiciels utilisés dans la partie serveur des réseaux sociaux; et que nous nous équipions d’un appareil qui inclura une distribution libre dont chacun pourra faire tout ce qu’il veut, et du matériel bon marché qui conquerra le monde entier que nous l’utilisions pour ça ou non, parce qu’il a un aspect et des fonctions tout à fait séduisantes pour son prix.

Nous prenons ces deux éléments, nous les associons, et nous offrons aussi un certain nombre d’autres choses qui sont bonnes pour le monde entier. Par exemple, pouvoir relier automatiquement chaque petit réseau personnel par VPN depuis mon portable où que je sois, ce qui me procurera des proxies chiffrés avec lesquels mes recherches sur le Web ne pourront pas être espionnées. Cela signifie que nous aurons des masses d’ordinateurs disponibles pour ceux qui vivent en Chine ou dans d’autres endroits du monde qui subissent de mauvaises pratiques. Ainsi nous pourrons augmenter massivement l’accès à la navigation libre pour tous les autres dans le monde. Si nous voulons offrir aux gens la possibilité de profiter d’une navigation anonymisée par un routage en oignon, c’est avec ce dispositif que nous le ferons, de telle sorte qu’il y ait une possibilité crédible d’avoir de bonnes performances dans le domaine.

Bien entendu, nous fournirons également aux gens un service de courriels chiffrés – permettant de ne pas mettre leur courrier sur une machine de Google, mais dans leur propre maison, où il sera chiffré, sauvegardé chez tous les amis et ainsi de suite. D’ailleurs à très long terme nous pourrons commencer à ramener les courriels vers une situation où, sans être un moyen de communication privée, ils cesseront d’être des cartes postales quotidiennes aux services secrets.

Nous voudrions donc aussi frapper un grand coup pour faire avancer de façon significative les libertés fondamentales numériques, ce qui ne se fera pas sans un minimum de technicité.

GM : Comment allez-vous organiser et financer un tel projet, et qui va s’en occuper ?

EM : Avons-nous besoin d’argent ? Bien sûr, mais de petites sommes. Avons-nous besoin d’organisation ? Bien sûr, mais il est possible de s’auto-organiser. Vais-je aborder ce sujet au DEF CON cet été, à l’Université de Columbia ? Oui. Est-ce que M. Shuttleworth pourrait le faire s’il le voulait ? Oui encore. Ça ne va pas se faire d’un coup de baguette magique, ça se fera de la manière habituelle : quelqu’un va commencer à triturer une Debian ou une Ubuntu ou une autre distribution, et va écrire du code pour configurer tout ça, y mettre un peu de colle et deux doigts de Python pour que ça tienne ensemble. D’un point de vue quasi capitaliste, je ne pense pas que ce soit un produit invendable. En fait, c’est un produit phare, et nous devrions en tout et pour tout y consacrer juste un peu de temps pour la bonne cause jusqu’à ce que soit au point.

GM : Comment allez-vous surmonter les problèmes de masse critique qui font qu’on a du mal à convaincre les gens d’adopter un nouveau service ?

EM : C’est pour cela que la volonté constante de fournir des services de réseaux sociaux interopérables est fondamentale.

Pour le moment, j’ai l’impression que pendant que nous avancerons sur ce projet, il restera obscur un bon moment. Les gens découvriront ensuite qu’on leur propose la portabilité de leur réseau social. Les entreprises qui gèrent les réseaux sociaux laissent en friche les possibilités de leurs propres réseaux parce que tout le monde veut passer devant M. Zuckerberg avant qu’il fasse son introduction en bourse. Et c’est ainsi qu’ils nous rendront service, parce qu’ils rendront de plus en plus facile de réaliser ce que notre boîte devra faire, c’est-à-dire se connecter pour vous, rapatrier toutes vos données personnelles, conserver votre réseau d’amis, et offrir tout ce que les services existants devraient faire.

C’est comme cela en partie que nous inciterons les gens à l’utiliser et que nous approcherons la masse critique. D’abord, c’est cool. Ensuite, il y a des gens qui ne veulent pas qu’on espionne leur vie privée. Et puis il y a ceux qui veulent faire quelque chose à propos de la grande e-muraille de Chine, et qui ne savent pas comment faire. En d’autres termes, je pense qu’il trouvera sa place dans un marché de niches, comme beaucoup d’autres produits.

GM : Alors que le marché des mobiles est en train de décoller dans les pays émergents, est-ce qu’il ne vaudrait pas mieux demander aux téléphones portables de fournir ces services ?

EM : Sur le long terme, il existe deux endroits où vous pouvez raisonnablement penser stocker votre identité numérique : l’un est l’endroit où vous vivez, l’autre est dans votre poche. Et un service qui ne serait pas disponible pour ces deux endroits à la fois n’est probablement pas un dispositif adapté.

A la question « pourquoi ne pas mettre notre serveur d’identité sur notre téléphone mobile ? », ce que je voudrais répondre c’est que nos mobiles sont très vulnérables. Dans la plupart des pays du monde, vous interpellez un type dans la rue, vous le mettez en état d’arrestation pour un motif quelconque, vous le conduisez au poste, vous copiez les données de son téléphone portable, vous lui rendez l’appareil, et vous l’avez eu.

Quand nous aurons pleinement domestiqué cette technologie pour appareils nomades, alors nous pourrons commencer à faire l’inverse de ce que font les opérateurs de réseaux. Leur activité sur la planète consiste à dévorer de d’Internet, et à excréter du réseau propriétaire. Ils devront faire l’inverse si la technologie de la téléphonie devient libre. Nous pourrons dévorer les réseaux propriétaires et essaimer l’Internet public. Et si nous y parvenons, la lutte d’influence va devenir bien plus intéressante.




Politique et Logiciel Libre : Europe Écologie loin devant tous les autres ?

Le 15 juin 2009 Daniel Cohn-Bendit publiait une tribune dans Le Monde au titre étonnant : Faisons passer la politique du système propriétaire à celui du logiciel libre.

Il récidive aujourd’hui dans Libération en profitant du clin d’œil historique que lui offre la date du 22 mars, pour lancer un nouvel appel au lendemain des élections régionales : Changer la politique pour changer de politique.

Extraits :

Le mouvement politique que nous devons construire ne peut s’apparenter à un parti traditionnel. Les enjeux du 21e siècle appellent à une métamorphose, à un réagencement de la forme même du politique. La démocratie exige une organisation qui respecte la pluralité et la singularité de ses composantes. Une biodiversité sociale et culturelle, directement animée par la vitalité de ses expériences et de ses idées. Nous avons besoin d’un mode d’organisation politique qui pense et mène la transformation sociale, en phase avec la société de la connaissance.

J’imagine une organisation pollinisatrice, qui butine les idées, les transporte et féconde d’autres parties du corps social avec ces idées. En pratique, la politique actuelle a exproprié les citoyens en les dépossédant de la Cité, au nom du rationalisme technocratique ou de l’émotion populiste. Il est nécessaire de « repolitiser » la société civile en même temps que de « civiliser » la société politique et faire passer la politique du système propriétaire à celui du logiciel libre.

(…) Ni parti-machine, ni parti-entreprise, je préférerais que nous inventions ensemble une « Coopérative politique » – c’est à dire une structure capable de produire du sens et de transmettre du sens politique et des décisions stratégiques. J’y vois le moyen de garantir à chacun la propriété commune du mouvement et la mutualisation de ses bénéfices politiques, le moyen de redonner du sens à l’engagement et à la réflexion politique.

(…) Encore une fois, l’important est moins d’où nous venons, mais où nous voulons aller, ensemble. C’est l’esprit même du rassemblement qui a fait notre force, cette volonté de construire un bien commun alternatif.

Ajoutez à cela le fait que parmi les signataires du Pacte du logiciel libre de l’April, près de la moitié sont d’Europe Écologie, dont on notera l’existence des groupes Culture et logiciels libres et Accès aux Savoirs / Propriété Intellectuelle, et vous obtenez selon moi un mouvement politique loin devant tous les autres en France actuellement pour ce qui concerne le logiciel libre et sa culture.

Tellement loin qu’à mon humble avis il « tue dans l’œuf » l’émergence d’un Parti Pirate national. Et pour appuyer mes dires, je vous propose reproduit ci-dessous un article fort intéressant issu justement du site d’Europe Écologie.

Et je le reproduis d’autant plus facilement que l’ensemble du site est sous licence libre Creative Commons By-Sa !

Je précise que je ne suis pas d’Europe Écologie (ni d’un autre parti d’ailleurs) et que je ne demande qu’à être contredit dans les commentaires 😉

De la propriété intellectuelle vers l’accès aux savoirs

URL d’origine du document

Gaelle Krikorian – 5 novembre 2009 – Europe Écologie

Quel est le point commun entre un réseau de malades du sida thaïlandais, des militants pour la réduction des émissions polluantes suédois, des mobilisations d’internautes en France, des manifestations de fermiers indiens, d’associations de mal-voyants américains, de producteurs de coton kenyans, ou l’appel d’un philosophe argentin poursuivit en justice. Tous sont parties prenantes d’au moins un des conflits qui ont émergé depuis une dizaine d’années et mettent en question le système actuel de protection de la propriété intellectuelle.

La question de l’accès aux médicaments génériques dans les pays en développement a sans doute été l’une des revendications les plus visibles tant auprès du grand public que dans les sphères politiques. Elle a donné lieu à une forte mobilisation internationale. Mais en dépit d’avancées symboliques dans le cadre de l’Organisation Mondiale du Commerce (OMC), les malades des pays en développement restent globalement écartés de l’accès aux médicaments contre nombre de maladies, infectieuses (sida, hépatites, etc.) ou non-infectieuses (cancer, maladies cardio-vasculaire, etc.).

Parallèlement à ces inégalités d’accès, il est devenu de plus en plus évident que le bénéfice social escompté de l’application de la protection de la propriété intellectuelle –constituer une incitation et un moteur à la recherche médicale– était de moins en moins garanti. Dans le même temps, le cloisonnement de la connaissance par l’instauration de monopoles et la culture du secret, la restriction de ce qui appartient au domaine public ou relève d’un savoir commun, la limitation ou la disparition des exceptions qui permettent de faire prévaloir le droit des individus ou l’intérêt des sociétés, entravent la recherche et à l’innovation. Concrètement, les innovations réelles se font de plus en plus rares et de vastes domaines de recherche sont ignorés parce qu’ils n’ouvrent pas sur des opportunités financières jugées suffisantes. Ces échecs motivent débats et réflexions (par exemple au sein de l’OMS, de l’OMPI ou de différents Parlements) afin de permettre, grâce à divers mécanismes (la création de prix à l’innovation, de fonds internationaux, de traités internationaux pour la recherche, etc.), le financement d’une recherche adaptée aux besoins des différentes populations (du Nord et du Sud) sans compromettre l’accès de ses fruits au plus grand nombre.

En termes d’accès, ce qui vaut pour les médicaments s’applique à toutes sortes d’autres produits de la connaissance : logiciels, bases de données, musiques, films, livres (et notamment l’édition scolaire). L’accès à un libre flux d’idées ou d’informations est essentiel au développement de n’importe quel pays. Or, l’inégalité d’accès à l’éducation, aux connaissances et aux technologies est une réalité qui s’exacerbe avec l’accroissement des inégalités sociales dans le monde. Elle compromet la participation des populations à la production de savoirs nouveaux et donc exclut et entretient l’exclusion d’une partie importante de la population mondiale de la « société de l’information».

Dans le domaine du logiciel, la protection de la propriété intellectuelle qu’elle soit opérée par le biais d’outils juridiques ou de moyens techniques tend à interdire la reproduction, et par extension refreine la création en limitant les usages et les échanges. Alors que le logiciel n’entre en principe pas dans le champ du droit du brevet en Europe, l’Office européen accorde des brevets pour des logiciels. Ainsi, la même dynamique que dans la recherche médicale se met en place. Contrevenant aux principes de non exclusion et de non appropriation, qui caractérise les biens immatériels, les systèmes de protection en place favorisent les comportements opportunistes d’appropriation à des fins privées qui peuvent affecter la création, le développement et la diffusion d’un produit ou d’un service donné.

Ces réflexions émergent actuellement à propos de la lutte contre le changement climatique. À l’instar de la nécessité de développer des technologies moins polluantes ou non polluantes, le transfert de technologie est indispensable pour que les pays en développement puissent mettre en place des politiques industrielles, énergétiques et agricoles qui limitent la croissance de leurs émissions, puis la réduise. L’UNFCCC et le Protocole de Kyoto encouragent le transfert de technologie, comme avant eux les accords de l’OMC et de nombreux traités internationaux. Dans les faits pourtant, qu’il s’agisse de technologies non polluantes ou de technologies d’une toute autre nature, les transferts de technologies sont extrêmement limités entre pays industrialisés et pays en développement, et la propriété intellectuelle représente souvent un véritable obstacle. C’est pourquoi, dans le cadre des négociations pour le traité de Copenhague, les pays en développement revendiquent notamment l’application du droit à suspendre la propriété intellectuelle lorsque cela est nécessaire.

Le système actuel de propriété intellectuelle entraîne et entretient ainsi des discriminations fortes entre pays, entre classes d’individus, ou entre individus. Certaines populations, comme les aveugles et mal-voyants, sont en raison de handicaps particuliers plus exposées aux inégalités que crée le système de protection de la propriété intellectuelle. Dans le même temps, ces situations particulières soulèvent des problèmes ou dysfonctionnements qui concernent également d’autres catégories de populations.

Les discriminations produites par le système de propriété intellectuelle touchent d’autant plus de monde que le champs de ce qui est concerné par la propriété intellectuelle s’étend ––au vivant par exemple. En Inde, comme dans un certain nombre de pays en développement, des agriculteurs se sont mobilisés contre les droits privés sur les semences et le vivant en général et contre la biopiraterie qui permettent à une dizaine de firmes multinationales (comme Monsanto, Syngenta, Bayer and Dow Chemical) de devenir progressivement propriétaire de la biodiversité pourtant nécessaire à la sécurité alimentaire des populations des pays en développement.


Le terme de propriété intellectuelle a été créé et son utilisation s’est répandue à partir du milieu des années 1960. Il suggère une analogie avec la propriété physique qui a progressivement conduit le législateur à aborder brevets, marques et droits d’auteur comme s’il s’agissait d’objets physiques. Réussir à imposer ce terme a signé le succès de l’offensive stratégique menée par les détenteurs de droits – industries pharmaceutiques, industries du divertissement et de la culture. La construction même du terme est en soit une entreprise idéologique favorisant le renforcement des droits de certains ou de certains types de droits. Il s’agit tout à la fois d’élargir le champ de ce que l’on protège, en rognant de plus en plus sur le domaine public, d’allonger la durée des protections tout en inventant de nouvelles formes de monopoles (exclusivité des données, etc.).

Le mouvement lancé par les détenteurs de droits exclusifs depuis la fin des années 1970 n’a eu de cesse de complexifier un système qui se montre à la fois de plus en plus englobant et de plus en plus rigide. La stratégie menée conjointement par les pouvoirs publics et les détenteurs de droits est globalement, à l’image de la nouvelle loi Hadopi en France, de renforcer l’arsenal juridique tout en développant la répression des comportements. La répression du téléchargement est l’un des exemples les plus emblématiques de l’ampleur nouvelle qu’a pris cette tendance dans les pays riches. Ainsi en France un usager du peer-to-peer a récemment été condamné à 10 000 € d’amende. La répression s’exerce dans de nombreux pays sous de nombreuses formes : descentes policières contre les vendeurs de rues (présents de Manille à New York), confiscation d’ordinateur aux frontières, saisie de médicaments par les douanes, action en justice contre des professeurs trop zélés dans leur mission d’éducation et de démocratisation du savoir.

Ce système concourt à limiter l’accès à de nombreux produits dont des produits de santé vitaux. Il renforce les inégalités d’accès aux connaissances et aux savoirs, ce qui nuit au développement et à la cohésion sociale. Par les déséquilibres qu’il établit entre droits des détenteurs de brevets et droits des individus ou des sociétés, il est responsable du développement de pratiques anticoncurrentielles qui imposent des dépenses injustifiées aux individus comme aux sociétés. Alors qu’il est en théorie au service de la création, il renforce ou au minimum ignore les obstacles croissants que rencontrent les auteurs, artistes et inventeurs pour la création et l’innovation dérivée, tandis que les mécanismes supposés rémunérer les individus et communautés créatives, mais qui sont dans les faits inefficaces et injustes pour les créateurs comme pour les consommateurs, perdurent. En favorisant la concentration et le contrôle de la « propriété intellectuelle », il nuit au développement, à la diversité culturelle et au fonctionnement démocratique des institutions et des sociétés. Les mesures techniques destinées à forcer l’exécution des droits de propriété menacent les exceptions fondamentales sur les droits d’auteur qui bénéficient aux personnes atteintes de handicaps, aux bibliothèques, aux éducateurs, aux auteurs et consommateurs, tandis qu’elles mettent en danger la protection des données personnelles et les libertés. D’une façon générale, on peut s’interroger sur la légitimité de l’exclusivité lorsque celle-ci contrevient au droit à l’information, favorise le monopole privé sur le savoir et le patrimoine commun de l’humanité, niant ainsi l’utilité sociale du partage et le caractère relationnel de la création et limitant l’économie du savoir au bénéfice d’une partie limitée de la population mondiale.

De nouveaux modes de production et de nouveaux modèles industriels émergent avec les technologies digitales et l’Internet. Ceci affecte la création, la fabrication, la circulation et la valorisation des produits et services issus de la connaissance. Se pose la question de savoir comment ces évolutions s’opèrent, par quels principes elles sont guidées, si elles accroissent ou au contraire peuvent réduire les inégalités, quelle place elles font au non marchand, quels domaines elles lui confient, comment se redessinent les échanges au cœur même du système marchand. Pour l’heure, les nouvelles formes de production, de travail et de collaboration, plus propices à la création dans l’environnement digitale et avec l’Internet sont freinées par le modèle qui repose sur la protection toujours accrue des droits de propriété intellectuelle et d’une façon générale au modèle propriétaire qui est appliqué. Elles mettent en évidence le caractère absurde et obsolète du système en place, autant qu’elles se heurtent à son inflexibilité et ses tendances jusqu’au-boutistes.

Les conflits actuels sur la propriété intellectuelle et les mobilisations autour de « l’accès aux savoirs » qui ont émergé ces 10 dernières années attestent de l’intérêt d’une approche qui privilégie la notion de « l’accès » comme enjeu de revendications. Pratiquement, de nombreuses réflexions ont lieu sur le développement d’alternatives pratiques au modèle actuel qui soient à la fois moins excluant, plus juste et plus efficace – nouveaux modèles de financement, de répartition, de rémunération, de collaboration et de partage, etc. Ces mobilisations nous proposent, au travers du prisme de l’accès, de penser les problèmes différemment pour traduire les conflits sous des formes politiques mais aussi pour penser de solutions nouvelles.

La question de l’accès aux savoirs est une question centrale pour toute politique de transformation écologique et sociale. Elle est déterminante à l’émancipation des personnes. Elle est essentielle pour préserver la biodiversité et éviter les prédations commerciales. Elle est fondamentale à la richesse de l’innovation et aux transferts de technologies indispensables pour répondre aux crises et assurer le développement des sociétés.

Lectures connexes sur le Framablog




Mark Shuttleworth d’Ubuntu n’est pas motivé par la haine de Microsoft

Ubuntu - Nouveau LogoC’est non seulement une habitude mais l’une des nombreuses originalités de la célèbre distribution GNU/Linux : tous les six mois Ubuntu sort sa nouvelle version, qui, faisant de plus en plus d’adeptes, est logiquement de plus en plus attendue.

La prochaine version 10.04 LTS[1] se prénomme Lucid Lynx et est prévue pour le mois prochain. Elle promet beaucoup. Mais elle promet aussi d’être l’amie des trolls 😉

Il faut dire que lorsque l’on occupe la place enviée et reconnue qui est la sienne dans la communauté (notoriété grand public incluse), on s’expose inévitablement à des critiques. Mais il faut également reconnaître qu’un certain nombre d’annonces récentes ont pu parfois jeter le trouble, en particulier chez ceux qui sont moins attachés à l’open source qu’au logiciel libre.

De là à craindre que Canonical, la société créée par Mark Shuttleworth pour développer et soutenir Ubuntu, se transforme en une sorte de nouveau Microsoft, il n’y a qu’un pas que nous ne franchirons certainement pas.

Se contentant de lister quelque éléments selon lui sujets à caution, c’est un pas que n’a cependant pas hésité à franchir un dénommé Alan Lord sur son blog, dans un court et lapidaire billet intitulé explicitement Is Canonical Becoming The New Microsoft?[2].

Et cela n’a évidemment pas loupé, le billet a généré très rapidement une centaine de commentaires divers et variés, nécessairement orientés par ce titre choc.

Le journaliste Sam Varghese a alors jugé bon de contacter Mark Shuttleworth pour avoir son avis dans un article publié sur le site iTWire que vous proposons traduit ci-dessous[3].

PS : Notons que dans l’intervalle, Ubuntu a également révélé sa nouvelle charte graphique et son nouveau logo (ci-dessus). Personnellement j’aime bien, même si je note la disparition apparente du slogan « Linux for Human Beings », qui était peut-être maladroit mais avait le mérite d’évoquer Linux. La confusion entre les deux ou l’aspiration de l’un par l’autre risquent de se faire plus grande encore.

Mark Shuttleworth : « Ma motivation, ce n’est pas la haine de Microsoft. »

I’m not driven by Microsoft hatred: Shuttleworth

Sam Varghese – 15 février 2010 – iTWire
(Traduction Framalang : Don Rico et Simon Descarpentries)

Mark Shuttleworth, fondateur et directeur général de la société Canonical, déclare que s’il a créé sa distribution GNU/Linux Ubuntu, ce n’est en aucun cas par animosité envers Microsoft.

Il a répondu aux questions d’ITWire concernant un récent billet de blog dont l’auteur accusait Canonical de devenir le nouveau Microsoft.

« J’admire plusieurs des accomplissements de Microsoft. J’estime qu’il est tout aussi détestable de diaboliser les employés d’une entreprise que des gens pour leur couleur de peau, leur nationalité ou toute autre particularité » explique Shuttleworth.

« Microsoft se livre toutefois à d’inacceptables abus de position dominante, et je suis fier qu’Ubuntu offre au monde un réel choix entre la servitude continue et la liberté utile, sûre et authentique. »

« Cela dit, mon rôle n’est pas de punir Microsoft, ni de les haïr ; je suis là pour proposer une meilleure voie, si je le peux. Ce sera dur, mais nous le pouvons. Et, dans les cas où nous partageons une cause commune, je travaille volontiers avec Microsoft. Il est possible que ce soit difficile à concevoir pour ceux qui pensent que la vie est plus facile à appréhender si on a un ennemi pour justifier sa cause, mais à mon sens ce comportement conduit au sectarisme, nuit aux résultats et nous empêche de corriger les erreurs du passé. »

Dans son billet, l’auteur énumérait les raisons pour lesquelles Ubuntu devenait d’après lui le nouveau Microsoft : l’intégration de Mono par défaut, la création d’Ubuntu One (un outil propriétaire de stockage en ligne), le retrait de GIMP et d’autres logiciels de la distribution, le passage à Yahoo! comme moteur de recherche par défaut, une enquête visant à savoir quelles applications propriétaires devaient être incluses dans les dépôts d’Ubuntu, et enfin, la nomination de Matt Asay au poste de PDG.

Sans entrer dans les détails concernant chacun de ces points, Shuttleworth indique cependant que « toutes les questions abordées dans le billet que vous mentionnez ont été consciencieusement débattues sur des forums publics. Les gens de chez Canonical et les animateurs de la communauté Ubuntu y ont, je crois, présenté nos intentions sans faux-semblant. »

« Chacune de nos décisions affectant nos utilisateurs auront leurs détracteurs et leur partisans, » a-t-il ajouté, « mais c’est notre volonté de maintenir le cap face au changement qui confère à notre plateforme son dynamisme et sa pertinence, et nous ne nous soustrairons pas à cette responsabilité. »

Shuttleworth explique que son objectif personnel, ainsi que celui de tous ses collaborateurs chez Canonical, est d’apporter les avantages du logiciel libre au plus grand nombre. « C’est ce qui est au cœur de notre motivation, et à maintes reprises nous avons dû employer des chemins détournés pour rester cohérents avec ce principe. »

Il précise que la grande majorité du travail produit par Canonical est mis à la disposition de tous sous licence libre. « Y compris des éléments de nature éminemment stratégique, tel que Launchpad, qui est publié sous une licence compatible avec les réflexions les plus récentes concernant les services internet libres. Nos réalisations propriétaires n’impliquent jamais qu’il faille installer des outils fermés de Canonical dans Ubuntu, se limitent à des services réseau, permettent de promouvoir tout le reste, et restent totalement optionnelles pour les utilisateurs d’Ubuntu. C’est une pratique que l’on retrouve sur d’autres plateformes. »

En conclusion, Mark Shuttleworth affirme être très fier de ce qu’apporte Canonical à la communauté du logiciel libre. « Si nous rencontrons autant de succès que je le souhaite, alors le monde aura pour la première fois une plateforme de qualité professionnelle disponible gratuitement pour tous. Ce qui n’est pas le cas avec les acteurs dominants du marché Linux. Je me consacre corps et âme à ce but, et j’apprécie énormément de partager cette cause avec des milliers d’autres au sein de la communauté Ubuntu. »

« Travailler en partenariat avec Yahoo! n’a jamais, à ma connaissance, induit la moindre négociation avec Microsoft. Et nous n’accepterons pas les conditions de Microsoft en matière de licence de propriété intellectuelle, comme le fit Novell. En revanche, si nous pouvons collaborer de façon constructive avec Microsoft, Oracle ou IBM, lesquels incluent une grande quantité de code propriétaire dans leurs produits, il est certain que nous nous engagerons de façon ouverte et de bonne foi. Je suis convaincu que nous le ferons avec le soutien sans faille des responsables de la communauté Ubuntu. »

Notes

[1] Une version LTS (pour « Long Term Support ») garantit aux utilisateurs, constructeurs et assembleurs, une maintenance et un suivi sur plusieurs années.

[2] On notera qu’Alan Lord a fait depuis amende honorable.

[3] Edit : Alan Lord est intervenu dans les commentaires ci-dessous, en nous signalant notamment la mise au point suivante concernant l’article du journaliste : Sam Varghese Got It Wrong?.




Ne pas entrer à reculons dans la société et l’économie numériques

Tibchris - CC by« Il est possible de rémunérer les auteurs, de payer le juste prix et de ne pas payer ce qui est devenu gratuit. Et il est important de cesser d’entrer à reculons dans la société et l’économie numériques. »

Telle est la conclusion de Gratuité et prix de l’immatériel, le nouvel article de Jean-Pierre Archambault que nous vous proposons aujourd’hui. Il n’apporte fondamentalement rien de plus que ce que tout lecteur du Framablog connaissait déjà. Mais l’agencement des faits, la pertinence des exemples et l’enchaînement des arguments en font une excellente synthèse en direction du grand public. Á lire et à faire lire donc[1].

Je ne résiste d’ailleurs pas à vous recopier d’emblée cette petite fiction que l’on trouvera dans le paragraphe en faveur de la licence globale, histoire de vous mettre l’eau à la bouche : « Supposons que, dans le monde physique, ait été inventée une technologie miracle qui permette de remplacer immédiatement, à l’identique et sans aucun coût, tout CD retiré des bacs d’une surface de distribution. Dans un tel monde, il apparaîtrait impensable que des caisses soient disposées en sortie de magasin afin de faire payer les CD emportés par les clients : celui qui part avec 100 CD cause en effet exactement le même coût que celui qui part avec 10 CD ou encore que celui qui part avec 1 000 CD, c’est à dire zéro ! En revanche, personne ne comprendrait que des caisses ne soient pas installées à l’entrée, afin de facturer l’accès à une telle caverne d’Ali Baba. »

Gratuité et prix de l’immatériel

URL d’origine du document

Jean-Pierre Archambault – CNDP et CRDP de Paris – Chargé de mission Veille technologique et coordonnateur du Pôle de compétences logiciels libres du SCÉREN – Médialog n°72 – Décembre 2009

Internet bouleverse les modalités de mise à disposition des biens culturels et de connaissance. Dans l’économie numérique, le coût de production d’une unité supplémentaire d’un bien (musique, film, logiciel…) étant, pour ainsi dire, nul, que doit-on payer ?
La réflexion sur les logiciels libres, biens communs mis à la disposition de tous, peut contribuer à éclairer la question des relations complexes entre gratuité, juste prix et légitime rémunération des auteurs.

Le thème de la gratuité est omniprésent dans nombre de débats de l’économie et de la société numériques, qu’il s’agisse de morceaux de musique, de films téléchargés, ou de logiciels qui, on le sait, se rangent en deux grandes catégories : libres et propriétaires. Les débats s’éclairent les uns les autres, car ils portent sur des produits immatériels dont les logiques de mise à disposition ont beaucoup de points communs.

Concernant les logiciels, « libre » ne signifie pas gratuit. La méprise peut venir de la double signification de free en anglais : libre, gratuit. À moins que son origine ne réside dans le fait qu’en pratique il y a toujours la possibilité de se procurer un logiciel libre sans bourse délier. Il peut s’agir également d’une forme d’hommage à la « vertu » des logiciels libres, et des standards ouverts. En effet, à l’inverse des standards propriétaires qui permettent de verrouiller un marché, ceux-ci jouent un rôle de premier plan dans la régulation de l’industrie informatique. Ils facilitent l’entrée de nouveaux arrivants, favorisent la diversité, le pluralisme et la concurrence. Ils s’opposent aux situations de rentes et de quasi monopole. De diverses façons, les logiciels libres contribuent à la baisse des coûts pour les utilisateurs. Par exemple, l’offre gratuite, faite en 2008 par Microsoft, sur sa suite bureautique en direction des enseignants, mais pas de leurs élèves, est une conséquence directe de la place du libre en général, d’OpenOffice.org en particulier, dans le paysage informatique. Et, c’est bien connu, les logiciels libres sont significativement moins chers que leurs homologues propriétaires.

Gratuit car payé

Il peut arriver que la gratuité brouille le débat. Elle n’est pas le problème. Les produits du travail humain ont un coût, le problème étant de savoir qui paye, quoi et comment. La production d’un logiciel, qu’il soit propriétaire ou libre, nécessite une activité humaine. Elle peut s’inscrire dans un cadre de loisir personnel ou associatif, écrire un programme étant un hobby comme il en existe tant. Elle n’appelle alors pas une rémunération, la motivation des hackers (développeurs de logiciels dans des communautés) pouvant résider dans la quête d’une reconnaissance par les pairs. En revanche, si la réalisation se place dans un contexte professionnel, elle est un travail qui, toute peine méritant salaire, signifie nécessairement rémunération. Le logiciel ainsi produit ne saurait être gratuit, car il lui correspond des coûts. Et l’on sait que dans l’économie des biens immatériels, contrairement à l’économie des biens matériels, les coûts fixes sont importants tandis que les coûts marginaux (coûts de production et diffusion d’un exemplaire supplémentaire) sont peu élevés. Dupliquer un cédérom de plus ou fabriquer un deuxième avion, ce n’est pas la même chose. Télécharger un fichier ne coûte rien (sauf l’accès au réseau).

Mais, même quand un logiciel n’est pas gratuit, il le devient lorsqu’il a été payé ! Enfin, quand il est sous licence libre. Qu’est-ce à dire ? Prenons le cas d’un client qui commande la réalisation d’un logiciel à une société et la lui paye intégralement, dans une relation de sous-traitance. Un travail a été fait et il est rémunéré. Si, en plus, le client a conservé ses droits de propriété sur le logiciel et décide de le mettre à disposition des autres sous une licence libre, le dit logiciel est alors librement et gratuitement accessible pour tout un chacun. Exit les licences par poste de travail. Bien commun, un logiciel libre est à la disposition de tous. À charge de revanche, mais c’est l’intérêt bien compris des uns et des autres de procéder ainsi, même s’il est vrai qu’il n’est pas toujours évident d’enclencher pareil cycle vertueux… Autre chose est de rémunérer des activités de service sur un logiciel devenu gratuit (installation, adaptation, évolution, maintenance…). Même si, ne versons pas dans l’angélisme, la tentation existe de ne pas développer telle ou telle fonctionnalité pour se ménager des activités de service ultérieures.

Il en va pour l’informatique comme pour les autres sciences. Les mathématiques sont libres depuis vingt-cinq siècles. Le temps où Pythagore interdisait à ses disciples de divulguer théorèmes et démonstrations est bien lointain ! Les mathématiques sont donc libres, ce qui n’empêche pas enseignants, chercheurs et ingénieurs d’en vivre.

Argent public et mutualisation

Le libre a commencé ses déploiements dans les logiciels d’infrastructure (réseaux, systèmes d’exploitation). Dans l’Éducation nationale, la quasi totalité des logiciels d’infrastructure des systèmes d’information de l’administration centrale et des rectorats sont libres. Il n’en va pas (encore…) de même pour les logiciels métiers (notamment les logiciels pédagogiques), mais cette situation prévaut en général, que ce soit dans les entreprises, les administrations, les collectivités locales ou dans des filières d’activité économique donnée.

Dans L’économie du logiciel libre[2], François Elie, président de l’Adullact (Association des Développeurs et des Utilisateurs de Logiciels Libres pour l’Administration et les Collectivités Territoriales), nous dit que l’argent public ne doit servir à payer qu’une fois ! Comment ne pas être d’accord avec pareille assertion ? En effet, si des collectivités territoriales ont un besoin commun, il n’y a aucune raison pour qu’elles fassent la même commande au même éditeur, chacune de son côté dans une démarche solitaire, et payent ce qui a déjà été payé par les autres. François Elie propose la mutualisation par la demande.

L’Éducation nationale est certes une « grande maison » riche de sa diversité, il n’empêche qu’il existe des besoins fondamentalement communs d’un établissement scolaire à l’autre, par exemple en matière d’ENT (espaces numériques de travail). Pourquoi des collectivités territoriales partiraient-elles en ordre (inutilement trop) dispersé ? Alors, qu’ensemble, elles peuvent acheter du développement partagé ou produire elles-mêmes. Et, dans tous les cas, piloter et maîtriser les évolutions. Ce qui suppose d’avoir en interne la compétence pour faire, ou pour comprendre et « surveiller » ce que l’on fait faire, aux plans technique et juridique. Dans le système éducatif, les enseignants ont la compétence métier, en la circonstance la compétence pédagogique, sur laquelle fonder une mutualisation de la demande, la production par les intéressés eux-mêmes se faisant dans des partenariats avec des éditeurs publics (le réseau SCÉREN) et privés. L’association Sésamath en est l’illustration majeure mais elle n’est pas seule : il y a aussi AbulEdu, Ofset, les CRDP…[3].

L’argent public ne doit servir qu’une fois, ce qui signifie une forme de gratuité selon des modalités diverses. C’est possible notamment dans l’équation « argent public + mutualisation = logiciels libres ». Le libre a fait la preuve de son efficacité et de ses qualités comme réponse à la question de la production de ce bien immatériel particulier qu’est le logiciel. Rien d’étonnant à cela. La production des logiciels restant une production de connaissances, contrairement à d’autres domaines industriels, elle relève du paradigme de la recherche scientifique. L’approche du logiciel libre, à la fois mode de réalisation et modalité de propriété intellectuelle, est transférable pour une part à d’autres biens, comme les ressources pédagogiques. Le logiciel libre est également « outil conceptuel » pour entrer dans les problématiques de l’économie de l’immatériel et de la connaissance.

Gratuité et rémunération

Revenons sur les coûts fixes et marginaux dans l’économie à l’ère du numérique. L’économie de l’information s’est longtemps limitée à une économie de ses moyens de diffusion, c’est-à-dire à une économie des médias. Elle ne peut désormais plus se confondre avec l’économie du support puisque les biens informationnels ne sont plus liés rigidement à un support donné. L’essentiel des dépenses était constitué par les coûts de production, de reproduction matérielle et de distribution dans les divers circuits de vente. Aujourd’hui, les techniques de traitement de l’information, la numérisation et la mise en réseau des ordinateurs permettent de réduire les coûts de duplication et de diffusion jusqu’à les rendre à peu près nuls. Dans ces conditions, la valeur économique de l’information ne peut plus se construire à partir de l’économie des vecteurs physiques servant à sa distribution. De nouvelles sources de valeur sont en train d’apparaître. Le modèle économique de mise en valeur de l’information déplace son centre de gravité des vecteurs physiques vers des services annexes ou joints dont elle induit la consommation ou qui permettent sa consommation dans de bonnes conditions (services d’adaptation d’un logiciel au contexte d’une entreprise, de facilitation de l’accès à des ressources numérisées, commerce induit sur des produits dérivés, etc.).

Le copyright, qui défend principalement l’éditeur contre des confrères indélicats, aussi bien que le droit d’auteur, qui défend principalement l’auteur contre son éditeur, ont ceci en commun qu’ils créent des droits de propriété sur un bien abstrait, l’information[4]. Tant que cette information est rigidement liée à un vecteur physique, c’est-à-dire tant que les coûts de reproduction sont suffisamment élevés pour ne pas être accessibles aux particuliers, ces droits de propriété peuvent être imposés aisément. Mais le monde bouge…

Les débats sur la loi Création et Internet dite « loi Hadopi » ont tourné autour de la gratuité et de la rémunération des auteurs (et des éditeurs !). Face aux difficultés de recouvrement du droit d’auteur dans l’économie numérique, certains pensent manifestement que la solution réside dans le retour au modèle classique de l’information rigidement liée à son support physique, ce que certaines techniques de marquage pourraient permettre, annulant ainsi les bienfaits économiques de la numérisation et de la mise en réseau. Mais le rapide abandon des DRM (Digital Rights Management ou Gestion des Droits Numériques en français) qui se sont révélés inapplicables (après le vote en 2006 de la transposition en France de la directive européenne DADVSI[5] ) aurait tendance à démontrer le caractère illusoire de ce genre d’approche. Beaucoup pensent qu’un sort identique arrivera aux dispositions contenues dans la « loi Hadopi », que ces façons (anciennes) de poser les problèmes (nouveaux) mènent à une impasse. Pour, entre autres, les mêmes raisons de non faisabilité : le droit se doit d’être applicable. On sait, par ailleurs, que le Conseil constitutionnel a, dans un premier temps censuré le volet sanction de la « loi Hadopi », considérant que le droit de se connecter à Internet relève de la liberté de communication et d’expression et que ce droit implique la liberté d’accès à Internet (seule une juridiction peut être habilitée à le suspendre). Il a estimé que le texte conduisait à instituer une présomption de culpabilité.

Dans le cas d’un transfert de fichier, nous avons déjà signalé que le coût marginal est nul. Que paye-t-on ? Une part des coûts fixes. Mais il arrive un moment où la réalisation du premier exemplaire est (bien) amortie. D’où ces situations de rentes dans lesquelles on paye un fichier téléchargé comme s’il était gravé sur un support physique qu’il aurait fallu fabriquer et acheminer. De plus, l’économie générale des productions (les best sellers et les autres titres) d’un éditeur évolue avec Internet. Dans son ouvrage La longue traîne, Chris Anderson[6] théorise le principe de la longue traîne dans lequel la loi des 20/80 (20% des produits font 80% du chiffre d’affaires) disparaît avec Internet qui, en réduisant les coûts de fabrication et de distribution, permet à tous les produits qui ne sont pas des best-sellers (qui constituent des longues traînes) de rapporter parfois jusqu’à 98% du chiffre d’affaires.

Une licence globale

Il y a donc des questions de fond. Quel est le prix des biens culturels dématérialisés ? Quels doivent être leurs modes de commercialisation ? Alain Bazot, président de l’UFC-Que choisir, les pose[7]. Rappelant qu’un support physique a un coût et qu’il est « rival »[8], que l’on peut multiplier les fichiers numériques d’une oeuvre pour un coût égal à zéro, il en tire la conclusion que « la dématérialisation, parce qu’elle permet un partage sans coût de la culture, parce qu’elle constitue un accès à l’information et à l’art pour tous, remet fondamentalement en cause les modèles économiques existants. Dès lors, il apparaît essentiel de proposer de nouvelles formes de rémunération pour allier les avantages d’Internet à une juste rétribution des artistes/créateurs ». Et comme « dans une économie de coûts fixes, distribuer un ou 10 000 MP3 ne fait pas varier le coût de production », il est plus pertinent « de faire payer l’accès et non pas la quantité. Ce mode de commercialisation, apparu avec la commercialisation de l’accès à internet (le forfait illimité), est le modèle consacré par l’économie numérique ».

Et, pour illustrer le propos, Alain Bazot s’appuie sur une fiction fort pertinente de Nicolas Curien : « Supposons que, dans le monde physique, ait été inventée une technologie miracle qui permette de remplacer immédiatement, à l’identique et sans aucun coût, tout CD retiré des bacs d’une surface de distribution. Dans un tel monde, il apparaîtrait impensable que des caisses soient disposées en sortie de magasin afin de faire payer les CD emportés par les clients : celui qui part avec 100 CD cause en effet exactement le même coût que celui qui part avec 10 CD ou encore que celui qui part avec 1 000 CD, c’est à dire zéro ! En revanche, personne ne comprendrait que des caisses ne soient pas installées à l’entrée, afin de facturer l’accès à une telle caverne d’Ali Baba. »[9]

On retrouve donc la « licence globale », financée par tous les internautes ou sur la base du volontariat, mais également financée par les fournisseurs d’accès qui ont intérêt à avoir des contenus gratuits pour le développement de leurs services. En effet, comme le dit Olivier Bomsel[10], la gratuité est aussi un outil au service des entreprises, pour conquérir le plus rapidement possible une masse critique d’utilisateurs, les innovations numériques voyant leur utilité croître avec le nombre d’usagers, de par les effets de réseau.

Des créateurs ont déjà fait le choix du partage volontaire de leurs oeuvres numériques hors marché. Philippe Aigrain envisage une approche partielle (expérimentale dans un premier temps ?) dans laquelle les ayants droit qui « refuseraient l’inclusion de leurs oeuvres dans un dispositif de partage hors marché garderaient le droit d’en effectuer une gestion exclusive, y compris par des mesures techniques de protection ou par des dispositifs de marquage des oeuvres protégés contre le contournement ». Mais, « ils devraient cependant renoncer à imposer des dispositifs destinés à leurs modèles commerciaux dans l’ensemble de l’infrastructure des réseaux, appareils ou procédures et sanctions. »[11]

Enfin, s’il existe des modèles économiques diversifiés de l’immatériel, il ne faut pas oublier certains fondamentaux. C’est le reproche que Florent Latrive fait à Chris Anderson, « archétype du Californien hype », en référence à son livre paru récemment Free : « Dans son monde, les modèles économiques ne sont l’affaire que des seules entreprises. C’est un monde qui n’existe pas. Chris Anderson zappe largement le rôle de l’État et de la mutualisation fiscale dans sa démonstration. C’est pourtant fondamental : cela fait bien longtemps que l’importance sociale de certains biens, matériels ou immatériels, justifie l’impôt ou la redevance comme source de financement principale ou partielle. La santé gratuite en France n’implique pas le bénévolat des infirmières et des médecins. La gratuité de Radio France ne fait pas de ses journalistes des crève-la-faim »[12]. Effectivement, la santé et l’éducation représentent des coûts importants (des investissements en fait). La question posée n’est donc pas celle de leur gratuité mais celle de l’organisation de l’accès gratuit pour tous aux soins et à l’éducation. La réponse s’appelle sécurité sociale et école gratuite de la République financée par l’impôt.

Il est possible de rémunérer les auteurs, de payer le juste prix et de ne pas payer ce qui est devenu gratuit. Et il est important de cesser d’entrer à reculons dans la société et l’économie numériques.

Notes

[1] Crédit photo : Tibchris (Creative Commons By-Sa)

[2] François Elie, L’économie du logiciel libre, Eyrolles 2009.

[3] Voir J-P. Archambault, « Favoriser l’essor du libre à l’École » , Médialog n°66 et J-P Archambault, « Un spectre hante le monde de l’édition », Médialog n°63.

[4] Concernant la rémunération des auteurs, rappelons qu’elle ne représente en moyenne que 10% du prix d’un produit.

[5] Droits d’auteur et droits voisins dans la société de l’information

[6] Chris Anderson, La longue traîne, 2ème édition, Pearson 2009.

[7] Alain Bazot, « La licence globale : il est temps d’entrer dans l’ère numérique ! », billet posté sur le blog Pour le cinéma – La plateforme des artistes en lutte contre la loi Hadopi

[8] Un bien rival (ou bien privé pur) est un bien pour lequel une unité consommée par un agent réduit d’autant la quantité disponible pour les autres agents.

[9] Nicolas Curien, « Droits d’auteur et Internet : Pourquoi la licence globale n’est pas le diable ? », Janvier 2006.

[10] Olivier Bomsel, Gratuit ! Du développement de l’économie numérique, Folio actuel, 2007.

[11] Philippe Aigrain Internet & création, InLibroVeritas, 2008.

[12] Le modèle économique est un choix éditorial




L’ouverture selon Google : « The meaning of open » traduit en français

Zach Klein - CC byLe Framablog termine l’année avec une traduction de poids qui offre quelque part une excellente transition entre la décennie précédente et la décennie suivante, parce que le vaste sujet évoqué sera, mais en fait est déjà, un enjeu crucial pour l’avenir.

Le mot « open » est servi à toutes les sauces en ce moment dans le monde anglophone. Un peu comme l’écologie, c’est un mot à la mode qui pénètre de plus en plus de domaines, et tout le monde se doit de l’être ou de feindre de l’être sous peine d’éveiller les soupçons, voire la réprobation.

Mais dans la mesure où il n’en existe pas de définition précise, chacun le comprend comme il veut ou comme il peut. Et l’écart peut être grand entre un logiciel libre et une multinationale qui se déclarent tous deux comme « open ». Une multinationale comme Google par exemple !

Il n’est pas anodin que le vice-président de la gestion des produits et du marketing, Jonathan Rosenberg, ait pris aujourd’hui sa plume pour publiquement expliquer (ou tenter d’expliquer) dans le détail ce que Google entendait par « open », dans un récent billet du blog officiel de la société intitulé, excusez du peu, The meaning of Open (comme d’autres s’interrogent sur the meaning of life).

Tout comme l’autre géant Facebook, Google est en effet actuellement sous la pression de ceux qui, entre autres, s’inquiètent du devenir des données personnelles traitées par la société[1]. Et cette pression ira croissante au fur et à mesure que Google aura une place de plus en plus grande sur Internet, à grands coups de services qui se veulent à priori tous plus intéressants les uns que les autres.

« Don’t be evil » est le slogan à double tranchant que s’est donné Google. Nous ne sommes certainement pas en face du diable, mais ce n’est pas pour autant que nous allons lui accorder le bon Dieu sans confession.

À vous de juger donc si, dans le contexte actuel, ce document est une convaincante profession de foi.

Nous avons choisi de traduire tout du long « open » par « ouverture » ou « ouvert ». L’adéquation n’est pas totalement satisfaisante, mais laisser le terme d’origine en anglais eut été selon nous plus encore source de confusion.

L’ouverture selon Google

Google and The meaning of open

Jonathan Rosenberg – 21 décembre 2009 – Blog officiel de Google
(Traduction non officielle Framalang : Goofy et Olivier)

La semaine dernière j’ai envoyé un email interne sur le sens de « l’ouverture » appliquée à Internet, Google et nos utilisateurs. Dans un souci de transparence, j’ai pensé qu’il pouvait être opportun de partager également ces réflexions à l’extérieur de notre entreprise.

Chez Google nous sommes persuadés que les systèmes ouverts l’emporteront. Ils conduisent à davantage d’innovation, de valeur, de liberté de choix pour les consommateurs et à un écosystème dynamique, lucratif et compétitif pour les entreprises. Un grand nombre d’entre elles prétendront à peu près la même chose car elles savent que se positionner comme ouvertes est à la fois bon pour leur image de marque et totalement sans risque. Après tout, dans notre industrie il n’existe pas de définition précise de ce que peut signifier « ouvert ». C’est un terme à la Rashomon (NdT : expression issue du film éponyme de Kurosawa) : à la fois extrêmement subjectif et d’une importance vitale.

Le thème de l’ouverture est au centre de nombreuses discussions ces derniers temps chez Google. J’assiste à des réunions autour d’un produit où quelqu’un déclare que nous devrions être davantage « ouverts ». Il s’ensuit un débat qui révèle que même si l’« ouverture » fait l’unanimité, nous ne sommes pas forcément d’accord sur ce qu’elle implique concrètement.

Face à ce problème récurrent, j’en arrive à penser que nous devrions exposer notre définition de l’ouverture en termes suffisamment clairs, afin que chacun puisse la comprendre et la défendre. Je vous propose ainsi une définition fondée sur mes expériences chez Google et les suggestions de plusieurs collègues. Ces principes nous guident dans notre gestion de l’entreprise et dans nos choix sur les produits, je vous encourage donc à les lire soigneusement, à les commenter et les débattre. Puis je vous invite à vous les approprier et à les intégrer à votre travail. Il s’agit d’un sujet complexe et si un débat à lieu d’être (ce dont je suis persuadé), il doit être ouvert ! Libre à vous d’apporter vos commentaires.

Notre définition de l’ouverture repose sur deux composantes : la technologie ouverte et l’information ouverte. La technologie ouverte comprend d’une part l’open source, ce qui veut dire que nous soutenons activement et publions du code qui aide Internet à se développer, et d’autre part les standards ouverts, ce qui signifie que nous adhérons aux standards reconnus et, s’il n’en existe pas, nous travaillons à la création de standards qui améliorent Internet (et qui ne profitent pas seulement à Google). L’information ouverte comprend selon nous trois idées principales : tout d’abord les informations que nous détenons sur nos utilisateurs servent à leur apporter une valeur ajoutée, ensuite nous faisons preuve de transparence sur les informations les concernant dont nous disposons, et enfin nous leur donnons le contrôle final sur leurs propres informations. Voilà le but vers lequel nous tendons. Dans bien des cas nous ne l’avons pas encore atteint, mais j’espère que la présente note contribuera à combler le fossé entre la théorie et la pratique.

Si nous pouvons incarner un engagement fort à la cause de l’ouverture, et je suis persuadé que nous le pouvons, nous aurons alors une occasion unique de donner le bon exemple et d’encourager d’autres entreprises et industries à adopter le même engagement. Et si elles le font, le monde s’en trouvera un peu meilleur.

Les systèmes ouverts sont gagnants

Pour vraiment comprendre notre position, il faut commencer par l’assertion suivante : les systèmes ouverts sont gagnants. Cela va à l’encontre de tout ce en quoi croient ceux qui sont formatés par les écoles de commerce, ceux qui ont appris à générer une avantage compétitif durable en créant un système fermé, en le rendant populaire, puis en tirant profit du produit pendant tout son cycle de vie. L’idée répandue est que les entreprises devraient garder les consommateurs captifs pour ne laisser aucune place à la concurrence. Il existe différentes approches stratégiques, les fabricants de rasoirs vendent leurs rasoirs bon marché et leurs lames très cher, tandis que ce bon vieux IBM fabrique des ordinateurs centraux coûteux et des logiciels… coûteux aussi. D’un autre côté, un système fermé bien géré peut générer des profits considérables. Cela permet aussi à court terme de mettre sur le marché des produits bien conçus, l’iPod et l’iPhone en sont de bons exemples, mais finalement l’innovation dans un système fermé tend à être, au mieux, incrémentale (est-ce qu’un rasoir à quatre lames est vraiment tellement mieux qu’un rasoir à trois lames ?). Parce que la priorité est de préserver le statu quo. L’autosatisfaction est la marque de fabrique de tous les systèmes fermés. Si vous n’avez pas besoin de travailler dur pour garder votre clientèle, vous ne le ferez pas.

Les systèmes ouverts, c’est exactement l’inverse. Ils sont compétitifs et bien plus dynamiques. Dans un système ouvert, un avantage compétitif n’est pas assujetti à l’emprisonnement des consommateurs. Il s’agit plutôt de comprendre mieux que tous les autres un système très fluctuant et d’utiliser cette intuition pour créer de meilleurs produits plus innovants. L’entreprise qui tire son épingle du jeu dans un système ouvert est à la fois douée pour l’innovation rapide et la conception avant-gardiste ; le prestige du leader dans la conception attire les consommateurs et l’innovation rapide les retient. Ce n’est pas facile, loin de là, mais les entreprises qui réagissent vite n’ont rien à redouter, et lorsqu’elles réussissent elles peuvent générer de gigantesques dividendes.

Systèmes ouverts et entreprises prospères ne sont pas inconciliables. Ils tirent parti de l’intelligence collective et incitent les entreprises à une saine concurrence, à l’innovation et à miser leur succès sur le mérite de leurs produits et pas seulement sur un brillant plan marketing. La course à la carte du génome humain est un bon exemple.

Dans leur livre Wikinomics, Don Tapscott et Anthony Williams expliquent comment, au milieu des années 90, des entreprises privées ont découvert et breveté de grandes portions des séquences de l’ADN et ont prétendu contrôler l’accès à ces données et leur tarif. Faire ainsi du génome une propriété privée a fait grimper les prix en flèche et a rendu la découverte de nouveaux médicaments bien plus difficile. Et puis, en 1995, Merck Pharmaceuticals et le Centre de Séquençage du Génome de l’Université de Washington ont changé la donne avec une nouvelle initiative « ouverte » baptisée l’Index Génétique Merck. En trois ans seulement ils ont publié plus de 800 000 séquences génétiques et les ont mises dans le domaine public et bientôt d’autres projets collaboratifs ont pris le relais. Tout cela au sein d’un secteur industriel où la recherche initiale et le développement étaient traditionnellement menés dans des laboratoires « fermés ». Par sa démarche « ouverte », Merck a donc non seulement modifié la culture d’un secteur entier mais aussi accéléré le tempo de la recherche biomédicale et le développement des médicaments. L’entreprise a donné aux chercheurs du monde entier un accès illimité à des données génétiques, sous forme d’une ressource « ouverte ».

Les systèmes ouverts permettent l’innovation à tous les niveaux, voilà une autre différence majeure entre les systèmes ouverts et fermés. Ils permettent d’innover à tous les étages, depuis le système d’exploitation jusqu’au niveau de l’application, et pas uniquement en surface. Ainsi, une entreprise n’est pas dépendante du bon vouloir d’une autre pour lancer un produit. Si le compilateur GCC que j’utilise a un bogue, je peux le corriger puisque le compilateur est open source. Je n’ai pas besoin de soumettre un rapport de bogue et d’espérer que la réponse arrivera rapidement.

Donc, si vous essayez de stimuler la croissance d’un marché entier, les systèmes ouverts l’emportent sur les systèmes fermés. Et c’est exactement ce que nous nous efforçons de faire avec Internet. Notre engagement pour les systèmes ouverts n’est pas altruiste. C’est simplement dans notre intérêt économique puisque un Internet ouvert génère un flot continu d’innovations qui attirent les utilisateurs et créé de nouveaux usages, pour finalement faire croître un marché tout entier. Hal Varian note cette équation dans son livre Les règles de l’information :

 le gain = (la valeur totale ajoutée à une industrie) x (la part de marché dans cette industrie) 

Toutes choses étant égales par ailleurs, une augmentation de 10% de l’un ou l’autre de ces deux facteurs devrait produire au résultat équivalent. Mais dans notre marché une croissance de 10% génèrera un revenu bien supérieur parce qu’elle entraîne des économies d’échelle dans tout le secteur, augmentant la productivité et réduisant les coûts pour tous les concurrents. Tant que nous continuerons d’innover en sortant d’excellents produits, nous prospèrerons en même temps que tout notre écosystème. Nous aurons peut-être une part plus petite, mais d’un plus grand gâteau.

En d’autres termes, l’avenir de Google dépend de la sauvegarde d’un Internet ouvert, et notre engagement pour l’ouverture développera le Web pour tout le monde, y compris Google.

La technologie ouverte

Pour définir l’ouverture, il faut commencer par les technologies sur lesquelles repose Internet : les standards ouverts et les logiciels open source.

Les standards ouverts

Le développement des réseaux a toujours dépendu des standards. Lorsqu’on a commencé à poser des voies ferrées à travers les États-Unis au début du 19ème siècle, il existait différents standards d’écartement des voies. Le réseau ferré ne se développait pas et n’allait pas vers l’ouest jusqu’à ce que les diverses compagnies ferroviaires se mettent d’accord sur un écartement standard. (Dans ce cas précis la guerre de standards a été une vraie guerre : les compagnies ferroviaires sudistes furent obligées de convertir plus de 1100 miles au nouveau standard après que la Confédération eut perdu contre l’Union pendant la Guerre Civile.)

Il y eut un autre précédent en 1974 quand Vint Cerf et ses collègues proposèrent d’utiliser un standard ouvert (qui deviendrait le protocole TCP/IP) pour connecter plusieurs réseaux d’ordinateurs qui étaient apparus aux USA. Ils ne savaient pas au juste combien de réseaux avaient émergé et donc « l’Internet », mot inventé par Vint, devait être ouvert. N’importe quel réseau pouvait se connecter en utilisant le protocole TCP/IP, et grâce à cette décision à peu près 681 millions de serveurs forment aujourd’hui Internet.

Aujourd’hui, tous nos produits en développement reposent sur des standards ouverts parce que l’interopérabilité est un élément crucial qui détermine le choix de l’utilisateur. Quelles en sont les implications chez Google et les recommandation pour nos chefs de projets et nos ingénieurs ? C’est simple : utilisez des standards ouverts autant que possible. Si vous vous risquez dans un domaine où les standards ouverts n’existent pas, créez-les. Si les standards existants ne sont pas aussi bons qu’ils le devraient, efforcez-vous de les améliorer et rendez vos améliorations aussi simples et documentées que possible. Les utilisateurs et le marché au sens large devraient toujours être nos priorités, pas uniquement le bien de Google. Vous devriez travailler avec les organismes qui établissent les normes pour que nos modifications soient ajoutées aux spécifications validées.

Nous maitrisons ce processus depuis un certain temps déjà. Dans les premières années du Google Data Protocol (notre protocole standard d’API, basé sur XML/Atom), nous avons travaillé au sein de l’IEFT (Atom Protocol Working Group) à élaborer les spécifications pour Atom. Mentionnons aussi notre travail récent au WC3 pour créer une API de géolocation standard qui rendra plus facile le développement d’applications géolocalisées pour le navigateur. Ce standard aide tout le monde, pas seulement nous, et offrira aux utilisateurs beaucoup plus d’excellentes applications mises au point par des milliers de développeurs.

Open source

La plupart de ces applications seront basées sur des logiciels open source, phénomène à l’origine de la croissance explosive du Web de ces quinze dernières années. Un précédent historique existe : alors que le terme « Open Source » a été créé à la fin des années 90, le concept de partage de l’information utile dans le but de développer un marché existait bien avant Internet. Au début des années 1900, l’industrie automobile américaine s’accorda sur une licence croisée suivant laquelle les brevets étaient partagés ouvertement et gratuitement entre fabricants. Avant cet accord, les propriétaires du brevet des moteurs à essence à deux temps contrôlaient carrément l’industrie.

L’open source de nos jours va bien plus loin que le groupement de brevets de l’industrie automobile naissante, et a conduit au développement des composants logiciels sur lesquels est bâti Google : Linux, Apache, SSH et d’autres. En fait, nous utilisons des dizaines de millions de lignes de code open source pour faire tourner nos produits. Nous renvoyons aussi l’ascenseur : nous sommes les plus importants contributeurs open source du monde, avec plus de 800 projets pour un total de 20 millions de lignes de code open source, avec quatre projets (Chrome, Android, Chrome OS et le Google Web Toolkit) qui dépassent chacun un million de lignes. Nos équipes collaborent avec Mozilla et Apache et nous fournissons une plateforme d’hébergement de projets open source (code.google.com/hosting) qui en accueille plus de 250 000. Ainsi, non seulement nous savons que d’autres peuvent participer au perfectionnement de nos produits, mais nous permettons également à tout un chacun de s’inspirer de nos produits s’il estime que nous n’innovons plus assez.

Lorsque nous libérons du code, nous utilisons la licence ouverte, standard, Apache 2.0, ce qui signifie que nous ne contrôlons pas le code. D’autres peuvent s’en emparer, le modifier, le fermer et le distribuer de leur côté. Android en est un bon exemple, car plusieurs assembleurs OEM ont déjà tiré parti du code pour en faire des choses formidables. Procéder ainsi comporte cependant des risques, le logiciel peut se fragmenter entre différentes branches qui ne fonctionneront pas bien ensemble (souvenez-vous du nombre de variantes d’Unix pour station de travail : Apollo, Sun, HP, etc.). Nous œuvrons d’arrache-pied pour éviter cela avec Android.

Malgré notre engagement pour l’ouverture du code de nos outils de développement, tous les produits Google ne sont pas ouverts. Notre objectif est de maintenir un Internet ouvert, qui promeut le choix et la concurrence, empêchant utilisateurs et développeurs d’être prisonniers. Dans de nombreux cas, et particulièrement pour notre moteur de recherche et nos projets liés à la publicité, ouvrir le code ne contribuerait pas à atteindre ces objectifs et serait même dommageable pour les utilisateurs. La recherche et les marchés publicitaires se livrent déjà une concurrence acharnée pour atteindre les prix les plus justes, si bien que les utilisateurs et les publicitaires ont déjà un choix considérable sans être prisonniers. Sans parler du fait qu’ouvrir ces systèmes permettrait aux gens de « jouer » avec nos algorithmes pour manipuler les recherches et les évaluations de la qualité des publicités, en réduisant la qualité pour tout le monde.

Alors lorsque que vous créez un produit ou ajoutez de nouvelles fonctions, il faut vous demander : est-ce que rendre ce code open source va promouvoir un Internet ouvert ? Est-ce qu’il va augmenter le choix de l’utilisateur, du publicitaire et des partenaires ? Est-ce qu’il va en résulter une plus grande concurrence et davantage d’innovation ? Si c’est le cas, alors vous devriez passer le code en open source. Et quand vous le ferez, faite-le pour de bon ; ne vous contentez pas de le balancer dans le domaine public et puis de l’oublier. Assurez-vous que vous avez les ressources pour maintenir le code et que vos développeurs soient prêt à s’y consacrer. Le Google Web Toolkit, que nous avons développé en public en utilisant un gestionnaire de bogues et un système de version publics, est ainsi un exemple de bonnes pratiques.

L’information ouverte

La création des standards ouverts et de l’open source a transformé le Web en un lieu où d’énormes quantités d’informations personnelles sont régulièrement mises en ligne : des photos, des adresses, des mises à jour… La quantité d’informations partagées et le fait qu’elles soient enregistrées à jamais impliquent une question qu’on ne se posait pas vraiment il y a quelques années : qu’allons-nous faire de ces informations ?

Historiquement, les nouvelles technologies de l’information ont souvent permis l’émergence de nouvelles formes de commerce. Par exemple, quand les marchands du bassin méditerranéen, vers 3000 avant JC ont inventé les sceaux (appelés bullae) pour s’assurer que leur cargaison atteindrait sa destination sans être altérée, ils ont transformé un commerce local en commerce longue distance. Des modifications semblables ont été déclenchées par l’apparition de l’écriture, et plus récemment, par celle des ordinateurs. À chaque étape, la transaction, un accord mutuel où chaque partie trouve son compte, était générée par un nouveau type d’information qui permettait au contrat d’être solidement établi.

Sur le Web la nouvelle forme de commerce, c’est l’échange d’informations personnelles contre quelque chose qui a de la valeur. C’est une transaction à laquelle participent des millions d’entre nous chaque jour et qui a d’énormes avantages potentiels. Un assureur automobile peut surveiller les habitudes de conduite d’un client en temps réel et lui donner un bonus s’il conduit bien, un malus dans le cas contraire, grâce aux informations (suivi GPS) qui n’étaient pas disponibles il y a seulement quelques années. C’est une transaction tout à fait simple, mais nous rencontrerons des cas de figure bien plus délicats.

Supposons que votre enfant ait une allergie à certains médicaments. Est-ce que vous accepteriez que son dossier médical soit accessible par une seringue intelligente en ligne qui empêcherait un médecin urgentiste ou une infirmière de lui administrer accidentellement un tel médicament ? Moi je pourrais le faire, mais vous pourriez décider que le bracelet autour de son poignet est suffisant (NdT : voir allergy bracelet). Et voilà le problème, tout le monde ne prendra pas la même décision, et quand on en vient aux informations personnelles nous devons traiter chacune de ces décisions avec le même respect.

Mais si mettre davantage d’informations en ligne peut être bénéfique pour tout le monde, alors leurs usages doivent être régis par des principes suffisamment responsables, proportionnés et flexibles pour se développer et s’adapter à notre marché. Et à la différence des technologies ouvertes, grâce auxquelles nous souhaitons développer l’écosystème d’Internet, notre approche de l’information ouverte est de créer la confiance avec les individus qui s’engagent dans cet écosystème (les utilisateurs, les partenaires et les clients). La confiance est la monnaie la plus importante en ligne, donc pour la créer nous adhérons à trois principes de l’information ouverte : valeur, transparence et contrôle.

La valeur

En premier lieu, nous devons créer des produits qui ont une valeur aux yeux des utilisateurs. Dans de nombreux cas, nous pouvons faire des produits encore meilleurs si nous disposons de davantage d’informations sur l’utilisateur, mais des problèmes de protection de la vie privée peuvent survenir si les gens ne comprennent pas quelle valeur ajoutée ils obtiennent en échange de leurs informations. Expliquez-leur cette valeur cependant, et le plus souvent ils accepteront la transaction. Par exemple, des millions de gens laissent les organismes de cartes de crédit retenir leurs informations au moment de l’achat en ligne, en échange cela leur évite d’utiliser de l’argent liquide.

C’est ce que nous avons fait lorsque nous avons lancé Interest-Based Advertising (la publicité basée sur l’intérêt des utilisateurs) en mars. L’IBA rend les publicités plus pertinentes et plus utiles. C’est une valeur ajoutée que nous avons créée, basée sur les informations que nous collectons. L’IBA comprend aussi un gestionnaire de préférences de l’utilisateur qui lui explique clairement ce qu’il obtiendra en échange de ses informations, qui lui permet de se désengager ou de régler ses paramètres. La plupart des gens parcourant le gestionnaire de préférences choisissent de régler leurs préférences plutôt que de se désinscrire parce qu’ils ont pris conscience de l’intérêt de recevoir des publicités ciblés.

Telle devrait être notre stratégie : dire aux gens, de façon explicite et en langage clair, ce que nous savons d’eux et pourquoi il leur est profitable que nous le sachions. Vous croyez peut-être que la valeur de nos produits est tellement évidente qu’elle n’a pas besoin d’être expliquée ? Pas si sûr.

La transparence

Ensuite, il nous faut permettre aux utilisateurs de trouver facilement quelles informations nous collectons et stockons à travers tous nos produits. Le tableau de bord Google est à ce titre un énorme pas en avant (NdT : le Google Dashboard). En une page, les utilisateurs peuvent voir quelles données personnelles sont retenues par tel produit Google (ce qui couvre plus de 20 produits, notamment Gmail, YouTube et la recherche) et où ils peuvent contrôler leurs paramètres personnels. Nous sommes, à notre connaissance, la première entreprise sur Internet à offrir un tel service et nous espérons que cela deviendra la norme. Un autre exemple est celui de notre politique de confidentialité, qui est rédigée pour des être humains et non pour des juristes.

Nous pouvons cependant en faire plus encore. Tout produit qui récolte des informations sur les utilisateurs doit apparaître sur le tableau de bord. S’il y est déjà, vous n’en avez pas fini pour autant. À chaque nouvelle version ou nouvelle fonctionnalité, demandez-vous si vous ne devriez pas ajouter quelques nouvelles informations au tableau de bord (peut-être même des informations sur les utilisateurs publiquement disponibles sur d’autres sites).

Réfléchissez aux moyen de rendre vos produits plus transparents aussi. Quand vous téléchargez une application pour Android, par exemple, votre appareil vous dit à quelles informations l’application pourra accéder, concernant votre téléphone et vous-même, et vous pouvez alors décider si vous souhaitez ou non poursuivre. Pas besoin de faire une enquête approfondie pour trouver quelles informations vous divulguez, tout est écrit noir sur blanc et vous êtes libre de décider (NdT : allusion à peine voilée aux récents problèmes rencontrés par l’iPhone sur le sujet). Votre produit entre dans cette catégorie ? Comment la transparence peut-elle servir la fidélisation de vos utilisateurs ?

Le contrôle

Nous devons toujours donner le contrôle final à l’utilisateur. Si nous avons des informations sur lui, comme avec l’IBA, il devrait être facile pour lui de les supprimer et de se désinscrire. S’il utilise nos produits et stocke ses contenus chez nous, ce sont ses contenus, pas les nôtres. Il devrait être capable de les exporter et de les supprimer à tout moment, gratuitement, et aussi aisément que possible. Gmail est un très bon exemple de ce processus puisque nous proposons une redirection gratuite vers n’importe quelle adresse. La possibilité de changer d’opérateur est cruciale, donc au lieu de bâtir des murs autour de vos produits, bâtissez des ponts. Donnez vraiment le choix aux utilisateurs.

S’il existe des standards pour gérer les données des utilisateurs, nous devons nous y conformer. S’il n’existe pas de standard, nous devons travailler à en créer un qui soit ouvert et profite au Web tout entier, même si un standard fermé nous serait plus profitable (souvenez-vous que ce n’est pas vrai !). Entretemps nous devons faire tout notre possible pour que l’on puisse quitter Google aussi facilement que possible. Google n’est pas l’Hôtel California (NdT : en référence à la célèbre chanson des Eagles), vous pouvez le quitter à tout moment et vous pouvez vraiment partir, pour de bon !

Comme le signalait Eric dans une note stratégique « nous ne prenons pas les utilisateurs au piège, nous leur facilitons la tâche s’ils veulent se tourner vers nos concurrents ». On peut comparer cette politique aux sorties de secours dans un avion, une analogie que notre PDG apprécierait. Vous espérez n’avoir jamais à les utiliser, mais vous êtes bien content qu’elles soient là et seriez furieux s’il n’y en avait pas.

Voilà pourquoi nous avons une équipe, le Data Liberation Front (dataliberation.org) (NdT : le Front de Libération des Données), dont le travail consiste à rendre la « désinscription » facile. Leurs derniers hauts faits : Blogger (les gens qui choisissent de quitter Blogger pour un autre service peuvent facilement emporter leurs données avec eux) et les Docs (les utilisateurs peuvent maintenant rassembler tous leurs documents, présentations, feuilles de calcul dans un fichier compressé et le télécharger). Créez vos produits en ayant ceci à l’esprit. Vous pouvez le faire grâce à une bonne API publique (NdT : interface de programmation) répertoriant toutes les données de vos utilisateurs. N’attendez pas d’être en version 2 ou 3, discutez-en le plus tôt possible et faites-en une fonctionnalité dès le démarrage de votre projet.

Lorsque les journalistes du Guardian (un quotidien anglais de premier ordre) ont rendu compte des travaux du Data Liberation Front , ils ont déclaré que c’était « contre-intuitif » pour ceux qui sont « habitués à la mentalité fermée des guerres commerciales passées ». Ils ont raison, c’est contre-intuitif pour les gens qui sont restés coincés dans leur conception d’école de commerce, mais si nous faisons bien notre travail, ce ne sera plus le cas. Nous voulons faire de l’ouverture la norme. Les gens vont s’y habituer doucement, ensuite elle deviendra la norme et ils l’exigeront. Et s’ils ne l’obtiennent pas cela ne leur plaira pas. Nous considèrerons notre mission accomplie lorsque l’ouverture ira de soi.

Plus c’est grand, mieux c’est

Les systèmes fermés sont bien définis et génèrent du profit, mais seulement pour ceux qui les contrôlent. Les systèmes ouverts sont chaotiques et génèrent du profit, mais seulement pour ceux qui les comprennent bien et s’adaptent plus vite que les autres. Les systèmes fermés se développent vite alors que les systèmes ouverts se développent plus lentement, si bien que parier sur l’ouverture nécessite de l’optimisme, de la volonté et les moyens de pouvoir se projeter sur le long terme. Heureusement, chez Google nous avons ces trois atouts.

En raison de notre dimension, de nos compétences et de notre appétit pour les projets ambitieux, nous pouvons relever des défis importants nécessitant de lourds investissements sans perspective évidente de rentabilité à court terme. Nous pouvons photographier toutes les rues du monde pour que vous puissiez explorer le quartier autour de l’appartement que vous envisagez de louer, à plusieurs milliers de kilomètres de chez vous. Nous pouvons numériser des milliers de livres et les rendre largement accessibles (tout en respectant les droits des auteurs et des éditeurs). Nous pouvons créer un système de mail qui vous donne un gigaoctet d’espace de stockage (maintenant plus de 7 gigas, en fait) au moment où tous les autres services ne vous procurent guère qu’une petite fraction de ce volume. Nous pouvons traduire instantanément des pages Web dans n’importe quelle des 51 langues disponibles. Nous pouvons traiter des recherches de données qui aident les agences de santé publiques à détecter plus tôt les pics d’épidémie grippale. Nous pouvons élaborer un navigateur plus rapide (Chrome), un meilleur système d’exploitation pour mobile (Android), et une plateforme de communication entièrement nouvelle (Wave), et puis nous pouvons ouvrir tout cela pour que le monde entier puisse innover sur cette base, afin de la personnaliser et l’améliorer.

Nous pouvons réaliser tout cela parce que ce sont des problèmes d’information et que nous avons des spécialistes en informatique, en technologie, et les capacités informatiques pour résoudre ces problèmes. Quand nous le faisons, nous créons de nombreuses plateformes, pour les vidéos, les cartes, les mobiles, les ordinateurs personnels, les entreprises, qui sont meilleures, plus compétitives et plus innovantes. On nous reproche souvent d’être de trop « gros », mais parfois être plus gros nous permet de nous attaquer à ce qui semble impossible.

Tout ceci sera pourtant vain si nous négocions mal le virage de l’ouverture. Il nous faut donc nous pousser nous-mêmes en permanence. Est-ce que nous contribuons à des standards ouverts qui bénéficient à l’industrie ? Qu’est-ce qui nous empêche de rendre notre code open source ? Est-ce que nous donnons à nos utilisateurs davantage de valeur, de transparence et de contrôle ? Pratiquez l’ouverture autant que vous le pouvez et aussi souvent que possible, et si quelqu’un se demande si c’est la bonne stratégie, expliquez-lui pourquoi ce n’est pas simplement une bonne stratégie, mais la meilleure qui soit . Elle va transformer les entreprises et le commerce de ce tout début du siècle, et quand nous l’aurons emporté nous pourrons effectivement ré-écrire les topos des écoles de commerce pour les décennies à venir.

Un Internet ouvert transformera notre vie tout entière. Il aura le pouvoir d’apporter les informations du monde entier jusque dans le creux de la main de chacun et de donner à chacun le pouvoir de s’exprimer librement. Ces prédictions étaient dans un e-mail que je vous ai envoyé au début de cette année (repris ensuite dans un billet du blog) et qui vous décrivait ma vision du futur d’Internet. Mais maintenant je vous parle d’action, pas de vision. L’Internet ouvert a ses détracteurs, des gouvernements désirant en contrôler l’accès, des entreprises luttant dans leur intérêt exclusif pour préserver le statu quo. Ces forces sont puissantes et si elles réussissent, nous allons nous retrouver entravés dans un Internet fragmenté, stagnant, à coût élevé et à faible concurrence.

Nos compétences et notre culture nous offrent l’occasion et nous donnent la responsabilité d’empêcher que cela n’arrive. Nous croyons que la technologie a le pouvoir de répandre l’information. Nous croyons que l’information a le pouvoir d’améliorer les choses. Nous croyons que la majorité ne profitera de cette révolution que grâce à l’ouverture. Nous sommes des techno-optimistes confiants dans l’idée que le chaos de l’ouverture profite à tout le monde. Et nous nous battrons pour la promouvoir en toutes occasions.

L’ouverture l’emportera. Elle l’emportera sur Internet et gagnera par effet boule de neige beaucoup de domaines de notre vie. L’avenir des gouvernements est la transparence. L’avenir du commerce est l’information réciproque. L’avenir de la culture est la liberté. L’avenir de l’industrie du divertissement est l’interactivité. Chacun de ces futurs dépend de l’ouverture d’Internet.

En tant que chefs de produits chez Google, vous élaborez quelque chose qui nous survivra à tous, et personne ne sait dans quelles directions Google poursuivra son développement, ni à quel point Google va changer la vie des gens. Dans cette perspective, nous sommes comme notre collègue Vint Cerf, qui ne savait pas exactement combien de réseaux feraient partie de ce fameux « Internet » et qui l’a laissé ouvert par défaut. Vint a certainement eu raison. Je crois que le futur nous donnera raison aussi.

Notes

[1] Crédit photo : Zach Klein (Creative Commons By)




L’avenir libre de Bernard Stiegler ou gratuit de Jacques Attali ?

Un titre un peu caricatural pour un billet qui met simplement en parallèle deux récentes et intéressantes interviews vidéos, la première de Jacques Attali, la seconde de Bernard Stiegler.

Choisis ton camp camarade ? Pas vraiment, parce que les deux intellectuels n’abordent pas exactement le même sujet, bien qu’il soit à chaque fois question de l’avenir de nos sociétés (on remarquera qu’ils citent tous deux Wikipédia mais pas avec le même dessein).

Jacques Attali

La gratuité – Dans le cade de l’émission Conversation d’avenirs sur Public Sénat
22 décembre 2009 – URL d’origine de la vidéo

Bernard Stiegler

Vers une économie de la contribution – En visite chez Siné-Hebdo
24 novembre 2009 – URL d’origine de la vidéo




Le logiciel libre et le mythe de la méritocratie

Banoootah - CC byEn janvier 2008, Bruce Byfield écrivait, dans un article que nous avions traduit ici-même (Ce qui caractérise les utilisateurs de logiciels libres) : « La communauté du Libre peut se targuer d’être une méritocratie où le statut est le résultat d’accomplissements et de contributions ».

Deux ans plus tard, le même nous propose de sonder plus avant la véracité d’une telle assertion, qui ne va finalement peut-être pas de soi et relève parfois plus du mythe savamment auto-entretenu.

Et de poser en guise de conclusion quelques pertinentes questions qui si elles trouvaient réponse participeraient effectivement à combler l’écart constaté entre la théorie et la pratique.

Nos propres discours n’en auraient alors que plus de consistance et de maturité[1].

Les projets open source et le mythe de la méritocratie

Open Source Projects and the Meritocracy Myth

Bruce Byfield – 2 décembre 2009 – Datamation
(Traduction Framalang : Olivier et Cheval boiteux)

« Ce n’est pas une démocratie, c’est une méritocratie. »

On trouve cette déclaration sur la page de gouvernance d’Ubuntu, mais les notes de version de Fedora présentent quelque chose de similaire, tout comme la page Why Debian for developers et partout où l’essence des projets libres et open source (NdT : FOSS) est débattue.

La méritocratie est un mythe, une de ces histoires que la communauté des logiciels libres et open source aime se conter. Par mythe je n’entends pas mensonge, mais cette méritocratie est une histoire que les développeurs se racontent à eux-mêmes pour les aider à se forger une identité commune.

En d’autres termes, l’idée que les logiciels libres et open source sont une méritocratie est aussi vraie que de dire que les États-Unis sont une terre d’opportunité, ou que les scientifiques sont objectifs. Pour les membres de la communauté des logiciels libres et open source cette idée est primordiale dans leur perception du système et leur perception d’eux-même, car ils ont foi en cette idée que le travail est récompensé par la reconnaissance de leurs pairs et l’attribution de plus de responsabilités

Afin de perdurer, il faut que le mythe renferme une part de vérité, et ainsi personne ne le remet en question. Des exceptions peuvent survenir, mais elles seront justifiées, voire niées.

Cependant, si les mythes de la communauté ne sont pas des mensonges, ils ne révèlent pas toute la vérité non plus. Ils sont souvent des versions simplifiées de situations bien plus complexes.

La méritocratie dans les logiciels libres et open source n’échappe, à mon avis, pas à ce constat. Selon le contexte, si vous contribuez dans un bon projet et faites les choses biens, l’aspect méritocratique des logiciels libres et open source s’ouvrira à vous, c’est souvent le cas.

Mais de là à dire que les communautés ne fonctionnent qu’au mérite, il y a un pas que je ne franchirai pas. Le mérite n’est qu’un facteur à prendre, parmi tant d’autres, le mérite seul ne vous accordera ni reconnaissance, ni responsabilités. Bien d’autres considérations, souvent ignorées, entrent en jeu.

Hypothèses contestables

En invoquant l’argument du mérite on tourne rapidement en rond, c’est l’un des problèmes d’une méritocratie. Une hiérarchie est déjà établie, oui, mais comment ? Au mérite. S’ils n’avaient pas de mérite, ils n’auraient pas leur place.

Pas besoin de chercher bien loin pour voir que seul le mérite ne compte pas dans la hiérarchie des logiciels libres et open source. Les fondateurs du projet, en particulier, ont tendance à conserver leur influence, peu importe l’importance de leurs dernières contributions… si tant est qu’ils contribuent toujours au développement.

Par exemple, lorsque Ian Murdock fonda Progeny Linux Systems (entreprise pour laquelle j’ai travaillé) en 2000, il n’avait pas participé au projet Debian depuis quelques années. Et malgré cela, lorsque l’entreprise s’intéressa à Debian, son statut n’avait pas bougé. Tout portait à croire qu’il n’allait pas s’impliquer personnellement dans le projet et pourtant, s’il n’avait pas refusé la proposition, on lui aurait malgré tout attribué le titre de Debian Maintainer sans passer par le processus habituel.

Plus récemment, Mark Shuttleworth est devenu dictateur bienveillant à vie pour Ubuntu et Canonical, non pas à cause de ses contributions aux logiciels libres, mais parce qu’il disposait de l’énergie et de l’argent pour se propulser à ce rang. Sa position au sein d’Ubuntu ou de Canonical n’est pas remise en cause, mais toujours est-il qu’elle ne doit rien au mérite (au sens où l’entend la communauté), mais plutôt à son influence.

Et les leaders ne sont pas les seuls à gagner de l’influence pour des raisons autres que leur mérite. Dans les projets où certains contributeurs sont rémunérés et d’autres bénévoles, les contributeurs rémunérés ont presque toujours plus d’influence que les bénévoles. Dans certains cas, comme sur le projet OpenOffice.org, les contributeurs salariés peuvent presque entièrement éclipser les bénévoles.

D’autres projets, comme Fedora, repartissent l’influence plus équitablement, mais les contributeurs payés occupent souvent des postes à responsabilité. Par exemple, des dix membres du comité d’administration de Fedora, sept sont des salariés de Red Hat. Idem pour openSUSE où trois des cinq membres du comité sont des employés de Novell, le principal sponsor du projet, et un autre est consultant spécialisé dans les produits Novell. Et la situation est similaire dans bon nombre d’autres projets.

Alors oui, vous allez me dire que les membres payés ont plus de temps à accorder à ces responsabilités. C’est juste, mais ce n’est pas le sujet. Le fait est que les membres payés occupent statistiquement plus de postes à responsabilité que les bénévoles. Et c’est toute le postulat de départ qui est remis en cause, on constate alors que votre statut dans le projet n’est pas directement déterminé par votre mérite.

D’autres moyens de se faire remarquer

La méritocratie semble être le système parfait en théorie. Mais le fait est que la théorie est rarement mise en pratique. Avant de le reconnaître, encore faut-il déjà définir ce qu’est le mérite, la communauté des logiciels libres et open source ne fait pas exception.

Bâtie sur le code, la communauté des logiciels libres et open source valorise principalement la capacité à coder, bien que les plus gros projets soient beaucoup plus variés : tests, rédaction de la documentation, traduction, graphisme et support technique. De nombreux projets, comme Fedora et Drupal, évoluent et tentent de gommer cet a priori, mais cela demeure vrai pour la plupart des projets. Ainsi, les noms connus dans les projets ou les personnes qui font des présentations lors des conférences sont majoritairement des développeurs.

Cet a priori est cependant justifié. Après tout, sans le code, le projet de logiciel libre ou open source n’existerait pas. Et pourtant, le succès du projet dépend autant des autres contributions que du code lui-même.

Et comme le fait remarquer Kirrily Robert, blogueur chez Skud, même si certaines contributions sont moins estimées que d’autres, ça n’est pas une raison de les occulter complètement.

Par exemple, la personne la mieux placée pour écrire la documentation pourrait bien être le chef du projet, mais peut-être alors a-t-il mieux à faire que de rédiger la documentation. Il vaut peut-être mieux qu’une autre personne, même moins douée, rédige la documentation. Dans ce cas, celui qui écrit la documentation devrait être remercié, non seulement pour son travail, mais aussi parce qu’il libère l’emploi du temps du chef du projet. Et pourtant ceci est rarement reconnu dans les projets de logiciels libres ou open source.

L’idée que le mérite soit remarqué, reconnu et recompensé est rassurante dans notre culture industrielle moderne. J’aurai même tendance à penser que c’est encore plus rassurant dans le cercle des logiciels libres et open source, dont de nombreux membres admettent être introvertis, voire même se diagnostiquent eux-mêmes comme étant victime du syndrome d’Asperger.

Mais le mérite est-il toujours reconnu dans les logiciels libres et open source ? Voici ce que Noirin Shirley écrit à propos des obstacles à franchir par les femmes pour participer à cet univers :

Souvent, les valeurs reconnues dans une méritocratie deviennent rapidement le couple mérite/confiance en soi et obstination, dans le meilleur des cas. « Le travail bien fait ne vous apporte pas d’influence. Non, pour gagner de l’influence il faut faire du bon travail et bien s’en vanter, ou au minimum le rappeler à tout le monde régulièrement. » Les femmes échouent à cette étape là.

Shirley suggère ici qu’il faut non seulement être bon et régulier, mais il faut aussi savoir se rendre visible sur les forums, chats et listes de discussion, ainsi qu’aux conférences. Puisque les femmes sont apparemment conditionnées culturellement pour ne pas se mettre en avant, elles sont nombreuses à ne pas être à leur avantage dans un projet de logiciel libre ou open source (idem pour les hommes manquant de confiance en eux). Si elles ne peuvent ou ne souhaitent pas s’auto-promouvoir un minimum, leurs idées peuvent passer inaperçues, être sous-estimées ou carrément écartées.

À l’inverse, selon la même logique, certains gagnent en autorité plus parce qu’ils sont sociables ou opiniâtres que pour ce qu’ils réalisent concrètement (j’ai quelques exemples en tête, mais je ne veux pas faire d’attaque personnelle).

Tout comme la démagogie peut pervertir la démocratie, l’auto-promotion peut pervertir la méritocratie. Si un projet n’y prend pas garde, il se retrouvera bien vite à accepter des contributions, non pas sur la base de leur qualité, mais à cause de la visibilité et de l’insistance de celui qui les propose.

L’attraction sociale et comment s’y soustraire

Dans Le mythe de la méritocratie, Stephen J. McNamee et Robert K. Miller, Jr. avancent que la méritocratie aux États-Unis est influencée par ce qu’ils nomment l’attraction sociale. Ce sont des facteurs comme l’origine sociale ou l’éducation qui peuvent modifier positivement ou négativement la perception qu’ont les autres de nos contributions.

D’après moi, l’attraction sociale touche aussi la communauté des logiciels libres et open source, pas simplement parce qu’elle fait partie de notre société industrielle moderne, mais pour des facteurs qui lui sont propres. Reconnaître son existence n’est pas forcément facile, mais ça n’est pas pour autant une remise en cause de la méritocratie dans les logiciels libres et open source. L’importance du travail réalisé par les contributeurs n’en est pas non plus amoindrie.

Au contraire, reconnaître l’existence de l’attraction sociale peut être un premier pas pour améliorer la méritocratie dans le monde des logiciels libres et open source.

Kirrily Robert émet une idée intéressante. À l’instar des auditions anonymes où les musiciennes sont plus facilement choisies lorsque le sexe de la personne qui postule n’est pas connu, Robert propose que les soumissions soient également anonymes afin que leur évaluation ne soit pas biaisée. Si l’augmentation des contributions féminines lui tient à cœur, ces soumissions anonymes pourraient aussi garantir que seul le mérite entre en ligne de compte pour chaque contribution.

Mais ce n’est là qu’une proposition. Si vous voulez que la communauté des logiciels libres et open source devienne véritablement méritocratique, alors elle doit avoir le courage se poser quelques bonnes questions.

Pour commencer, par quel autre moyen peut-on réduire l’importance de l’auto-promotion ? Comment peut-on s’assurer que les employés et les bénévoles soient réellement au même niveau ? Peut-on redéfinir le mérite pour qu’il ne reflète pas uniquement ce qui est lié au code, mais au succès global du projet ?

Répondre à ces questions n’affaiblira pas le principe du mérite. Au contraire, ce principe de base de la communauté devrait en ressortir renforcé, et mieux utilisé. Et c’est, sans aucun doute, ce que souhaite tout supporter des logiciels libres et open source.

Notes

[1] Crédit photo : Banoootah (Creative Commons By)