1

9 prévisions open source pour l’année 2010

Sergis Blog - CC byQue va-t-il se passer en 2010 dans le monde de l’open source et du logiciel libre ?

Seul Nostradamux le sait.

Mais le journaliste Bruce Byfield s’est tout de même risqué au jeu des prédictions dans un article que nous avons traduit avec un petit mois de retard (ouf, il était temps !).

Tout comme nous, vous ne serez pas forcément d’accord sur tout. Il va alors sans dire que les commentaires sont là pour accueillir vos critiques et vos propres plans sur la comète[1].

L’open source en 2010 : Neuf prédictions

Open Source in 2010: Nine Predictions

Bruce Byfield – 30 décembre 2009 – Datamation
(Traduction Framalang : Cheval boiteux, Martin et Olivier)

Même si c’est la fin de la décennie seulement pour ceux qui ne savent pas compter, les rétrospectives semblent plus à la mode que les prédictions en ces derniers jours de 2009. Peut-être aussi qu’après une année de récession, les experts de l’avenir deviennent plus prudents.

Mais, n’étant pas de ceux qui suivent les tendances et n’étant pas du genre nostalgique, je préfère tourner mon regard vers le futur, pour envisager ce qu’il pourrait réserver aux logiciels open source. Tout bouge dix fois plus vite dans l’open source que dans l’informatique grand public, et 2010 risque bien de ne pas déroger à la règle.

Je pense que nous pouvons considérer comme acquis que l’open source va continuer à gagner en popularité. 2010 ne sera pas cette légendaire « Année où Linux se démocratise », mais nous devrions continuer à observer la même lente et constante progression de son adoption que dans la dernière décennie.

Mais quoi d’autre ? Permettez-moi de prouver ma témérité en faisant neuf prédictions sur ce que 2010 nous réserve sur le plan des communautés, de la technologie et de l’économie de l’open source.

1. L’arrivée des pilotes vidéos totalement libres

Les utilisateurs ont dû attendre longtemps pour avoir des pilotes vidéo open source aussi performant que leurs pendants propriétaires. Mais d’ici à la fin de l’année prochaine cela pourrait bien se concrétiser. Les pilotes Intel sont déjà stables, et utilisés sur plus de 25% des ordinateurs open source.

Quant aux autres cartes graphiques, le noyau 2.6.33 de Linux devrait apporter une meilleure gestion des cartes ATI et NVIDIA. Attendez-vous donc à de gros progrès d’ici à la fin de l’année. Et dans le pire des cas, si des fonctions manquent encore, elles devraient être au point pour la mi-2011[2].

2. La communauté crééra un fork de MySQL

Quand Oracle a racheté Sun Microsystems en avril 2009, ils ont également acquis MySQL, la base de données la plus populaire d’Internet. Huit mois plus tard, le sort réservé par Oracle à MySQL est toujours incertain et les gens s’inquiètent.

Richard Stallman a demandé publiquement à Oracle de rendre MySQL à la communauté, alors que Monty Widenius, le créateur de MySQL, a initié une campagne de rédaction de lettres à la Commission européenne pour éviter le démembrement de la base de données par Oracle.

Étant donné qu’il semble n’y avoir aucune logique juridique pour aider ces campagnes, je pense qu’ils vont échouer. S’ils y arrivent, la méfiance envers Oracle aura certainement raison de l’intégration de MySQL dans les distributions open source.

Il y a de grandes chances que la communauté privilégie des forks existants de MySQL, probablement MariaDB de Widenius, qui est déjà intégrée au Launchpad d’Ubuntu. PostgreSQL, l’autre grande base de données open source, ne devrait pas tant en profiter car elle semble moins adaptée aux besoins des sites Web.

3. La sortie de Gnome 3.0 risque de déclencher une révolte chez les utilisateurs

Il y a deux ans, un vent de révolte accompagna la sortie de KDE 4.0, car cette nouvelle version instaurait une rupture avec les précédentes (des fonctions clés n’y étaient pas encore intégrées). GNOME 3.0, provisoirement prévu pour septembre 2010, ne devrait pas souffrir du même manque de fonctionnalités, mais les premières versions suggèrent un style nouveau, comme KDE 4.0 (et les premières réactions montrent que les utilisateurs y seront aussi hostiles).

L’avantage de GNOME est que ses développeurs peuvent bénéficier de l’expérience de KDE. Aucune hostilité n’est permanente, surtout si la prochaine version a une feuille de route claire.

Tout de même, les plaintes peuvent être spécialement fortes ou longues, qui sait ? Peut-être que les critiques envers GNOME attireront plus d’utilisateurs vers KDE ou vers des environnements graphiques moins connus comme Xfce.

4. La différence entre Logiciel Libre et Open Source va se creuser davantage

De l’extérieur, open source et logiciel libre sont des noms différents désignant le même phénomène. Cependant pour beaucoup de membres de communautés c’est comme dire que le Protestantisme n’est pas différent du Catholisisme. Malgré bon nombre de similarités l’open source est un mouvement de développeurs qui vise à perfectionner la qualité du code source, alors que le mouvement du logiciel libre se concentre sur les libertés accordées à l’utilisateur[3].

Dans la pratique, les deux philosophies coexistent (souvent à l’intérieur d’un même projet). Cependant, de temps à autre, ces membres rentrent en conflit. Le dernier conflit majeur était il y a deux ou trois ans à propos de la version 3.0 de la licence GNU GPL (GNU General Public License), qui donnait plus d’importance au logiciel libre que la version 2.0.

Le problème suivant qui provoquera un conflit reste incertaine. Cependant, les personnes soutenant le logiciel libre n’ont jamais été timides sur le fait d’exprimer leurs opinions, et les adhérents de l’open source sont devenus de plus en plus méprisants envers le logiciel libre en général et leur fondateur Richard Stallman en particulier. Dans la même veine, la rhétorique est devenue si méprisante que le conflit semble n’être qu’une question de temps.

Il y a deux ou trois semaines, le problème le plus probable apparaissait être le possible retrait de GNOME du projet orienté logiciel libre GNU, un changement qui ne signifierait presque rien dans la pratique, mais qui serait probablement perçu comme une preuve que GNOME est désormais clairement dans le camp de l’open source. Le problème, cependant, est plus complexe que la contestation du conflit lui-même.

5. L’open source sera encore confronté au sexisme

2009 nous a montré une série d’évènement dans lesquels des gens comme Richard Stallman[4] et Mark Shuttleworth ont été accusés de sexisme à cause de remarques faites en public.

Et avec l’observation que les femmes sont sous-représentées dans l’open source, 2009 a été l’année où la communauté a semblé découvrir cette problématique[5].

6. Google Chrome OS inaugurera les OS dans les nuages

Chrome OS, le système d’exploitation dans les nuages de Google, devrait sortir dans la deuxième moitié de 2010. Étant donné ce que l’on dit toujours sur l’état des version bêta des produits de Google, personne ne sera surpris que version finale soit retardée. Mais 2010 montrera, au moins, une version bêta avancée ou une release candidate. Malgré l’existence de Jolicloud, la majorité des utilisateurs verra Chrome OS comme le premier système d’exploitation dans les nuages.

Chrome OS devrait être téléchargé des millions de fois dans le premier mois de sa sortie, du fait de sa nouveauté. De plus, Google est en train de travailler avec les fabricants de matériel pour être sûr que Chrome OS sera supporté. Malgré tout, une grande partie des utilisateurs resteront sceptiques à l’égard de Chrome OS. Beaucoup d’entre-eux ont déjà de sérieux doutes sur les systèmes d’exploitations dans les nuages, et jusqu’à présent ils y sont moins à l’aise que sur les systèmes d’exploitations traditionnels, desquels ils sont censés être ainsi délivrés.

Je pense et j’espère que Chrome OS ne sera rien de plus qu’un produit de niche. De toutes les façons, on aura quand même le verdict sur la validité du concept avant la fin de 2010.

7. Mozilla Firefox et Google Chrome se disputeront la première place

Même si je ne me trompe pas en affirmant que Chrome OS ne suscitera que peu d’engouement, ce qu’il restera après sa disparition c’est bien le navigateur Chrome. Sa vitesse et son aspect multitâches sont des défis que devra relever Mozilla Firefox avec habileté pour lui faire face, d’autant plus que Chrome pourrait signifier une interruption du soutien de Google dans le développement de Mozilla.

Pour le moment, le plus grand avantage de Firefox réside dans ses milliers d’extensions. Bien que les premières extensions pour Chrome soient d’ores et déjà disponibles, elles ne battront pas celles de Mozilla en nombre ou en polyvalence avant quelques années (et ceci seulement s’il se forme une large communauté).

Cette situation veut dire que Chrome n’est pas plus prêt à dépasser Mozilla que Mozilla est prêt à dépasser Internet Explorer dans les prévisions futures. Cependant, en 2010, Chrome peut ronger la base des utilisateurs de Firefox sur le même principe que Firefox le fait avec ceux d’Internet Explorer.

8. Raindrop et Wave ne vont pas réussir à trouver des utilisateurs

Par coïncidence, deux des nouvelles applications que nous trouvons prometteuses pour 2010 sont Mozilla Raindrop, un outil de réseau social et de messagerie électronique one-stop[6], et Google Wave, un outil collaboratif.

Les deux sont intéressants pour les développeurs et les ergonomes. Cependant, à l’heure où j’écris ces lignes, Raindrop n’est pas encore sorti, et Wave est seulement accessible sur invitations. Je serais surpris que l’un ou l’autre devienne un grand succès. Il s’agit en effet de résoudre des problèmes que les utilisateurs ne voient pas comme tels. Je n’ai simplement pas l’impression que les utilisateurs souhaitent centraliser leur messagerie, ou soient particulièrement intéresses par une collaboration en temps-réel.

Même si les utilisateurs se montrent motivés, Raindrop et Wave sont tous les deux en l’état trop compliqués et spécialisés en l’état pour qu’ils soient réellement adoptés. Un réajustement est nécessaire. Les critiques seront probablement enthousiastes, parce qu’ils font partie des utilisateurs expérimentés. Et les autres utilisateurs ? Pas tellement.

9. Le Nexus One ne sera qu’un jouet pour les geeks

Dans le courant du mois de janvier, le Nexus One de Google va être disponible[7]. Le Nexus One a fait un gros (bien que pas totalement favorable) buzz à l’intérieur de la communauté des techniciens, mais on peut se demander se faire une place.

D’après des rapports, le Nexus One n’inclura pas de fonctionnalités qui aurait pu lui attirer les faveurs du grand public. En plus, il va entrer sur le marché des téléphones mobiles déjà saturé, et Google ne possède pas la réputation d’Apple. Sans compter qu’il sera d’autant moins aidé que, au début, il ne sera pas vendu par les opérateurs de téléphonie mobile, et ne sera pas non plus dans les boutiques. En ces circonstances, je pense que il se vendra principalement aux développeurs, et qu’il peinera à élargir ce cercle[8].

Avec un peu de recul

Cette liste a été établie en toute indépendance. Pourtant, en la relisant, je réalise que quatre des neuf prédictions impliquent Google. Cette observation suggère une meta-prédiction : 2010 sera une année cruciale pour Google. Son évolution de développeur en acteur majeur aussi bien dans le logiciel que dans le matériel se joue cette année.

Connaissant l’histoire de Google, le succès de cette entreprise me laisse pessimiste. Et pourtant, Google lance tellement d’innovations que tôt ou tard, elle est susceptible de sortir quelque chose d’incroyable, la démonstration du paradoxe du singe savant peut-être tout simplement[9].

Pour ce qui est de mes autres prédictions, même si je m’attends à des changements dans la communauté open source, je ne me prépare pas à l’Apocalypse. La communauté est vaste, les changements sont inéluctables, mais en même temps, cela n’aura pas forcément beaucoup d’impact sur les milliers de personnes qui envoient des correctifs quotidiennement. Sur le coup, les sentiments sont exacerbés, mais en fin de compte, la communauté poursuivra tranquillement sa route, même si de temps en temps le cours des choses sera perturbé par un événement imprévisible.

Et si jamais je me trompe ? Alors j’en appelle aux privilèges des voyantes et demanderait qu’il ne me soit pas tenu rigueur de mon manque de précision ou de mon incapacité à prévoir le futur et je me réserve le droit de retenter ma chance l’an prochain, sans que personne ne me rappelle à mes erreurs passées.

Notes

[1] Crédit photo : Sergis Blog (Creative Commons By)

[2] NDLR : À propos de vidéo, Byfield a rédigé son article avant la nouvelle guerre des formats du Web.

[3] NDLR : Pour mieux comprendre la nuance, il y a un livre intéressant sur le sujet 🙂

[4] NDLR : Byfield a consacré un article entier à ce sujet : Richard Stallman, Leadership, and Sexism.

[5] NDLR : Voir aussi ces deux articles du Framablog : Les femmes et le logiciel libre et Le code issu de Venus est-il meilleur que celui de Mars ?

[6] NDLR : Voir aussi l’article de Tristan Nitot : Thunderbird et Raindrop.

[7] Le Nexus One est déjà disponible, puisque nous publions cette traduction avec un mois de retard. On remarquera qu’il a les faveurs de Linus Torvalds

[8] NDLR : Le Nexus One ne sera peut-être pas un succès, mais il semblerait bien par contre qu’Android devienne lui un sérieux concurrent open source à Apple.

[9] NDLR : Le paradoxe du singe savant stipule qu’avec suffisamment de temps, un chimpanzé qui tape au hasard sur le clavier d’une machine à écrire pourra presque sûrement produire une copie intégrale d’une pièce de théâtre de Shakespeare.




Comment détruire votre communauté en 10 leçons

Giuseppe Bognanni - CC bySi vous avez le malheur de développer un projet « open source » au sein de votre entreprise alors vous courrez le risque de voir arriver une « communauté » qui peut à tout moment s’agréger autour du code source de votre logiciel et en menacer sa bonne gouvernance.

Heureusement le développeur Josh Berkus est là pour vous expliquer point par point comment faire pour être certain de ruiner et dissoudre toute velléité communautaire (au cours d’une intervention donnée il y a un mois à la Linux.Conf.au et relatée ici par Jonathan Corbet)[1].

Un article évidemment ironique (qui détourne les howto), mais qui donne à réfléchir sur les relations subtiles et complexes qui peuvent exister entre les communautés et les entreprises qui œuvrent sur un même projet.

Pas toujours facile de se comprendre en effet quand les uns disent plutôt « logiciel libre » et les autres plutôt « open source » (voire même parfois carrément « fauxopen source »).

Et puis, c’est pratique, puisqu’on dispose ainsi de tout ce qu’il ne faut pas faire pour réussir un projet communautaire.

On notera que Josh Berkus avait la société Sun Microsystems en tête lorsqu’il a énoncé son propos (Sun soutient notamment MySQL et OpenOffice.org). Mais comme il le précise lui-même a posteriori sur son blog, cela peut s’appliquer à n’importe quelle « corporate open source » et de citer alors entre autres Red Hat, Microsoft, IBM, Cisco, SugarCRM, Novell, Compiere, Borland, Google, ou encore Apple. « Si vous avez à faire à une compagnie qui possède un projet open source, vous pouvez être sûr à 95% qu’elle suit au moins un des dix points mentionnés ci-dessous »

Et de conclure positivement sur la nécessité de cultiver l’un des mots clés les plus importants de la communauté : la confiance.

Comment détruire votre communauté : mode d’emploi

How to destroy your community

Jonathan Corbet – 18 janvier 2010 – LWN.net
(Traduction Framalang : Olivier, Daria et Don Rico)

Le réputation de Josh Berkus en tant que hacker de PostgreSQL n’est plus à faire, mais ce n’est pas sa seule compétence, puisqu’il a aussi acquis une précieuse expérience durant sa pige au « Laboratoire de Destruction des Communautés », plus connu sous le nom de Sun Microsystems. Il y a suivi « l’enseignement breveté en 10 étapes » pour apprendre à débarrasser un projet de toute ingérence de la communauté.

La présentation très dynamique qu’a donnée Josh à la Linux.Conf.au sur le sujet était la première discussion de la miniconf L’économie de l’open source ; l’audience lui a réservé un accueil chaleureux.

Si vous êtes développeur dans une grosse entreprise, vous vous rendrez rapidement compte que les communautés de développement des logiciels libres sont une plaie. Dites adieu à vos plans marketing, par exemple, car elle se chargera d’introduire le logiciel dans des pays où vous êtes absents et pour lesquels vous n’avez pas de plan. Ils flanqueront par terre vos prévisions produits en sortant des innovations non-prévues, en implémentant des fonctionnalités des années avant ce que vous aviez planifié, ou pire encore, des fonctionnalités qui devaient être réservées à la version propriétaire de votre logiciel. Les communautés de logiciels libres sont d’éternelles insatisfaites, elles n’ont de cesse de vouloir améliorer les choses. Elles ont tendance à redéfinir les relations avec vos partenaires et vos clients, et vos commerciaux ne savent plus à quel saint se vouer. Et sans arrêt elles vous dérangent : un e-mail par ci, une conférence à laquelle vous devriez assister par là, etc.

Mais heureusement, des solutions existent pour vous débarrasser de la menace que représente cette communauté. Il suffit d’appliquer une ou plusieurs des étapes suivantes.

1. Rendez le projet dépendant d’outils complexes

Il a remarqué qu’en général, les entreprises n’ont pas de problème avec cette technique puisqu’elles aiment s’appuyer sur leurs propres outils. Pour les projets où la communauté n’est pas la bienvenue, il faut par exemple employer des systèmes singuliers qu’on ne trouve nulle part ailleurs. Un système de contrôle de version propriétaire (NdT : version control system) est absolument obligatoire. Mieux encore, un outil de suivi des problèmes (NdT : issue tracking system) avec un nombre limité de licences, afin que tout le monde doive s’y connecter avec le même compte.

N’oubliez pas de mettre en place un site Web qui respecte la parité : 50% du temps planté, 50% du temps opérationnel. Ne pas mettre de site à disposition ne suffira pas : dans de telles situations, la communauté a la fâcheuse habitude de créer le sien. Avec un site bancal, en revanche, vous vous en prémunirez et vous assurerez que l’information restera bien cachée.

2. Attirez les participants nocifs et optimisez les dégâts qu’ils peuvent engendrer

Ce cas particulier nécessite quelques étapes :

  1. Prenez sur vous et engagez-vous dans de longs débats avec ces personnes et dénoncez-les sur les listes du projet.
  2. Au bout d’un certain temps, bannissez-les par décret ; évitez à tout prix tout processus communautaire.
  3. Les gens bannis déverseront leur bile ailleurs. Vous devez les suivre et poursuivre votre débat sur ces sites externes.
  4. Enfin, la communauté se plaindra de ce comportement. Votre réponse sera simple : réintégrez les enquiquineurs à la communauté. Reprenez à la première étape et recommencez.

D’après Josh, un casse-pieds bien pris en main peut annihiler une communauté de plusieurs centaines de membres.

3. Ne fournissez pas de documentation

Aucune information utile ne devrait être disponible, ni pour le code, ni sur les méthodes de compilation, rien sur le processus de soumission de correctif, ni sur le processus de sortie, rien de rien. Puis, quand on demandera de l’aide, répondez « Lis la notice, bordel ! » (NdT : RTFM pour Read the fucking manual)

4. Prenez les décisions relatives au projet en petit comité

Pour bien commencer, vous pouvez organiser vos réunions en ligne en ne prévenant les participants que très peu de temps à l’avance. Pour que cette technique soit vraiment efficace, prévoyez ces réunions à des heures incompatibles avec le fuseau horaire commun à la plupart des membres de la communauté.

Le mieux est encore de tout faire en visioconférence : vous exclurez de fait environ un tiers de la planète pour qui elle se déroule de nuit, de plus, les gens ont un boulot, tant pis pour eux aussi. Mais le must reste encore d’organiser les réunions en personne au siège de la société.

5. Sortez la grosse artillerie juridique

S’impliquer dans le projet devrait rimer avec accords de participation alambiqués, contrats de licence protégeant le contenu du site Web, accords de confidentialité, marques déposées, etc. Pour ne pas faire les choses à moitié, tous ces documents devraient être modifiés en catimini à peu près tous les deux mois.

6. Choisissez avec soin l’agent de liaison avec la communauté

Votre meilleur candidat : quelqu’un de solitaire, quelqu’un qui n’a pas d’amis et qui n’apprécie pas vraiment les autres. Si vous n’en avez pas sous la main, prenez le membre de votre équipe qui a le plus de travail, quelqu’un avec des responsabilités en développement et en gestion, et qui travaille déjà au minimum 70 heures par semaine. Dans ce cas, il est primordial de ne pas le décharger de la moindre de ses responsabilités.

Quelqu’un qui ne maîtrise pas la technologie fera aussi l’affaire. Prenez un spécialiste de Java pour assurer la liaison dans un projet en Perl. Ou, si vraiment ces solutions ne sont pas possibles, laissez simplement la place vacante pendant des mois.

7. Rendez opaques les prises de décision

Les entreprises réfractaires aux communautés devraient, d’après Josh, s’inspirer des Nations Unies et créer des processus longs et complexes. Personne ne doit savoir qui prend réellement les décisions, c’est très bon pour transformer les contributeurs en éléments nocifs. Il va de soi que les règles devraient être immuables ou presque.

8. Faites n’importe quoi avec les licences

Les membres de la communauté étant souvent à cheval sur la question des licences, modifiez la licence et vous avez de bonnes chances de les faire fuir. Évoquer des changements de licence sans jamais vraiment rien modifier peut se révéler encore plus efficace : vous faites fuir les contributeurs actuels qui apprécient la licence choisie sans pour autant en attirer d’autres, adeptes eux de la future licence supposée.

9. N’accordez jamais, au grand jamais, l’accès au commit à quelqu’un d’extérieur à l’entreprise

Ce devrait être une règle (tacite évidemment) : seuls les employés peuvent avoir les droits de commit (NdT : avoir ces droits revient à avoir accès et contrôle sur le code source du dépôt officiel du logiciel). Vos réponses doivent être évasives, « problèmes légaux, on y travaille » est une bonne carte à jouer. Afin que cette mesure prenne tout son effet, choisissez un employé qui n’écrit pas de code et confiez lui l’accès au commit sur le projet.

10. Réfugiez-vous dans le silence

Laissez les questions sans réponse, ne dites rien. Maîtriser cette technique peut rendre, à elle seule, toutes les autres inutiles. C’est le meilleur moyen de détruire une communauté qui existe.

En conclusion, Josh ajoute que grâce à Sun, il peut témoigner de l’efficacité de toutes ces techniques. Mais Sun est loin d’être la seule entreprise dans cette situation. Un ancien du X Consortium a avoué à Josh qu’eux aussi avaient un jour recouru à chacune de ces méthodes. Ces compétences de destruction de communauté sont monnaie courante dans l’industrie du logiciel.

Mais que faire si votre entreprise veut au contraire se bâtir une communauté ?

Il paraît évident qu’elle devrait alors s’employer à appliquer à l’inverse les méthodes énumérées ci-dessus. Mais d’après Josh, la clé de voûte du système reste la confiance. À l’instar du mariage, développer une communauté peut prendre des années, mais une seule infidélité détruira la confiance qui en constitue le socle. Ainsi, une entreprise peut perdre la moitié de sa communauté en un week-end. Pour ne pas connaître ce triste sort, il faut avoir confiance en la communauté et agir de sorte que cette confiance soit réciproque.

Notes

[1] Crédit photo : Giuseppe Bognanni (Creative Commons By)




L’ouverture selon Google : « The meaning of open » traduit en français

Zach Klein - CC byLe Framablog termine l’année avec une traduction de poids qui offre quelque part une excellente transition entre la décennie précédente et la décennie suivante, parce que le vaste sujet évoqué sera, mais en fait est déjà, un enjeu crucial pour l’avenir.

Le mot « open » est servi à toutes les sauces en ce moment dans le monde anglophone. Un peu comme l’écologie, c’est un mot à la mode qui pénètre de plus en plus de domaines, et tout le monde se doit de l’être ou de feindre de l’être sous peine d’éveiller les soupçons, voire la réprobation.

Mais dans la mesure où il n’en existe pas de définition précise, chacun le comprend comme il veut ou comme il peut. Et l’écart peut être grand entre un logiciel libre et une multinationale qui se déclarent tous deux comme « open ». Une multinationale comme Google par exemple !

Il n’est pas anodin que le vice-président de la gestion des produits et du marketing, Jonathan Rosenberg, ait pris aujourd’hui sa plume pour publiquement expliquer (ou tenter d’expliquer) dans le détail ce que Google entendait par « open », dans un récent billet du blog officiel de la société intitulé, excusez du peu, The meaning of Open (comme d’autres s’interrogent sur the meaning of life).

Tout comme l’autre géant Facebook, Google est en effet actuellement sous la pression de ceux qui, entre autres, s’inquiètent du devenir des données personnelles traitées par la société[1]. Et cette pression ira croissante au fur et à mesure que Google aura une place de plus en plus grande sur Internet, à grands coups de services qui se veulent à priori tous plus intéressants les uns que les autres.

« Don’t be evil » est le slogan à double tranchant que s’est donné Google. Nous ne sommes certainement pas en face du diable, mais ce n’est pas pour autant que nous allons lui accorder le bon Dieu sans confession.

À vous de juger donc si, dans le contexte actuel, ce document est une convaincante profession de foi.

Nous avons choisi de traduire tout du long « open » par « ouverture » ou « ouvert ». L’adéquation n’est pas totalement satisfaisante, mais laisser le terme d’origine en anglais eut été selon nous plus encore source de confusion.

L’ouverture selon Google

Google and The meaning of open

Jonathan Rosenberg – 21 décembre 2009 – Blog officiel de Google
(Traduction non officielle Framalang : Goofy et Olivier)

La semaine dernière j’ai envoyé un email interne sur le sens de « l’ouverture » appliquée à Internet, Google et nos utilisateurs. Dans un souci de transparence, j’ai pensé qu’il pouvait être opportun de partager également ces réflexions à l’extérieur de notre entreprise.

Chez Google nous sommes persuadés que les systèmes ouverts l’emporteront. Ils conduisent à davantage d’innovation, de valeur, de liberté de choix pour les consommateurs et à un écosystème dynamique, lucratif et compétitif pour les entreprises. Un grand nombre d’entre elles prétendront à peu près la même chose car elles savent que se positionner comme ouvertes est à la fois bon pour leur image de marque et totalement sans risque. Après tout, dans notre industrie il n’existe pas de définition précise de ce que peut signifier « ouvert ». C’est un terme à la Rashomon (NdT : expression issue du film éponyme de Kurosawa) : à la fois extrêmement subjectif et d’une importance vitale.

Le thème de l’ouverture est au centre de nombreuses discussions ces derniers temps chez Google. J’assiste à des réunions autour d’un produit où quelqu’un déclare que nous devrions être davantage « ouverts ». Il s’ensuit un débat qui révèle que même si l’« ouverture » fait l’unanimité, nous ne sommes pas forcément d’accord sur ce qu’elle implique concrètement.

Face à ce problème récurrent, j’en arrive à penser que nous devrions exposer notre définition de l’ouverture en termes suffisamment clairs, afin que chacun puisse la comprendre et la défendre. Je vous propose ainsi une définition fondée sur mes expériences chez Google et les suggestions de plusieurs collègues. Ces principes nous guident dans notre gestion de l’entreprise et dans nos choix sur les produits, je vous encourage donc à les lire soigneusement, à les commenter et les débattre. Puis je vous invite à vous les approprier et à les intégrer à votre travail. Il s’agit d’un sujet complexe et si un débat à lieu d’être (ce dont je suis persuadé), il doit être ouvert ! Libre à vous d’apporter vos commentaires.

Notre définition de l’ouverture repose sur deux composantes : la technologie ouverte et l’information ouverte. La technologie ouverte comprend d’une part l’open source, ce qui veut dire que nous soutenons activement et publions du code qui aide Internet à se développer, et d’autre part les standards ouverts, ce qui signifie que nous adhérons aux standards reconnus et, s’il n’en existe pas, nous travaillons à la création de standards qui améliorent Internet (et qui ne profitent pas seulement à Google). L’information ouverte comprend selon nous trois idées principales : tout d’abord les informations que nous détenons sur nos utilisateurs servent à leur apporter une valeur ajoutée, ensuite nous faisons preuve de transparence sur les informations les concernant dont nous disposons, et enfin nous leur donnons le contrôle final sur leurs propres informations. Voilà le but vers lequel nous tendons. Dans bien des cas nous ne l’avons pas encore atteint, mais j’espère que la présente note contribuera à combler le fossé entre la théorie et la pratique.

Si nous pouvons incarner un engagement fort à la cause de l’ouverture, et je suis persuadé que nous le pouvons, nous aurons alors une occasion unique de donner le bon exemple et d’encourager d’autres entreprises et industries à adopter le même engagement. Et si elles le font, le monde s’en trouvera un peu meilleur.

Les systèmes ouverts sont gagnants

Pour vraiment comprendre notre position, il faut commencer par l’assertion suivante : les systèmes ouverts sont gagnants. Cela va à l’encontre de tout ce en quoi croient ceux qui sont formatés par les écoles de commerce, ceux qui ont appris à générer une avantage compétitif durable en créant un système fermé, en le rendant populaire, puis en tirant profit du produit pendant tout son cycle de vie. L’idée répandue est que les entreprises devraient garder les consommateurs captifs pour ne laisser aucune place à la concurrence. Il existe différentes approches stratégiques, les fabricants de rasoirs vendent leurs rasoirs bon marché et leurs lames très cher, tandis que ce bon vieux IBM fabrique des ordinateurs centraux coûteux et des logiciels… coûteux aussi. D’un autre côté, un système fermé bien géré peut générer des profits considérables. Cela permet aussi à court terme de mettre sur le marché des produits bien conçus, l’iPod et l’iPhone en sont de bons exemples, mais finalement l’innovation dans un système fermé tend à être, au mieux, incrémentale (est-ce qu’un rasoir à quatre lames est vraiment tellement mieux qu’un rasoir à trois lames ?). Parce que la priorité est de préserver le statu quo. L’autosatisfaction est la marque de fabrique de tous les systèmes fermés. Si vous n’avez pas besoin de travailler dur pour garder votre clientèle, vous ne le ferez pas.

Les systèmes ouverts, c’est exactement l’inverse. Ils sont compétitifs et bien plus dynamiques. Dans un système ouvert, un avantage compétitif n’est pas assujetti à l’emprisonnement des consommateurs. Il s’agit plutôt de comprendre mieux que tous les autres un système très fluctuant et d’utiliser cette intuition pour créer de meilleurs produits plus innovants. L’entreprise qui tire son épingle du jeu dans un système ouvert est à la fois douée pour l’innovation rapide et la conception avant-gardiste ; le prestige du leader dans la conception attire les consommateurs et l’innovation rapide les retient. Ce n’est pas facile, loin de là, mais les entreprises qui réagissent vite n’ont rien à redouter, et lorsqu’elles réussissent elles peuvent générer de gigantesques dividendes.

Systèmes ouverts et entreprises prospères ne sont pas inconciliables. Ils tirent parti de l’intelligence collective et incitent les entreprises à une saine concurrence, à l’innovation et à miser leur succès sur le mérite de leurs produits et pas seulement sur un brillant plan marketing. La course à la carte du génome humain est un bon exemple.

Dans leur livre Wikinomics, Don Tapscott et Anthony Williams expliquent comment, au milieu des années 90, des entreprises privées ont découvert et breveté de grandes portions des séquences de l’ADN et ont prétendu contrôler l’accès à ces données et leur tarif. Faire ainsi du génome une propriété privée a fait grimper les prix en flèche et a rendu la découverte de nouveaux médicaments bien plus difficile. Et puis, en 1995, Merck Pharmaceuticals et le Centre de Séquençage du Génome de l’Université de Washington ont changé la donne avec une nouvelle initiative « ouverte » baptisée l’Index Génétique Merck. En trois ans seulement ils ont publié plus de 800 000 séquences génétiques et les ont mises dans le domaine public et bientôt d’autres projets collaboratifs ont pris le relais. Tout cela au sein d’un secteur industriel où la recherche initiale et le développement étaient traditionnellement menés dans des laboratoires « fermés ». Par sa démarche « ouverte », Merck a donc non seulement modifié la culture d’un secteur entier mais aussi accéléré le tempo de la recherche biomédicale et le développement des médicaments. L’entreprise a donné aux chercheurs du monde entier un accès illimité à des données génétiques, sous forme d’une ressource « ouverte ».

Les systèmes ouverts permettent l’innovation à tous les niveaux, voilà une autre différence majeure entre les systèmes ouverts et fermés. Ils permettent d’innover à tous les étages, depuis le système d’exploitation jusqu’au niveau de l’application, et pas uniquement en surface. Ainsi, une entreprise n’est pas dépendante du bon vouloir d’une autre pour lancer un produit. Si le compilateur GCC que j’utilise a un bogue, je peux le corriger puisque le compilateur est open source. Je n’ai pas besoin de soumettre un rapport de bogue et d’espérer que la réponse arrivera rapidement.

Donc, si vous essayez de stimuler la croissance d’un marché entier, les systèmes ouverts l’emportent sur les systèmes fermés. Et c’est exactement ce que nous nous efforçons de faire avec Internet. Notre engagement pour les systèmes ouverts n’est pas altruiste. C’est simplement dans notre intérêt économique puisque un Internet ouvert génère un flot continu d’innovations qui attirent les utilisateurs et créé de nouveaux usages, pour finalement faire croître un marché tout entier. Hal Varian note cette équation dans son livre Les règles de l’information :

 le gain = (la valeur totale ajoutée à une industrie) x (la part de marché dans cette industrie) 

Toutes choses étant égales par ailleurs, une augmentation de 10% de l’un ou l’autre de ces deux facteurs devrait produire au résultat équivalent. Mais dans notre marché une croissance de 10% génèrera un revenu bien supérieur parce qu’elle entraîne des économies d’échelle dans tout le secteur, augmentant la productivité et réduisant les coûts pour tous les concurrents. Tant que nous continuerons d’innover en sortant d’excellents produits, nous prospèrerons en même temps que tout notre écosystème. Nous aurons peut-être une part plus petite, mais d’un plus grand gâteau.

En d’autres termes, l’avenir de Google dépend de la sauvegarde d’un Internet ouvert, et notre engagement pour l’ouverture développera le Web pour tout le monde, y compris Google.

La technologie ouverte

Pour définir l’ouverture, il faut commencer par les technologies sur lesquelles repose Internet : les standards ouverts et les logiciels open source.

Les standards ouverts

Le développement des réseaux a toujours dépendu des standards. Lorsqu’on a commencé à poser des voies ferrées à travers les États-Unis au début du 19ème siècle, il existait différents standards d’écartement des voies. Le réseau ferré ne se développait pas et n’allait pas vers l’ouest jusqu’à ce que les diverses compagnies ferroviaires se mettent d’accord sur un écartement standard. (Dans ce cas précis la guerre de standards a été une vraie guerre : les compagnies ferroviaires sudistes furent obligées de convertir plus de 1100 miles au nouveau standard après que la Confédération eut perdu contre l’Union pendant la Guerre Civile.)

Il y eut un autre précédent en 1974 quand Vint Cerf et ses collègues proposèrent d’utiliser un standard ouvert (qui deviendrait le protocole TCP/IP) pour connecter plusieurs réseaux d’ordinateurs qui étaient apparus aux USA. Ils ne savaient pas au juste combien de réseaux avaient émergé et donc « l’Internet », mot inventé par Vint, devait être ouvert. N’importe quel réseau pouvait se connecter en utilisant le protocole TCP/IP, et grâce à cette décision à peu près 681 millions de serveurs forment aujourd’hui Internet.

Aujourd’hui, tous nos produits en développement reposent sur des standards ouverts parce que l’interopérabilité est un élément crucial qui détermine le choix de l’utilisateur. Quelles en sont les implications chez Google et les recommandation pour nos chefs de projets et nos ingénieurs ? C’est simple : utilisez des standards ouverts autant que possible. Si vous vous risquez dans un domaine où les standards ouverts n’existent pas, créez-les. Si les standards existants ne sont pas aussi bons qu’ils le devraient, efforcez-vous de les améliorer et rendez vos améliorations aussi simples et documentées que possible. Les utilisateurs et le marché au sens large devraient toujours être nos priorités, pas uniquement le bien de Google. Vous devriez travailler avec les organismes qui établissent les normes pour que nos modifications soient ajoutées aux spécifications validées.

Nous maitrisons ce processus depuis un certain temps déjà. Dans les premières années du Google Data Protocol (notre protocole standard d’API, basé sur XML/Atom), nous avons travaillé au sein de l’IEFT (Atom Protocol Working Group) à élaborer les spécifications pour Atom. Mentionnons aussi notre travail récent au WC3 pour créer une API de géolocation standard qui rendra plus facile le développement d’applications géolocalisées pour le navigateur. Ce standard aide tout le monde, pas seulement nous, et offrira aux utilisateurs beaucoup plus d’excellentes applications mises au point par des milliers de développeurs.

Open source

La plupart de ces applications seront basées sur des logiciels open source, phénomène à l’origine de la croissance explosive du Web de ces quinze dernières années. Un précédent historique existe : alors que le terme « Open Source » a été créé à la fin des années 90, le concept de partage de l’information utile dans le but de développer un marché existait bien avant Internet. Au début des années 1900, l’industrie automobile américaine s’accorda sur une licence croisée suivant laquelle les brevets étaient partagés ouvertement et gratuitement entre fabricants. Avant cet accord, les propriétaires du brevet des moteurs à essence à deux temps contrôlaient carrément l’industrie.

L’open source de nos jours va bien plus loin que le groupement de brevets de l’industrie automobile naissante, et a conduit au développement des composants logiciels sur lesquels est bâti Google : Linux, Apache, SSH et d’autres. En fait, nous utilisons des dizaines de millions de lignes de code open source pour faire tourner nos produits. Nous renvoyons aussi l’ascenseur : nous sommes les plus importants contributeurs open source du monde, avec plus de 800 projets pour un total de 20 millions de lignes de code open source, avec quatre projets (Chrome, Android, Chrome OS et le Google Web Toolkit) qui dépassent chacun un million de lignes. Nos équipes collaborent avec Mozilla et Apache et nous fournissons une plateforme d’hébergement de projets open source (code.google.com/hosting) qui en accueille plus de 250 000. Ainsi, non seulement nous savons que d’autres peuvent participer au perfectionnement de nos produits, mais nous permettons également à tout un chacun de s’inspirer de nos produits s’il estime que nous n’innovons plus assez.

Lorsque nous libérons du code, nous utilisons la licence ouverte, standard, Apache 2.0, ce qui signifie que nous ne contrôlons pas le code. D’autres peuvent s’en emparer, le modifier, le fermer et le distribuer de leur côté. Android en est un bon exemple, car plusieurs assembleurs OEM ont déjà tiré parti du code pour en faire des choses formidables. Procéder ainsi comporte cependant des risques, le logiciel peut se fragmenter entre différentes branches qui ne fonctionneront pas bien ensemble (souvenez-vous du nombre de variantes d’Unix pour station de travail : Apollo, Sun, HP, etc.). Nous œuvrons d’arrache-pied pour éviter cela avec Android.

Malgré notre engagement pour l’ouverture du code de nos outils de développement, tous les produits Google ne sont pas ouverts. Notre objectif est de maintenir un Internet ouvert, qui promeut le choix et la concurrence, empêchant utilisateurs et développeurs d’être prisonniers. Dans de nombreux cas, et particulièrement pour notre moteur de recherche et nos projets liés à la publicité, ouvrir le code ne contribuerait pas à atteindre ces objectifs et serait même dommageable pour les utilisateurs. La recherche et les marchés publicitaires se livrent déjà une concurrence acharnée pour atteindre les prix les plus justes, si bien que les utilisateurs et les publicitaires ont déjà un choix considérable sans être prisonniers. Sans parler du fait qu’ouvrir ces systèmes permettrait aux gens de « jouer » avec nos algorithmes pour manipuler les recherches et les évaluations de la qualité des publicités, en réduisant la qualité pour tout le monde.

Alors lorsque que vous créez un produit ou ajoutez de nouvelles fonctions, il faut vous demander : est-ce que rendre ce code open source va promouvoir un Internet ouvert ? Est-ce qu’il va augmenter le choix de l’utilisateur, du publicitaire et des partenaires ? Est-ce qu’il va en résulter une plus grande concurrence et davantage d’innovation ? Si c’est le cas, alors vous devriez passer le code en open source. Et quand vous le ferez, faite-le pour de bon ; ne vous contentez pas de le balancer dans le domaine public et puis de l’oublier. Assurez-vous que vous avez les ressources pour maintenir le code et que vos développeurs soient prêt à s’y consacrer. Le Google Web Toolkit, que nous avons développé en public en utilisant un gestionnaire de bogues et un système de version publics, est ainsi un exemple de bonnes pratiques.

L’information ouverte

La création des standards ouverts et de l’open source a transformé le Web en un lieu où d’énormes quantités d’informations personnelles sont régulièrement mises en ligne : des photos, des adresses, des mises à jour… La quantité d’informations partagées et le fait qu’elles soient enregistrées à jamais impliquent une question qu’on ne se posait pas vraiment il y a quelques années : qu’allons-nous faire de ces informations ?

Historiquement, les nouvelles technologies de l’information ont souvent permis l’émergence de nouvelles formes de commerce. Par exemple, quand les marchands du bassin méditerranéen, vers 3000 avant JC ont inventé les sceaux (appelés bullae) pour s’assurer que leur cargaison atteindrait sa destination sans être altérée, ils ont transformé un commerce local en commerce longue distance. Des modifications semblables ont été déclenchées par l’apparition de l’écriture, et plus récemment, par celle des ordinateurs. À chaque étape, la transaction, un accord mutuel où chaque partie trouve son compte, était générée par un nouveau type d’information qui permettait au contrat d’être solidement établi.

Sur le Web la nouvelle forme de commerce, c’est l’échange d’informations personnelles contre quelque chose qui a de la valeur. C’est une transaction à laquelle participent des millions d’entre nous chaque jour et qui a d’énormes avantages potentiels. Un assureur automobile peut surveiller les habitudes de conduite d’un client en temps réel et lui donner un bonus s’il conduit bien, un malus dans le cas contraire, grâce aux informations (suivi GPS) qui n’étaient pas disponibles il y a seulement quelques années. C’est une transaction tout à fait simple, mais nous rencontrerons des cas de figure bien plus délicats.

Supposons que votre enfant ait une allergie à certains médicaments. Est-ce que vous accepteriez que son dossier médical soit accessible par une seringue intelligente en ligne qui empêcherait un médecin urgentiste ou une infirmière de lui administrer accidentellement un tel médicament ? Moi je pourrais le faire, mais vous pourriez décider que le bracelet autour de son poignet est suffisant (NdT : voir allergy bracelet). Et voilà le problème, tout le monde ne prendra pas la même décision, et quand on en vient aux informations personnelles nous devons traiter chacune de ces décisions avec le même respect.

Mais si mettre davantage d’informations en ligne peut être bénéfique pour tout le monde, alors leurs usages doivent être régis par des principes suffisamment responsables, proportionnés et flexibles pour se développer et s’adapter à notre marché. Et à la différence des technologies ouvertes, grâce auxquelles nous souhaitons développer l’écosystème d’Internet, notre approche de l’information ouverte est de créer la confiance avec les individus qui s’engagent dans cet écosystème (les utilisateurs, les partenaires et les clients). La confiance est la monnaie la plus importante en ligne, donc pour la créer nous adhérons à trois principes de l’information ouverte : valeur, transparence et contrôle.

La valeur

En premier lieu, nous devons créer des produits qui ont une valeur aux yeux des utilisateurs. Dans de nombreux cas, nous pouvons faire des produits encore meilleurs si nous disposons de davantage d’informations sur l’utilisateur, mais des problèmes de protection de la vie privée peuvent survenir si les gens ne comprennent pas quelle valeur ajoutée ils obtiennent en échange de leurs informations. Expliquez-leur cette valeur cependant, et le plus souvent ils accepteront la transaction. Par exemple, des millions de gens laissent les organismes de cartes de crédit retenir leurs informations au moment de l’achat en ligne, en échange cela leur évite d’utiliser de l’argent liquide.

C’est ce que nous avons fait lorsque nous avons lancé Interest-Based Advertising (la publicité basée sur l’intérêt des utilisateurs) en mars. L’IBA rend les publicités plus pertinentes et plus utiles. C’est une valeur ajoutée que nous avons créée, basée sur les informations que nous collectons. L’IBA comprend aussi un gestionnaire de préférences de l’utilisateur qui lui explique clairement ce qu’il obtiendra en échange de ses informations, qui lui permet de se désengager ou de régler ses paramètres. La plupart des gens parcourant le gestionnaire de préférences choisissent de régler leurs préférences plutôt que de se désinscrire parce qu’ils ont pris conscience de l’intérêt de recevoir des publicités ciblés.

Telle devrait être notre stratégie : dire aux gens, de façon explicite et en langage clair, ce que nous savons d’eux et pourquoi il leur est profitable que nous le sachions. Vous croyez peut-être que la valeur de nos produits est tellement évidente qu’elle n’a pas besoin d’être expliquée ? Pas si sûr.

La transparence

Ensuite, il nous faut permettre aux utilisateurs de trouver facilement quelles informations nous collectons et stockons à travers tous nos produits. Le tableau de bord Google est à ce titre un énorme pas en avant (NdT : le Google Dashboard). En une page, les utilisateurs peuvent voir quelles données personnelles sont retenues par tel produit Google (ce qui couvre plus de 20 produits, notamment Gmail, YouTube et la recherche) et où ils peuvent contrôler leurs paramètres personnels. Nous sommes, à notre connaissance, la première entreprise sur Internet à offrir un tel service et nous espérons que cela deviendra la norme. Un autre exemple est celui de notre politique de confidentialité, qui est rédigée pour des être humains et non pour des juristes.

Nous pouvons cependant en faire plus encore. Tout produit qui récolte des informations sur les utilisateurs doit apparaître sur le tableau de bord. S’il y est déjà, vous n’en avez pas fini pour autant. À chaque nouvelle version ou nouvelle fonctionnalité, demandez-vous si vous ne devriez pas ajouter quelques nouvelles informations au tableau de bord (peut-être même des informations sur les utilisateurs publiquement disponibles sur d’autres sites).

Réfléchissez aux moyen de rendre vos produits plus transparents aussi. Quand vous téléchargez une application pour Android, par exemple, votre appareil vous dit à quelles informations l’application pourra accéder, concernant votre téléphone et vous-même, et vous pouvez alors décider si vous souhaitez ou non poursuivre. Pas besoin de faire une enquête approfondie pour trouver quelles informations vous divulguez, tout est écrit noir sur blanc et vous êtes libre de décider (NdT : allusion à peine voilée aux récents problèmes rencontrés par l’iPhone sur le sujet). Votre produit entre dans cette catégorie ? Comment la transparence peut-elle servir la fidélisation de vos utilisateurs ?

Le contrôle

Nous devons toujours donner le contrôle final à l’utilisateur. Si nous avons des informations sur lui, comme avec l’IBA, il devrait être facile pour lui de les supprimer et de se désinscrire. S’il utilise nos produits et stocke ses contenus chez nous, ce sont ses contenus, pas les nôtres. Il devrait être capable de les exporter et de les supprimer à tout moment, gratuitement, et aussi aisément que possible. Gmail est un très bon exemple de ce processus puisque nous proposons une redirection gratuite vers n’importe quelle adresse. La possibilité de changer d’opérateur est cruciale, donc au lieu de bâtir des murs autour de vos produits, bâtissez des ponts. Donnez vraiment le choix aux utilisateurs.

S’il existe des standards pour gérer les données des utilisateurs, nous devons nous y conformer. S’il n’existe pas de standard, nous devons travailler à en créer un qui soit ouvert et profite au Web tout entier, même si un standard fermé nous serait plus profitable (souvenez-vous que ce n’est pas vrai !). Entretemps nous devons faire tout notre possible pour que l’on puisse quitter Google aussi facilement que possible. Google n’est pas l’Hôtel California (NdT : en référence à la célèbre chanson des Eagles), vous pouvez le quitter à tout moment et vous pouvez vraiment partir, pour de bon !

Comme le signalait Eric dans une note stratégique « nous ne prenons pas les utilisateurs au piège, nous leur facilitons la tâche s’ils veulent se tourner vers nos concurrents ». On peut comparer cette politique aux sorties de secours dans un avion, une analogie que notre PDG apprécierait. Vous espérez n’avoir jamais à les utiliser, mais vous êtes bien content qu’elles soient là et seriez furieux s’il n’y en avait pas.

Voilà pourquoi nous avons une équipe, le Data Liberation Front (dataliberation.org) (NdT : le Front de Libération des Données), dont le travail consiste à rendre la « désinscription » facile. Leurs derniers hauts faits : Blogger (les gens qui choisissent de quitter Blogger pour un autre service peuvent facilement emporter leurs données avec eux) et les Docs (les utilisateurs peuvent maintenant rassembler tous leurs documents, présentations, feuilles de calcul dans un fichier compressé et le télécharger). Créez vos produits en ayant ceci à l’esprit. Vous pouvez le faire grâce à une bonne API publique (NdT : interface de programmation) répertoriant toutes les données de vos utilisateurs. N’attendez pas d’être en version 2 ou 3, discutez-en le plus tôt possible et faites-en une fonctionnalité dès le démarrage de votre projet.

Lorsque les journalistes du Guardian (un quotidien anglais de premier ordre) ont rendu compte des travaux du Data Liberation Front , ils ont déclaré que c’était « contre-intuitif » pour ceux qui sont « habitués à la mentalité fermée des guerres commerciales passées ». Ils ont raison, c’est contre-intuitif pour les gens qui sont restés coincés dans leur conception d’école de commerce, mais si nous faisons bien notre travail, ce ne sera plus le cas. Nous voulons faire de l’ouverture la norme. Les gens vont s’y habituer doucement, ensuite elle deviendra la norme et ils l’exigeront. Et s’ils ne l’obtiennent pas cela ne leur plaira pas. Nous considèrerons notre mission accomplie lorsque l’ouverture ira de soi.

Plus c’est grand, mieux c’est

Les systèmes fermés sont bien définis et génèrent du profit, mais seulement pour ceux qui les contrôlent. Les systèmes ouverts sont chaotiques et génèrent du profit, mais seulement pour ceux qui les comprennent bien et s’adaptent plus vite que les autres. Les systèmes fermés se développent vite alors que les systèmes ouverts se développent plus lentement, si bien que parier sur l’ouverture nécessite de l’optimisme, de la volonté et les moyens de pouvoir se projeter sur le long terme. Heureusement, chez Google nous avons ces trois atouts.

En raison de notre dimension, de nos compétences et de notre appétit pour les projets ambitieux, nous pouvons relever des défis importants nécessitant de lourds investissements sans perspective évidente de rentabilité à court terme. Nous pouvons photographier toutes les rues du monde pour que vous puissiez explorer le quartier autour de l’appartement que vous envisagez de louer, à plusieurs milliers de kilomètres de chez vous. Nous pouvons numériser des milliers de livres et les rendre largement accessibles (tout en respectant les droits des auteurs et des éditeurs). Nous pouvons créer un système de mail qui vous donne un gigaoctet d’espace de stockage (maintenant plus de 7 gigas, en fait) au moment où tous les autres services ne vous procurent guère qu’une petite fraction de ce volume. Nous pouvons traduire instantanément des pages Web dans n’importe quelle des 51 langues disponibles. Nous pouvons traiter des recherches de données qui aident les agences de santé publiques à détecter plus tôt les pics d’épidémie grippale. Nous pouvons élaborer un navigateur plus rapide (Chrome), un meilleur système d’exploitation pour mobile (Android), et une plateforme de communication entièrement nouvelle (Wave), et puis nous pouvons ouvrir tout cela pour que le monde entier puisse innover sur cette base, afin de la personnaliser et l’améliorer.

Nous pouvons réaliser tout cela parce que ce sont des problèmes d’information et que nous avons des spécialistes en informatique, en technologie, et les capacités informatiques pour résoudre ces problèmes. Quand nous le faisons, nous créons de nombreuses plateformes, pour les vidéos, les cartes, les mobiles, les ordinateurs personnels, les entreprises, qui sont meilleures, plus compétitives et plus innovantes. On nous reproche souvent d’être de trop « gros », mais parfois être plus gros nous permet de nous attaquer à ce qui semble impossible.

Tout ceci sera pourtant vain si nous négocions mal le virage de l’ouverture. Il nous faut donc nous pousser nous-mêmes en permanence. Est-ce que nous contribuons à des standards ouverts qui bénéficient à l’industrie ? Qu’est-ce qui nous empêche de rendre notre code open source ? Est-ce que nous donnons à nos utilisateurs davantage de valeur, de transparence et de contrôle ? Pratiquez l’ouverture autant que vous le pouvez et aussi souvent que possible, et si quelqu’un se demande si c’est la bonne stratégie, expliquez-lui pourquoi ce n’est pas simplement une bonne stratégie, mais la meilleure qui soit . Elle va transformer les entreprises et le commerce de ce tout début du siècle, et quand nous l’aurons emporté nous pourrons effectivement ré-écrire les topos des écoles de commerce pour les décennies à venir.

Un Internet ouvert transformera notre vie tout entière. Il aura le pouvoir d’apporter les informations du monde entier jusque dans le creux de la main de chacun et de donner à chacun le pouvoir de s’exprimer librement. Ces prédictions étaient dans un e-mail que je vous ai envoyé au début de cette année (repris ensuite dans un billet du blog) et qui vous décrivait ma vision du futur d’Internet. Mais maintenant je vous parle d’action, pas de vision. L’Internet ouvert a ses détracteurs, des gouvernements désirant en contrôler l’accès, des entreprises luttant dans leur intérêt exclusif pour préserver le statu quo. Ces forces sont puissantes et si elles réussissent, nous allons nous retrouver entravés dans un Internet fragmenté, stagnant, à coût élevé et à faible concurrence.

Nos compétences et notre culture nous offrent l’occasion et nous donnent la responsabilité d’empêcher que cela n’arrive. Nous croyons que la technologie a le pouvoir de répandre l’information. Nous croyons que l’information a le pouvoir d’améliorer les choses. Nous croyons que la majorité ne profitera de cette révolution que grâce à l’ouverture. Nous sommes des techno-optimistes confiants dans l’idée que le chaos de l’ouverture profite à tout le monde. Et nous nous battrons pour la promouvoir en toutes occasions.

L’ouverture l’emportera. Elle l’emportera sur Internet et gagnera par effet boule de neige beaucoup de domaines de notre vie. L’avenir des gouvernements est la transparence. L’avenir du commerce est l’information réciproque. L’avenir de la culture est la liberté. L’avenir de l’industrie du divertissement est l’interactivité. Chacun de ces futurs dépend de l’ouverture d’Internet.

En tant que chefs de produits chez Google, vous élaborez quelque chose qui nous survivra à tous, et personne ne sait dans quelles directions Google poursuivra son développement, ni à quel point Google va changer la vie des gens. Dans cette perspective, nous sommes comme notre collègue Vint Cerf, qui ne savait pas exactement combien de réseaux feraient partie de ce fameux « Internet » et qui l’a laissé ouvert par défaut. Vint a certainement eu raison. Je crois que le futur nous donnera raison aussi.

Notes

[1] Crédit photo : Zach Klein (Creative Commons By)




Google : numéro 1 mondial de l’open source ?

Austin Ziegler - CC by-saAh qu’il était doux et rassurant le temps de l’informatique à grand-papa où nous avions nos ordinateurs fixes qui se connectaient de temps en temps et où nous luttions avec confiance et enthousiasme contre le grand-méchant Microsoft !

Ce temps-là est révolu. Nous entrons dans une autre décennie et il se pourrait bien que le principal sujet de conversation de la communauté du logiciel libre dans les dix ans à venir ne soit plus Microsoft (symbole du logiciel propriétaire, j’ai mal à mes fichiers !) mais Google (symbole de l’informatique dans les nuages, j’ai mal à mes données personnelles !)[1].

Firefox, bouffé par Chrome ? Ubuntu, court-circuité par Chrome OS ? Le Web tout entier se transformant petit à petit en un fort joli Minitel 2.0 bourré de services Google à tous les coins de rue ? Ces différents scénarios ne relèvent pas forcément de la science-fiction.

Le problème c’est que nous n’avons plus un Microsoft en face d’une limpide ligne de démarcation. Le problème c’est que nous avons affaire à rien moins qu’au premier contributeur open source de la planète. Et cela rend légèrement plus complexe le positionnement…

La plus grande entreprise mondiale de l’open-source ? Google

World’s biggest open-source company? Google

Matt Asay – 16 septembre 2009 – Cnet news
(Traduction Framalang : Julien et Cheval boiteux)

Red Hat est généralement considérée comme la principale société open source de l’industrie, mais c’est une distinction dénuée de sens parce qu’elle est inexacte. Alors que les revenus de Red Hat proviennent des logiciels open source que la société développe et distribue, d’autres entreprises comme Sun, IBM et Google écrivent et contribuent en réalité à beaucoup plus de code open source. Il serait temps d’arrêter de parler d’entreprises open source et de revenir à l’importance du code open source.

L’open source est de plus en plus le socle sur lequel reposent les entreprises d’internet et du logiciel. Myspace a dernièrement fait des vagues en ouvrant les sources de Qizmt, un framework de calcul distribué (qui curieusement tourne sur Windows Server) qui active la fonction « Personnes que tu pourrais connaître » du site. Mais Myspace, comme l’a noté VentureBeat, n’a fait que rattraper la récente ouverture des sources de Tornado par Facebook.

Aucun d’eux ne le fait pour marquer des points auprès des utilisateurs branchés. S’ils le font, c’est motivé par leurs propres intérêts, qui nécessitent de plus en plus souvent d’inciter des communautés de développeurs à adopter et étendre leurs propres applications et services Web.

C’est également un moyen d’améliorer la qualité des logiciels. En adoptant les projets open source d’une entreprise, puis en l’étendant à travers ses propres logiciels open source, la qualité collective de l’open source est forte et croissante, comme le note Kit Plummer d’Accenture.

C’est cette compréhension de l’intérêt qu’il apporte et la qualité qui en découle qui a fait de l’open source une architecture essentielle pour potentiellement tous les logiciels commerciaux, ce qui signifie que Red Hat et d’autres entreprises qui ne font que de l’open source ne sont désormais plus le centre de cet univers.

Le noyau Linux est composé de 11,5 millions de lignes de code, dont Red Hat est responsable à hauteur de 12% (mesuré en termes de lignes de code modifiées). Même si l’on y ajoute le serveur d’applications JBoss Application Server (environ 2 autres millions de lignes de code) et d’autres projets Red Hat, on obtient toujours un total inférieur à d’autres acteurs.

Prenons Sun, par exemple. C’est le principal développeur derrière Java (plus de 6.5 millions de ligne de code), Solaris (plus de 2 millions de lignes de code), OpenOffice (environ 10 millions de lignes) et d’autres projets open source.

Ou bien IBM, qui a contribué à lui seul à 12,5 millions de lignes pour Eclipse, sans parler de Linux (6.3% du total des contributions), Geronimo, et un large éventail d’autres projets open source.

Google, cependant, est la société la plus intéressante de toutes, car elle n’est pas une entreprise de logiciels en soi. J’ai interrogé Chris DiBona, responsable des programmes open source et secteur public de Google, à propos des contributions de la société dans le domaine de l’open source (NdT : Cf Tout, vous saurez tout sur Google et l’Open Source sur le Framablog). Voici sa réponse :

Au bas mot, nous avons libéré environ 14 millions de lignes de code. Android dépasse les 10 millions de lignes, puis vous avez Chrome (2 millions de lignes, Google Web Toolkit (300 000 lignes), et aux alentours d’un projet par semaine sorti au cours des cinq dernières années. Vous avez ainsi quelques centaines d’employés Google qui patchent sur une base hebdomadaire ou mensuelle.

Si DiBona se garde bien de suggérer que Google soit devenu le premier contributeur open source (« disons que nous sommes parmi les premiers »), c’est néanmoins probablement le cas, en particulier lorsque l’on considère ses autres activités open source, incluant Google Code, l’hébergement du plus grand dépôt peut-être de projets open source, avec plus de 250 000 projets hébergés, dont au moins 40 000 sont actifs, sans parler de son Summer of Code. Après tout, les lignes de code, bien que fondamentalement utiles, ne sont pas nécessairement la meilleure mesure de la valeur d’une contribution à l’open source.

En fait, Patrick Finch de la fondation Mozilla estime que la meilleure contribution de Google à l’open source n’a probablement rien à voir avec l’écriture de nouveau code :

La plus grande contribution de Google à l’open-source n’est sans doute pas du code, mais de prouver que vous pouvez utiliser Linux à grande échelle sur des machines démarquées (NdT : whitebox hardware).

C’est une étape importante, et qui souligne le fait que le label « entreprise open source » est devenu quelque peu obsolète. Google ne se présente pas, à juste titre, comme une entreprise open source. L’open source fait simplement partie de leur stratégie pour distribuer des logiciels qui vont aider à vendre davantage de publicité.

Sun a tenté de se transformer en entreprise open source, mais une fois que son acquisition par Oracle aura été finalisée, cette dernière ne va certainement pas prendre ce label. Pas parce que c’est un mauvais label, mais simplement parce qu’il n’est plus pertinent.

Toutes les entreprises sont désormais des entreprises open source. Ce qui signifie aussi qu’aucune ne l’est. L’open source est simplement un élément parmi d’autres de la politique de développement et de croissance de ces entreprises, que l’on s’appelle Red Hat, Microsoft, Google ou Facebook.

Et étant donné que les entreprises du Web comme Google n’ont pas besoin de monétiser directement l’open source, on va en fait avoir l’occasion à l’avenir de voir encore plus de code open source émerger de la part de ces sociétés que ce qui a déjà été réalisé par ces traditionnelles « entreprises de logiciels open-source » que sont Red Hat, Pentaho ou MySQL.

Notes

[1] Crédit photo : Austin Ziegler (Creative Commons By-Sa)




Paint.NET : du fauxpen source au vrai propriétaire

Copie d'écran - Paint.NETPaint.NET[1] est un très bon logiciel libre de retouches d’images pour Windows. De l’avis de beaucoup, bien plus « sexy » et accessible au grand public que Gimp par exemple.

Sauf qu’il possède deux défauts, un petit et un bien plus grand, éliminatoire même. Il nécessite, comme son nom l’indique, l’implémentation préalable du framework .NET de Microsoft, mais surtout il a très vite été un logiciel libre contesté qui n’avait en fait de logiciel libre que le nom, ou plutôt « que » la licence (en l’occurrence la licence MIT).

Contrôle du code, communauté inexistante et absence des dernières version des sources à télécharger, faisaient en effet de ce logiciel un exemple emblématique de « fauxpen source ». De l’aveu même de Rick Brewster, son unique développeur : « le code source était publié mais il n’a jamais été question d’un projet ouvert et collaboratif qui acceptait des soumissions de code non sollicitées ». Il appelle d’ailleurs cela un logiciel « released sources ».

Aujourd’hui les choses sont clarifiées. Rick Brewster a décidé il y a un mois de changer la licence pour en faire un vrai logiciel propriétaire gratuit (ou freeware). « You may not modify, adapt, rent, lease, loan, sell, or create derivative works based upon the Software or any part thereof », peut-on lire sur l’article de son blog qui annonce la nouvelle.

Cette nouvelle n’est pas forcément bonne (un logiciel qui quitte la lumière pour rejoindre le côté obscur de la force) mais elle est logique et cohérente vue l’évolution de l’application. Il nous a cependant semblé intéressant de traduire cet article, d’abord pour mieux comprendre les motivations de cette migration à contre-courant, mais aussi parce que les arguments avancés sont autant de justifications plus ou moins convaincantes qui vous feront peut-être réagir dans les commentaires.

Une nouvelle licence pour Paint.NET 3.5

A new license for Paint.NET v3.5

Rick Brewster – 9 novembre 2009 – Blog personnel
(Traduction Framalang : Jimbo)

Au fil des années, j’ai été obligé de me battre avec un certain nombre de personnes, et de sociétés, qui tentaient de plagier Paint.NET en recompilant le programme sous une dénomination commerciale différente et en insérant leur propre nom dans les crédits. Parfois, ils se faisaient payer pour ce service. J’ai même créé mon propre terme pour désigner cela : un « backspaceware » (NdT : en français cela donnerait quelque-chose comme « effaciciel », le backspace étant la touche « retour en arrière », qui permet d’effacer le dernier caractère tapé). En outre, de temps en temps, on trouve Paint.NET en vente sur eBay.

Et, comme beaucoup d’entre vous le savent, Paint.NET était open source. Ou plutôt, il était « released sources » (NdT : C’est-à-dire « sources publiées ») : le code source était publié mais il n’a jamais été question d’un projet ouvert et collaboratif qui acceptait des soumissions de code non-sollicitées. J’aimais publier le code source, parce qu’il me semblait bon de permettre à d’autres de l’étudier. Il y a environ un an, fatigué de voir ces versions plagiées de Paint.NET et j’ai décidé de retirer le code source du site Web. Cependant le code source était toujours dans la nature en différents endroits d’Internet (ce qui n’est guère illégal). Même sans le code source, une personne maline et douée pouvait probablement encore décompiler, modifier puis recompiler le programme, afin de lui faire dire ou faire ce qu’elle voulait.

Le plus gros problème était que, même si ces actions déplorables manquaient clairement d’éthique, le licence MIT autorisait tout cela. Ou, du moins, dans certains cas particuliers, ce qu’elle interdisait n’était pas clair. Donc, d’un point de vue juridique, ce qui pouvait précisément être entrepris à ce sujet n’était pas clair. Je ne suis pas juriste et je ne voulais pas dépenser des milliers de dollars pour avoir une explication de tout cela. Quelques personnes ont affirmé que j’avais choisi la mauvaise licence et, avec le recul, c’est sans aucun doute exact.

En outre, tout ceci va plus loin que le plagiat ou ma propre tension artérielle. La publication de copie dérivées de Paint.NET est source de confusion et perturbe la plupart des utilisateurs. J’ai reçu des e-mail de personnes troublées parce qu’elles pensaient que Paint.NET avait été renommé et que des fonctions manquaient dans « la nouvelle version ». Ces copies dérivées provoquent du désordre puisque souvent elles désinstallent le vrai Paint.NET (avec la même interface graphique que pour l’installation Windows) tout en conservant le système de mise à jour d’origine. Ce qui signifie que lorsque vous installez une telle copie dérivée, elle supprime Paint.NET, et puis lorsque Paint.NET est mis à jour, il désinstalle la version dérivée et la remplace par Paint.NET, etc… Ou la version modifiée plante, et le rapport de bugs indique à l’utilisateur de l’envoyer à mon adresse mail. Il y a aussi a risque réel de trojans et de virus.

Tout est désormais fini.

Pour la version finale de Paint.NET 3.5, qui ne devrait plus tarder, j’ai modifié la licence. Pour la plupart des utilisateurs, cela n’aura aucun impact. C’est toujours un freeware. Il n’y a toujours aucune prétention sur les fichiers créés, ouverts ou sauvés avec Paint.NET. Vous pouvez toujours établir un miroir du fichier zippé à télécharger sur votre site web (par exemple Betanews, Download.com, etc.) sans en demander la permission. Vous pouvez toujours vendre des trucs que vous créez avec Paint.NET (pour autant que vous ayez le droit de le faire bien sûr). Vous pouvez continuer à utiliser dans un contexte commercial, et à l’installer sur autant de machines que vous le désirez.

Cependant, la licence spécifie que vous ne pouvez plus modifier Paint.NET lui-même, ou créer une œuvre dérivée basée sur le logiciel Paint.NET (c’est-à-dire un logiciel dérivé). Vous ne pouvez pas non plus le vendre. Je ne pense pas que cela aura un impact sur quiconque d’autre que ceux qui désirent plagier ou détrousser Paint.NET. Je ne vais implémenter aucune restriction quant au reverse engineering ou la décompilation, par exemple à l’aide de Reflector. Je pense que ce serait bête, et je crois encore de tout mon cœur qu’il est bon qu’on soit capable d’étudier le code de Paint.NET, quand bien même il ne s’agit que du démontage approximatif fourni par Reflector. Toutefois, vous n’êtes pas autorisé à modifier et recompiler une nouvelle version de Paint.NET à partir de ce démontage.

Cette décision créera à n’en pas douter de la confusion. Par exemple, « Est-ce que les plugins sont autorisés ? ». Oui, absolument: le programme est conçu pour accepter ces dernier et ils ne constituent pas une modification de Paint.NET lui-même. Je devrai certainement mettre la FAQ à jour sur cette question, comme sur d’autres.

Je m’attends à ce qu’il y ait une minorité bien en voix qui condamne ce changement de licence. Avant de vous exprimer, veuillez vous poser cette question : cela vous touche-t-il réellement ? Comptiez vous vraiment faire quelque chose que cette nouvelle licence interdit ? Je parie que la réponse est « non », mais, je vous en prie, postez un commentaire si la réponse est un véritable oui. Beaucoup de personnes ont condamné ma décision de supprimer le code source mais après enquête, il s’est avéré que c’était une pure question de principe : elles n’avaient jamais téléchargé le code source, jamais rencontré quelqu’un qui l’avait téléchargé, et jamais prévu de faire quoi que ce soit qui tirerait profit ou dépendrait de l’accès au code source. Je comparerai cela à être contrarié par le fait que votre passeport vous interdit de voyager en Antarctique : comptiez-vous vraiment vous rendre là-bas un jour ?[2]

L’autre décision que je compte prendre est de publier le code source de portions de Paint.NET 3.5, probablement sous une licence de type MIT ou BSD. Les développeurs de plugins gagneraient en effet beaucoup à disposer du code source des effets graphiques et de certaines commandes relatives à l’interface WinForms. La meilleure façon de résumer les choses est de dire que la nouvelle licence (NdT : Voir les termes de la nouvelle licence sur l’article d’origine) couvre les « binaires », c’est-à-dire « ce que vous venez de télécharger et d’installer ». Je peux toujours créer des paquets à télécharger qui sont couverts par d’autres termes de licence. D’un point de vue de la philosophie, c’est peut-être déroutant, mais je suis prêt à en payer le prix.

Notes

[1] Crédit photo : Copyright Sabrown100

[2] Comme toutes les métaphores, celle-ci à ses limites.




Sébastien Broca : Du logiciel libre aux théories de l’intelligence collective

Woallance3 - CC byNotre énergie, enthousiasme et optimisme ne doivent pas nous faire oublier les deux principaux écueils qui menacent en permanence ce blog, et peut-être aussi par extension toute la dite « Communauté du Libre ».

Le premier est la tentation d’enjoliver la situation et d’alimenter ainsi une mythologie, voire même une idéologie. Du côté open source, on n’aura de cesse de venter la qualité des logiciels libres, les vertus d’une organisation en mode « bazar et les formidables opportunités économiques offertes par le service autour du logiciel libre. Tandis que du côté free software, on mettra l’accent sur une éthique et un ensemble de valeurs, ainsi synthétisés non sans emphase par Richard Stallman en ouverture de ses conférences : « Je puis résumer le logiciel libre en trois mots : liberté, égalité, fraternité ».

Le second écueil consiste à croire, ou feindre de croire, que le modèle proposé par les logiciels libres est reproductible en dehors de la sphère informatique, l’exemple emblématique étant la « culture libre », dont nous serions bien en peine d’en proposer une définition exacte. Certains vont même jusqu’à voir dans ce modèle une possible alternative globale pour nos sociétés, qualifiées, peut-être trop vite d’ailleurs, de sociétés de l’information.

C’est pourquoi nous avons lu avec beaucoup d’intérêt le long mais passionnant article de Sébastien Broca « Du logiciel libre aux théories de l’intelligence collective » (paru initialement dans la Revue tic&société – Société de l’information ? Vol. 2, N° 2, 2008). Article que nous avons reproduit ci-dessous d’abord parce qu’il n’a peut-être pas eu toute l’attention qu’il méritait mais aussi telle une invitation à débattre ensemble des arguments avancés dans les commentaires.

Sébastien Broca est allocataire de recherche au Cetcopra (Univerisité Paris 1) où il réalise un doctorat de sociologie. Il résume ainsi son propos :

Cet article interroge la manière dont le mouvement du logiciel libre se trouve constitué dans de nombreux discours en modèle d‘avant-garde de transformations sociales globales. Je montre ainsi comment l’on passe d’une pratique singulière, mise en œuvre par les communautés du libre, à des théories sociologiques, économiques ou philosophiques, qui s’en inspirent largement. Je m’appuie pour ce faire sur les ouvrages récents de Pekka Himanen, Yann Moulier Boutang, Antonio Negri et Michael Hardt. J’essaie ensuite de mettre en lumière certaines difficultés relatives aux démarches de ces auteurs : généralisation abusive à partir de l’exemple du logiciel libre, et oubli des spécificités des divers domaines de la vie sociale.

Le frontispice du Framablog est orné de la citation suivante : « …mais ce serait l’une des plus grandes opportunités manquées de notre époque si le logiciel libre ne libérait rien d’autre que du code »[1]. C’est une question ouverte dont nous sentons bien, même confusément, l’extraordinaire potentiel. Encore faudrait-il être capable de l’affiner régulièrement avec lucidité et ne pas emprunter certaines postures peut-être parfois trop simplistes eu égard à la complexité du monde bien réel qui nous entoure…

PS : Pour un meilleur confort vous pouvez également lire ou imprimer la version PDF de l’article.

Du logiciel libre aux théories de l’intelligence collective

URL d’origine du document

Sébastien Broca – Revue tic&société – Société de l’information ? Vol. 2, N° 2, 2008
Mis à jour le 7 mai 2009 – Licence Creative Commons By-Nc-Nd

Introduction

Depuis une quinzaine d’années, le mouvement du logiciel libre a connu un développement fulgurant, mettant fortement en question la prééminence des logiciels propriétaires développés par les grandes entreprises du secteur informatique. Dans le même temps, certains intellectuels ont érigé ces bouleversements en symboles de transformations sociales plus générales, attendues ou espérées. En témoignent les occurrences nombreuses des références à la « démocratie open source », à « l’économie open source », voire à la « société open source ». Cette tendance à faire du mouvement du logiciel libre un des laboratoires où se préparerait la société du futur semble devoir nous interpeller à plus d’un titre. Elle incite d’une part à s’interroger sur le bien-fondé d’une démarche intellectuelle prenant appui sur une pratique spécifique, pour fonder un discours théorique à valeur générale et/ou prospective. Elle invite d’autre part à mener une réflexion critique sur les nouvelles grilles d’analyse, censées rendre compte des spécificités de notre époque.

Nous commencerons ainsi par retracer brièvement l’histoire du mouvement du logiciel libre, et par en rappeler les enjeux. Nous essaierons ensuite de montrer comment, sous l’effet d’un double mouvement d’idéalisation des pratiques et de généralisation de leur portée, les communautés du libre se trouvent présentées, dans un certain nombre de discours contemporains, comme porteuses d’un véritable modèle social d’avant-garde. Nous nous efforcerons aussi d’interroger les limites de ces discours, qui tendent à observer notre époque à travers le prisme unique du développement de pratiques de collaboration horizontales médiatisées par Internet.

1. Histoire et enjeux du mouvement du logiciel libre

1.1. Une brève histoire du libre

Le mouvement du logiciel libre se comprend comme une réaction aux changements intervenus dans l’industrie informatique au tournant des années 1970-1980, au moment où apparaît l’ordinateur personnel. Jusqu’à cette date, les utilisateurs et les programmeurs sont souvent les mêmes personnes, et à quelques exceptions près, ils peuvent librement modifier les logiciels, quand bien même ceux-ci sont soumis au copyright. Comme l’explique Eben Moglen,

dans la pratique, les logiciels pour supercalculateurs étaient développés de manière coopérative par le constructeur de matériel dominant et par ses utilisateurs techniquement compétents (Moglen, 2001, p. 160).

La situation évolue au début des années 1980. De nombreuses sociétés informatiques décident alors d’imposer des logiciels propriétaires, de privatiser du code auparavant libre, et de soumettre leurs informaticiens à des clauses de confidentialité[2].

Pour mesurer ces bouleversements, il faut savoir qu’un logiciel se présente sous deux formes. La première, dite version exécutable ou compilée, est écrite en « binaire ». C’est celle qui est lue par l’ordinateur, et elle n’est pas compréhensible pour un humain. La deuxième en revanche – appelée code source – n’est pas fonctionnelle, mais peut être appréhendée comme du « commentaire ». Écrite dans un langage de programmation compréhensible, elle explique aux développeurs comment fonctionne le programme. L’accès au code source est donc indispensable à qui veut opérer des modifications sur un logiciel. Or, c’est précisément cet accès qui se trouve fortement restreint par le mouvement de privatisation survenu au début des années 1980, qui empêche donc la communauté des informaticiens de collaborer pour améliorer les programmes.

C’est dans ce contexte que Richard Stallman, alors informaticien au laboratoire d’intelligence artificielle du MIT (Massachusetts Institute of Technology), décide en 1983 d’entreprendre la programmation d’un système d’exploitation entièrement « libre ». Il nomme celui-ci GNU (GNU is Not Unix), marquant ainsi sa volonté de se démarquer des nouvelles pratiques de l’informatique commerciale et de retrouver l’esprit coopératif d’antan. En 1985, il crée la Free Software Foundation pour faciliter le financement et le développement du projet. Les principes du logiciel libre sont formalisés en janvier 1989 dans la licence publique générale (GPL – General Public License). Celle-ci garantit aux utilisateurs quatre « libertés » : liberté d’utiliser le logiciel, liberté de le copier, liberté de le modifier (ce qui implique l’accès au code source), et liberté de le distribuer (y compris dans des versions modifiées). Tout logiciel respectant l’ensemble de ces « libertés » peut dès lors être considéré comme un « logiciel libre »[3].

Au début des années 1990, le projet GNU a abouti à l’écriture d’un système d’exploitation presque complet. Presque, car le noyau du système[4] fait encore défaut. Intervient alors la deuxième grande figure de l’histoire du logiciel libre : Linus Torvalds. À cette époque, cet étudiant finlandais de l’université d’Helsinki cherche à écrire un noyau, selon la légende pour pouvoir utiliser sur son ordinateur personnel les programmes sur lesquels il travaille dans le cadre de ses études. Il a alors l’idée brillante de rendre disponible sur Internet son travail inachevé, et d’inciter les informaticiens qui le souhaitent à le compléter. Grâce aux listes de diffusion et aux forums électroniques, des centaines puis des milliers de programmeurs en viennent à unir leurs efforts pour développer ce noyau, entre-temps nommé Linux. Bientôt, la combinaison des logiciels GNU et du noyau Linux donne naissance à un système d’exploitation complet : GNU/Linux, plus couramment appelé Linux.

Celui-ci a aujourd’hui acquis une solide réputation de fiabilité, et est devenu le concurrent principal de Windows. Il est emblématique de la réussite du logiciel libre, dont témoignent également Firefox, Apache, Open Office, et bien d’autres. Au fil des ans, ces succès ont éveillé l’intérêt des géants du secteur informatique, et ont favorisé une pénétration croissante des logiques économiques dans le monde du libre. Un exemple significatif est celui d’IBM. Alors que l’entreprise est en difficulté, ses dirigeants décident en 1999 de rendre libres de grandes quantités de lignes de code propriétaires, et de mettre en place des équipes pour travailler sur les projets Apache et Linux. Ce soutien à des projets libres est une réussite, et il s’amplifie à partir de 2002. Les bénéfices qu’en retire IBM sont en effet multiples : économies substantielles[5], réorientation de son activité vers de nouvelles offres de service[6], amélioration de son image…

1.2. L’idéologie du Libre

L’influence croissante des grands groupes informatiques a suscité d’importantes réserves et révélé quelques fractures parmi les défenseurs du logiciel libre. En témoigne notamment la controverse ayant éclaté à la fin des années 1990, suite au lancement de l’Open Source Initiative. Cette organisation est créée en 1998 pour promouvoir un label dissident (OSI approved), censé être moins contraignant que la licence GPL, et donc plus attractif pour le monde des affaires. L’initiative est condamnée par Richard Stallman et la Free Software Foundation, bien que dans les faits,la différence entre les deux labels devienne assez rapidement de pure forme[7]. Le débat – parfois virulent – entre les deux parties met en lumière la coexistence au sein du monde du libre de deux « philosophies » assez nettement opposées. Pour les partisans de l’open source, les logiciels libres doivent êtres défendus pour l’unique raison qu’ils sont meilleurs que les logiciels propriétaires ! À l’inverse, pour les défenseurs du free software et son fondateur Richard Stallman, la performance technologique est une préoccupation secondaire par rapport au mouvement social que représente le logiciel libre, et aux principes qu’il défend.

Par-delà son contenu, la controverse entre open source et free software révèle l’importance des discours de positionnement idéologique dans le milieu du libre. Le mouvement du logiciel libre est ainsi indissociable des discours produits par ses acteurs pour légitimer et promouvoir leur pratique de la programmation informatique. Ce trait est particulièrement marquant, s’agissant de la question de l’organisation des communautés de développeurs. Celles-ci sont souvent opposées aux structures pyramidales dominantes dans les sphères économiques et politiques (grandes entreprises, partis politiques, etc.). Elles sont décrites comme mettant en œuvre une organisation horizontale, reposant sur le partage de l’information et la coopération directe entre participants. Seuls les individus affectueusement nommés « dictateurs bienveillants » sont censés y tenir un rôle hiérarchique. Il s’agit d’une ou plusieurs personnes qui, en fonction du mérite qui leur est reconnu par la communauté, assurent pour chaque projet une fonction de direction, de coordination, et de sélection des contributions. Au sein du projet Linux, Linus Torvalds dirige ainsi la cellule chargée de choisir et d’assembler les modifications apportées au noyau du code source. À cette restriction près, l’idéal véhiculé par les partisans du logiciel libre est bien celui d’une communauté d’égaux, reposant sur le partage, la collaboration, et le jugement par les pairs.

Cette image est toutefois un peu trop parfaite pour ne pas fournir un reflet quelque peu déformé de la réalité. Il faut ainsi prendre garde à ce que le discours des défenseurs du logiciel libre peut avoir de militant, voire d’idéologique. Certaines études de terrain semblent ainsi démontrer que les structures hiérarchiques sont souvent plus fortes que ce que les acteurs eux-mêmes veulent bien admettre. Dans un travail réalisé en 2004, Thomas Basset montre ainsi, en étudiant le développement de la suite logiciels VideoLAN[8], qu’il existe un décalage important entre le discours des participants au projet et la réalité des pratiques. Bien que les développeurs mettent en avant l’idéal d’un « libre échange du savoir entre personnes égales (…) hors de toute structure hiérarchique » (Basset, 2003, p. 28), l’observation du chercheur met en lumière l’existence d’une forte hiérarchie informelle. Au moment de l’étude, le projet VideoLAN repose ainsi sur une distribution du travail très inégalitaire, encore renforcée par des « manœuvres volontaires de rétention de l’information » (Basset, 2003, p. 52) en contradiction flagrante avec les discours tenus.

De façon générale, il faut avoir en tête que le mouvement du logiciel libre a non seulement produit des réalisations de tout premier ordre (Linux, Apache, etc.), mais aussi – et c’est là presque aussi important – un ensemble de discours mettant en avant certaines valeurs et certains modes de fonctionnement. Or, ces discours fonctionnent parfois comme une véritable idéologie, contribuant à voiler la réalité des pratiques. Par ailleurs, s’il est vrai que cette idéologie du libre n’est pas parfaitement homogène et cohérente (c’est ce qui apparaît notamment à travers la controverse entre free software et open source mentionnée plus haut), il s’en dégage néanmoins certaines constantes : méfiance envers la hiérarchie, valorisation du mérite individuel, promotion d’une éthique de la collaboration. On insistera ainsi sur le fait que la valorisation simultanée du mérite individuel et de la collaboration n’est contradictoire que superficiellement. Le mode d’organisation des communautés du libre est précisément censé permettre à chacun de concilier une grande autonomie dans son travail avec une inscription dans un projet collectif. En effet, une organisation horizontale apparaît par définition peu susceptible de soumettre les individus au groupe, en ce qu’elle refuse toute forme de hiérarchie et de contrôle centralisé. Dans le même temps, elle permet à un grand nombre de relations de coopération de se nouer, dans la mesure où tout le monde peut potentiellement être en contact avec tout le monde. Si l’on suit l’idéologie du libre, il faut donc dire que la communauté, pour autant qu’en soient bannies les rigidités hiérarchiques et qu’y soit favorisée la collaboration, se présente comme le terrain le plus propice à révéler le mérite individuel. Que les choses soient plus compliquées en pratique est une évidence qu’il faut garder en tête. Néanmoins, il n’est pas exagéré d’affirmer que le mouvement du logiciel libre véhicule in fine une certaine idée des structures les plus aptes à assurer le plein épanouissement de l’individu et de la collectivité, dans le domaine de la programmation informatique voire au-delà.

2. Le logiciel libre comme modèle social d’avant-garde

Je voudrais désormais pousser le raisonnement plus loin, et examiner la manière dont certains intellectuels n’étant pas directement impliqués dans le milieu du logiciel libre, se sont emparés de cette thématique pour fonder leurs analyses d’un certain nombre de transformations sociales en cours. Autrement dit, je voudrais considérer des discours qui vont au-delà de ce que j’ai nommé l’idéologie du logiciel libre, dans la mesure où ils se présentent comme porteurs d’une analyse de portée générale sur l’évolution de nos sociétés. Ces discours tendent ainsi à reprendre l’idéalisation du logiciel libre véhiculée par ses acteurs, tout en étendant la portée du modèle à d’autres activités sociales. Le logiciel libre devient de la sorte un socle sur lequel se trouve bâtie toute une construction intellectuelle. Je développerai trois exemples pour appuyer ce propos.

2.1. Pekka Himanen : la propagation de « l’éthique hacker »

Le philosophe finlandais Pekka Himanen a consacré à « l’éthique hacker » un ouvrage au retentissement important, paru en France en 2001 : L’Éthique hacker et l’esprit de l’ère de l’information[9]. Il y soutient queles pratiques et les valeurs du monde du logiciel libre ont donné naissance à « une nouvelle éthique du travail qui s’oppose à l’éthique protestante du travail telle que l’a définie Max Weber » (Himanen, 2001, p. 10). Cette nouvelle éthique se caractériserait par une relation au travail fondée sur la passion et l’intérêt personnel, et non sur le devoir moral et l’intérêt financier. Pour les hackers, le travail ne serait ainsi ni posé comme fin en soi indépendamment de son contenu, ni considéré comme simple moyen d’assurer sa subsistance ou sa richesse. L’important serait au contraire la satisfaction personnelle éprouvée dans la réalisation d’une tâche, devant être vécue comme intrinsèquement intéressante et gratifiante : « Les hackers font de la programmation parce que les défis qu’elle génère ont un intérêt intrinsèque pour eux » écrit ainsi P. Himanen (Ibid., p. 23). Il cite également Linus Torvalds, qui affirme que pour lui « Linux a largement été un hobby (mais un sérieux, le meilleur de tous) » (Ibid., p. 34).

Ce nouveau rapport au travail, qui repose sur une logique de développement de soi (Selbstentfaltung[10]), irait de pair avec un nouveau rapport au temps. Ainsi, pour les hackers, la distinction entre temps de travail et temps de loisir se trouverait brouillée, au profit d’un temps flexible où travail, hobbies, familles, collègues et amis se trouveraient sans cesse mélangés.

À la lumière de ces éléments, on peut mettre en doute la radicale nouveauté de cette « éthique hacker ». P. Himanen reconnaît du reste lui-même que les universitaires ou – d’une manière différente – les artistes, entretiennent depuis longtemps ce même rapport passionné à leur travail, et valorisent eux aussi une organisation relativement « libre » de leur temps. La véritable nouveauté résiderait en fait dans la manière dont ce rapport au travail serait en train de se répandre dans la société, à partir des milieux hacker.

(…) l’éthique hacker du travail se propage doucement vers d’autres secteurs, à l’image de l’éthique protestante qui, selon Weber, a fait son chemin en partant des entreprises créées par des Protestants pour finir par dominer l’esprit du capitalisme (Ibid., pp. 66-67).

Autrement dit, à la faveur du passage de la société industrielle à la « société en réseaux » (Castells, 1998)[11], le rapport au travail des hackers deviendrait viable pour de larges pans de la main d’œuvre. Leur éthique se substituerait ainsi progressivement à l’éthique protestante traditionnelle (ou à sa déclinaison contemporaine, érigeant l’argent en valeur suprême). Les hackers seraient finalement une sorte de groupe social d’avant-garde, et le mouvement du logiciel libre la matrice dont émergerait une nouvelle société. « Le modèle hacker ouvert pourrait se transformer en un modèle social » écrit P. Himanen (2001,p. 86).

Cette thèse n’est pas sans poser certaines difficultés. En effet, la possibilité de généraliser la relation au travail des hackers à d’autres groupes sociaux, et à d’autres secteurs économiques, est loin d’être évidente. Pekka Himanen s’expose ainsi au reproche d’ethnocentrisme, dans la mesure où tous les types d’emplois ne semblent pas susceptibles d’engendrer un rapport passionné au travail. Ne se rend-il pas coupable de généraliser une attitude, qui est en fait un privilège réservé à une partie infime de la population ? N’oublie-t-il pas un peu vite la très grande spécificité des hackers en tant que catégorie socioprofessionnelle, lorsqu’il affirme que leur éthique a une valeur quasi « universelle » (Ibid.,p. 26) ?

La thèse d’Himanen d’une propagation de l’éthique hacker dans l’ensemble du corps social apparaît relativement difficile à maintenir telle quelle. On peut alors choisir de la tirer du côté de l’utopie, c’est-à-dire d’un état idéal du social dans lequel le travail ne serait plus aliénation mais autodéploiement. Mais tel n’est certainement pas le propos de l’auteur, qui adopte dans son ouvrage une posture plutôt « sociologique ». Peut-être faut-il alors se résoudre à tirer de son ouvrage – et à l’encontre de ce qu’il écrit lui-même – une thèse plus « faible ». La mise en pratique de l’éthique hacker ne serait finalement possible que dans des secteurs très spécifiques, pour les professionnels de l’information, les artistes, ou les chercheurs. La généralisation à l’ensemble de la société de l’attitude au travail propre au milieu du logiciel libre apparaît en effet assez peu vraisemblable.

2.2 Yann Moulier Boutang : le logiciel libre comme modèle productif d’un nouveau capitalisme

L’exemple du logiciel libre est également tout à fait central dans la démarche de Yann Moulier Boutang, économiste et directeur de la revue Multitudes. Celui-ci a entrepris depuis quelques années, en collaboration étroite avec d’autres chercheurs (Antonella Corsani, Carlo Vercellone, Bernard Paulré…), de renouveler les cadres d’analyse de la science économique pour saisir les mutations contemporaines du capitalisme. Ce projet a donné naissance à l’hypothèse du « capitalisme cognitif ». Selon Yann Moulier Boutang, nous serions ainsi en train de sortir du capitalisme industriel pour entrer dans un nouveau type d’économie, « fondé sur l’accumulation du capital immatériel, la diffusion du savoir et le rôle moteur de l’économie de la connaissance » (Moulier Boutang, 2007, p. 85). Le capitalisme ne se nourrirait plus « du muscle consommé dans les machines marchant à la dissipation de l’énergie "carbo-fossile" » (Ibid., p. 65), mais de la « force cognitive collective » (Ibid., p. 65), ou encore de « l’intelligence collective » (Ibid., pp. 61-67). La source de la richesse résiderait donc aujourd’hui dans le travail social de communication et d’invention, ou encore dans la manipulation et la création de connaissances.

À mesure que les formes du travail et les sources de la richesse se modifieraient, le mode de production propre au capitalisme industriel entrerait en crise. Certes bien loin de disparaître complètement, il serait néanmoins délaissé dans les secteurs « avancés » de l’économie. En effet, l’adaptabilité, la flexibilité et la créativité permises par l’organisation en réseau, se révèleraient plus propres à révéler l’intelligence collective, que la rigidité de la one best way propre au taylorisme.

La thèse de Yann Moulier Boutang est ainsi qu’un nouveau mode de production émerge, qu’il définit comme « le travail de coopération des cerveaux réunis en réseau au moyen d’ordinateurs » (Ibid., p. 95). Point n’est besoin de trop de perspicacité pour s’apercevoir que cette description correspond parfaitement au modèle de fonctionnement des communautés du logiciel libre. Et pour cause ! Selon Yann Moulier Boutang, ces communautés sont l’exemple paradigmatique de ce nouveau mode de production propre au capitalisme cognitif. Ainsi, « le phénomène social et économique du libre » fournirait

un véritable modèle productif. Et ceci, tant sur le plan des forces sociales nouvelles que l’on peut repérer, sur celui de la division sociale du travail, que sur celui de la rationalité des agents économiques qui se trouve ainsi inventée, promue, des formes d’identité non pas au travail mais à un travail qui a changé fortement de contenu (Ibid., p. 125).

Yann Moulier Boutang accorde ainsi au logiciel libre une valeur d’exemplarité : ce qu’ont réussi à mettre en place quelques milliers de passionnés à travers le monde dans le domaine de la production informatique, serait un avant-goût d’un bouleversement global de l’organisation du travail. Suivant la voie tracée par les hackers, les forces productives deviendraient progressivement comparables à « l’activité collective cérébrale mobilisée en réseaux numériques interconnectés » (Ibid., p. 93).

Dans le même temps, le capitalisme cognitif deviendrait de plus en plus assimilable à une économie open source. En effet, dès lors que la richesse résiderait désormais dans l’ensemble du travail social de communication et d’invention, l’entreprise n’en serait plus l’unique productrice. Elle se devrait au contraire de capter une richesse antérieure, c’est-à-dire de valoriser ce qui émerge spontanément de l’ensemble des échanges sociaux.

L’intelligence entrepreneuriale consiste désormais à convertir la richesse déjà là dans l’espace virtuel du numérique en valeur économique (Ibid., p. 167).

Les entreprises auraient ainsi un intérêt profond à laisser se développer sans entraves la coopération en réseau, car celle-ci leur offrirait in fine les meilleures occasions de profit, en leur permettant de tirer profit d’une grande quantité de travail gratuit.

L’activité humaine innovante de la coopération des cerveaux à l’ère numérique produit dans la science, dans l’art, dans les formes collectives du lien social des gisements nouveaux et impressionnants d’externalités positives pour les entreprises, c’est-à-dire de travail gratuit incorporable dans de nouveaux dispositifs de captation et de mise en forme(Ibid., p. 122).

Comme l’aura déjà remarqué le lecteur attentif, ce nouveau business model correspond en tout point aux stratégies mises en œuvre par certaines grandes multinationales du secteur informatique pour tirer parti du logiciel libre. Ainsi, quand IBM profite du travail gratuit des communautés Linux ou Apache, et réoriente ainsi son activité vers une nouvelle offre de services (cf. supra), l’entreprise opère précisément ce que Yann Moulier Boutang décrit comme une captation de l’intelligence collective.

Le logiciel libre constitue donc pour Yann Moulier Boutang le phénomène économique et social, permettant d’analyser le capitalisme cognitif dans ses multiples facettes. Les communautés de développeurs du libre auraient ainsi « inventé » le mode de production caractéristique de ce nouveau régime économique, tandis que les entreprises ayant investi dans l’open source auraient développé son business model. La démarche théorique de Yann Moulier Boutang apparaît donc finalement très proche de celle de Pekka Himanen, dans la mesure où elle procède par généralisation à partir de l’exemple des communautés du logiciel libre, en tendant à faire de celles-ci des sortes d’avant-gardes. Elle s’expose de ce fait au même type de critique. Emporté par son admiration pour « la révolution californienne du capitalisme » (Ibid., p. 25), Moulier Boutang semble sous-estimer la spécificité du logiciel libre, et la difficulté à exporter ce modèle vers d’autres secteurs économiques. Fabien Granjon a ainsi noté que « les nouveaux aspects de production » sur lesquels les tenants de la thèse du « capitalisme cognitif » fondent leur théorie, « ne constituent que des sphères relativement restreintes de l’activité économique : ainsi en est-il du domaine du logiciel libre » (Granjon, 2008, p. 63). De manière analogue, Michel Husson a pointé la tendance de ceux qu’ils nomment les « cognitivistes » à « extrapoler des tendances partielles sans comprendre qu’elles ne peuvent se généraliser » (Husson, 2007, p. 139).

Il est intéressant de noter que Yann Moulier Boutang est conscient de s’exposer à de telles objections. Il tente d’y répondre, en proposant une analogie entre sa démarche et celle de Marx à l’aube de l’ère industrielle :

On s’intéresse en général à des observations empiriques sélectionnées dans un fatras rhapsodique d’informations multiples parce qu’on cherche les variables pertinentes qui commandent la tonalité d’ensemble ou permettent de prévoir des trajectoires d’évolution. Le grand trait de génie de Marx et Engels n’est pas d’avoir étudié la population laborieuse la plus nombreuse en Angleterre, (c’étaient les domestiques qui se comptaient par millions) mais les quelques 250 000 ouvriers des usines de Manchester (Moulier Boutang, 2007, p. 99).

L’argument est malicieux, et non dénué de pertinence. Toutefois, il ne suffit pas à effacer l’impression que la généralisation opérée par Moulier Boutang à partir du logiciel libre repose sur un pari. Celui d’affirmer que nos économies post-industrielles vont effectivement suivre la voie tracée par les expériences pionnières du logiciel libre. Or, s’il y a là un avenir possible, ce n’est certainement pas le seul ! La période actuelle paraît en effet trop incertaine, pour qu’on puisse écarter, par exemple, l’hypothèse du développement d’un « capitalisme gestionnaire d’effets de réseaux et de verrouillage » (Aigrain, 2007, p. 252), capitalisme qui serait bien entendu totalement contraire au modèle promu par les tenants du libre. Yann Moulier Boutang ne semble certes pas considérer ce scénario comme crédible, mais c’est là une position qui relève davantage de l’acte de foi que de la démonstration irréfutable. Ou, pour le dire de façon plus clémente : Yann Moulier Boutang assume les risques et les faiblesses de tout discours sur le social ne se contentant pas d’être descriptif, mais ayant une double visée de synthèse et de prospective. Sa démarche visant à faire du logiciel libre le modèle d’un nouveau capitalisme en gestation est donc nécessairement très perméable à la critique.

2.3. Michael Hardt et Antonio Negri : la démocratie comme « société open source ».

Ayant bénéficié d’un important succès commercial, les ouvrages Empire et Multitudes de Michael Hardt et Antonio Negri se présentent comme une tentative de rénover la philosophie politique critique, à l’heure de la mondialisation et des nouvelles technologies de l’information et de la communication. Ils sont notamment consacrés à la construction d’une théorie originale de la démocratie, inspirée en partie par le mouvement du logiciel libre. Avant d’aborder celle-ci en tant que telle, il faut préciser que les auteurs ancrent leur réflexion dans une analyse des transformations économiques contemporaines ; analyse tout à fait semblable à celle de Yann Moulier Boutang. Ils insistent ainsi sur la progression de la part du travail immatériel, et sur l’importance nouvelle de la coopération en réseau sur le modèle du logiciel libre.

L’originalité de leur propos se situe dans la thèse selon laquelle ces transformations économiques rejailliraient sur toutes les dimensions de la vie en société. C’est ce qu’ils appellent, en reprenant un terme forgé par Michel Foucault, la dimension biopolitique de la production.

Dans le cadre de ce travail immatériel, la production déborde hors des frontières traditionnelles de l’économie et se déverse directement dans le domaine culturel, social et politique. Elle crée non seulement des biens matériels, mais des relations sociales concrètes et des formes de vie. Nous appelons « biopolitique » cette forme de production, afin de souligner le caractère générique de ses produits et le fait qu’elle a directement prise sur l’ensemble de la vie sociale (Hardt et Negri, 2004, p. 121).

Ce caractère biopolitique de la production est, selon les auteurs, à l’origine d’une isomorphie croissante entre les structures économiques et les autres structures sociales, y compris politiques. Autrement dit, le développement de la forme réseau dans le cadre de la production immatérielle aurait pour corrélat la progression de cette même forme dans toutes les dimensions de la vie sociale. Ainsi Michael Hardt et Antonio Negri écrivent-ils notamment que

les institutions de la démocratie doivent aujourd’hui coïncider avec les réseaux communicatifs et collaboratifs qui ne cessent de produire et reproduire la vie sociale (Ibid., p. 400).

C’est dans ce cadre conceptuel qu’il faut comprendre le lien établi par les auteurs entre le mouvement du logiciel libre et la redéfinition de la démocratie qu’ils appellent de leurs voeux. On peut ainsi – moyennant une simplification acceptable – donner à leur raisonnement la forme d’un syllogisme : Structures économiques et structures politiques tendent à devenir semblables. Or, le logiciel libre est emblématique des nouvelles structures économiques. Donc, le logiciel libre devient emblématique des nouvelles structures politiques ! Michael Hardt et Antonio Negri écrivent ainsi :

On peut donc voir la démocratie de la multitude comme une société open source, c’est-à-dire une société dont le code source est révélé, permettant à tous de collaborer à la résolution de ses problèmes et de créer des programmes sociaux plus performants (Ibid., p. 385).

À travers l’expression de « société open source », Michael Hardt et Antonio Negri poussent la généralisation à partir du mouvement du logiciel libre à l’extrême. Ils accordent à celui-ci une place centrale dans la construction d’un nouveau modèle de société, susceptible de fournir une alternative crédible au libéralisme débridé et aux « vieilles » démocraties parlementaires. Hardt et Negri font ainsi du projet du logiciel libre l’horizon d’une certaine gauche radicale : la « société open source » et la « démocratie de la multitude » sont fondues en un seul et même objectif politique.

Évidemment, c’est là prêter énormément au mouvement du logiciel libre (ici confondu avec l’open source), et faire peu de cas des ambiguïtés politiques qu’il recèle. On remarquera ainsi que les grands principes du libre (libre partage de l’information, organisation horizontale, autonomie laissée à chacun) dessinent en fait un projet politique relativement modeste. Comme le remarque Patrice Riemens, nous sommes « très en deçà des exigences de justice, d’équité, d’égalité, d’émancipation » (Riemens, 2002, p. 185), qui animent la plupart des grands projets politiques de gauche. De surcroît, il paraît délicat – plus en tous les cas que Negri et Hardt ne le laissent supposer – de faire du libre un projet politique global. En effet, l’engagement social d’une majorité de hackers semble se limiter à un attachement à la disponibilité du code au sein du monde informatique. Il a d’ailleurs été remarqué que

l’étendue du spectre des opinions politiques entretenues par les hackers individuels (…) est surprenante, et totalement inimaginable dans quelque autre « mouvement social » (Ibid., p. 185).

Il semble donc que Michael Hardt et Antonio Negri accordent au logiciel libre une portée sociale et politique légèrement excessive. Ils participent en cela d’un mouvement plus général, qui a vu plusieurs intellectuels de gauche s’enthousiasmer pour le libre au cours des années 2000[12]. Il est toutefois possible de faire une lecture légèrement différente de la référence à l’open source chez Hardt et Negri. On émettra ainsi l’hypothèse que leur intérêt se situe à un niveau plus abstrait. Autrement dit, la portée politique effective du mouvement du logiciel libre les intéresse peut-être moins, que le fait qu’il fournisse un modèle inédit pour penser une nouvelle forme et un nouveau contenude la démocratie[13]. C’est donc à ce niveau, disons plus « théorique », que je voudrais situer ma dernière critique.

Pour l’énoncer succinctement, celle-ci consiste à dire que la mise en avant du modèle du libre pour (re)penser la question démocratique est porteuse d’une négation de la spécificité de la politique. Ainsi, si l’on prend au sérieux la référence à l’open source, la « démocratie de la multitude » aurait pour objet la production collaborative d’une forme d’expertise collective. Elle aurait à mettre en œuvre des processus d’agrégation de savoirs locaux. Elle se présenterait comme une sorte de gigantesque entreprise de débogage, ou comme un problem solving à grande échelle.

De telles idées ont certes des aspects séduisants, d’une part parce qu’elles semblent promettre une gestion politique plus efficace[14], d’autre part parce qu’elles renouent avec l’idéal d’une démocratie qui reposerait véritablement sur la participation effective de tous et bannirait le secret. Toutefois, l’analogie entre l’open source et la démocratie pose des difficultés majeures. Ainsi, dans le cas du logiciel libre, la finalité de la collaboration ne prête pas à discussion, puisqu’il s’agit tout simplement de produire le meilleur logiciel possible. Corrélativement, la réussite (ou l’échec) des diverses modifications souffre assez peu de contestation. Elle s’évalue aisément, puisqu’il suffit d’exécuter le code pour observer si la nouvelle mouture est plus rapide et plus complète que l’ancienne, si elle contient des bugs, etc. En matière de démocratie, les choses sont nettement plus compliquées. Ainsi, il y a rarement unanimité sur l’identification et la hiérarchisation des « problèmes » auxquels la collectivité se trouve confrontée. On peut même dire que la discussion sur les fins de l’action politique est inéliminable : celles-ci sont toujours objets de litige. Le fonctionnement démocratique ne peut par conséquent être réduit à la recherche collective des moyens les plus efficaces de résoudre des problèmes, qui seraient eux soustraits à toute forme de mise en question.

Tout régime politique ouvert ne cesse ainsi d’être confronté à des questions, que l’acquisition d’un savoir, quel qu’il soit, ne peut suffire à trancher. La démocratie ne saurait la plupart du temps se contenter d’une somme de connaissances objectives pour déterminer sa pratique. Elle vit au contraire de la confrontation d’une diversité d’engagements argumentés, mettant en jeu une pluralité de valeurs, d’intérêts ou de « choix de société ». Elle est indissociable d’un régime de rationalité particulier : l’échange d’opinions conclu par le vote à la majorité, et non pas la production collaborative de connaissances dont dériveraient mécaniquement les décisions.

La référence à une hypothétique « démocratie open source » importe donc indûment dans le champ politique la rationalité technique et scientifique, au détriment de la rationalité proprement politique. Autrement dit, elle néglige le rapport de la politique à l’opinion, considérée en tant que catégorie épistémologique. Ainsi, dans le recouvrement de la doxa par l’épistèmê,et dans le remplacement du débat contradictoire par la collaboration en réseau, ce serait bien l’essence des enjeux et des procédures démocratiques qui serait perdue.

Conclusion

Au terme de ce parcours, il apparaît que les pratiques mises en place par les communautés du logiciel libre sont sujettes à une double distorsion. Elles se trouvent tout d’abord fréquemment idéalisées par les acteurs du libre eux-mêmes, dont le discours militant a souvent pour effet de recouvrir les difficultés posées par la mise en application du modèle qu’ils défendent. Une deuxième distorsion est imputable à certains intellectuels qui, en conférant aux expériences du logiciel libre une portée social générale, minimisent la spécificité d’un mouvement dont les enjeux sont – avant tout, bien que non exclusivement – internes au secteur informatique[15].

Ces théories « inspirées » du logiciel libre présentent des similitudes frappantes. Par-delà leurs champs d’application privilégiés, elles s’accordent pour voir la spécificité de notre période dans le développement de nouvelles formes de collaboration « intelligentes » médiatisées par Internet. À les suivre, les changements que connaît notre époque – qu’il s’agisse des mutations des formes de socialité, des bouleversements économiques, ou encore des nouvelles formes de l’engagement politique – seraient directement imputables à la nouvelle configuration sociotechnique, permettant de « mettre en réseau les cerveaux ». Ces changements seraient révélateurs d’une période de transition, entre une société industrielle mourante, et une société de « l’intelligence collective » propulsée par les nouvelles formes d’échange et de production de connaissances.

Si ces théories saisissent indéniablement un trait marquant de notre époque, elles semblent néanmoins pêcher par un certain réductionnisme. Elles présentent en effet une tendance à ramener des phénomènes hétérogènes à une grille d’explication unique, faisant fi des spécificités des différents domaines de la vie sociale. Elles tendent parfois aussi à occulter des traits particulièrement frappants de notre époque : montée inouïe des inégalités, déséquilibres écologiques, etc. On pourra ainsi regretter que le discours sur le partage de l’information ne s’accompagne que trop rarement d’un discours sur le partage des richesses, ou des ressources naturelles.

Bibliographie
  • AIGRAIN P., 2007, « Capitalisme cognitif et politiques qualitatives après la révolution informationnelle » in MOULIER BOUTANG Y., 2007, Le capitalisme cognitif, Paris, Éditions Amsterdam.
  • BASSET T., 2003, Monographie d’un logiciel libre : VideoLAN, Mémoire de DEA, Institut d’Études Politiques de Paris, en ligne : http://www.framasoft.net/IMG/videolan.pdf (consulté le 19 novembre 2008).
  • CASTELLS M., 1998, L’ère de l’information, vol. 1 : La société en réseaux, Paris, Fayard.
  • GORZ A., 2003, L’immatériel, Paris, Galilée.
  • GRANJON F., 2008, « Les nouveaux résistants à l’ère du numérique. Entre utopie sociale et déterminisme technique », in PROULX S.et alii, 2008, L’action communautaire québecoise à l’ère du numérique, Montréal, Presses de l’Université du Québec, pp. 59-76.
  • HARDT M. et NEGRI A., 2004, Multitudes, Paris, La Découverte.
  • HIMANEN P., 2001, L’éthique hacker et l’esprit de l’ère de l’information, Paris, Exils.
  • HUSSON M., 2007, « Notes critiques sur le capitalisme cognitif », ContreTemps, n°18, pp. 138-141, en ligne : http://hussonet.free.fr/cognict.pdf (consulté le 10 novembre 2008).
  • MERTEN S., 2002, « Logiciel libre et éthique du développement de soi : entretien avec Joanne Richardson », Multitudes, n°8, pp. 188-199, en ligne : http://multitudes.samizdat.net/Logiciel-libre-et-ethique-du (consulté le 19 novembre 2008).
  • MOGLEN E., 2001, « L’anarchisme triomphant : le logiciel libre et la mort du copyright », Multitudes, n° 5, pp. 146-183, en ligne : http://multitudes.samizdat.net/L-anarchisme-triomphant (consulté le 19 novembre 2008).
  • MOULIER BOUTANG Y., 2007, Le capitalisme cognitif, Paris, Éditions Amsterdam.
  • RIEMENS P., 2002, « Quelques réflexions sur le concept de “culture hacker” », Multitudes, n° 8, pp. 181-187, en ligne : http://multitudes.samizdat.net/Quelques-reflexions-sur-le-concept (consulté le 19 novembre 2008).
  • TAPSCOTT D. et WILLIAMS A. D., 2007, Wikinomics, Paris, Pearson Education France.

Notes

[1] Crédit photo : Woallance3 (Creative Commons By)

[2] L’arrivée de nouveaux acteurs industriels est symbolique de ces bouleversements. Un exemple emblématique est la création de la société Sun en 1982 par d’anciens étudiants de Stanford et de Berkeley. Celle-ci privatise en effet de nombreux logiciels du monde Unix

[3] Le « logiciel libre » s’oppose ainsi au « logiciel propriétaire ». On insistera sur le fait que c’est bien cette opposition qui est pertinente, et non l’opposition entre logiciel libre et logiciel commercial. Comme le répète souvent Richard Stallman, « "free software is a matter of liberty, not price. To understand the concept, you should think of "free speech, not "free beer" » (http://www.gnu.org/philosophy/free-sw.html).

[4] Comme son nom l’indique, « le noyau d’un système d’exploitation est le cœur du système, qui s’occupe de fournir aux logiciels une interface pour utiliser le matériel ». Source : Wikipedia, http://fr.wikipedia.org/wiki/Noyau_Linux.

[5] IBM, qui investit 100 millions de dollars par an pour le développement de Linux, estime qu’il lui faudrait un investissement dix fois supérieur pour développer seul un système d’exploitation équivalent (Tapscott et Williams, 2007, pp. 93 et 97).

[6] Par exemple, la formation aux logiciels libres, ou l’installation et la personnalisation de systèmes libres.

[7] Aujourd’hui, il est ainsi bien difficile de trouver un projet open source qui ne soit pas free software, et inversement. Les deux dénominations sont d’ailleurs le plus souvent employées indifféremment dans les médias. Dans le présent article, nous utilisons l’expression « logiciel libre » de façon générique, pour désigner à la fois les projets labellisés free software et les projets open source.

[8] Le développement de la suite logiciels VideoLAN, dont est issu le célèbre lecteur vidéo VLC, a été initié en 1995 par des élèves de l’École Centrale Paris (ECP). Depuis 2001, il s’agit d’un projet libre réalisé sous licence GPL, mené conjointement par des élèves de l’ECP et par des développeurs extérieurs.

[9] Il convient de préciser que le terme « hacker » n’est pas employé par l’auteur en son sens médiatique de « pirate informatique », mais bien en son sens originel, c’est-à-dire comme désignant tous les véritables passionnés d’informatique, et en premier lieu les partisans du logiciel libre.

[10] Ce terme, parfois proposé pour rendre compte du rapport des développeurs à leur travail, semble assez pertinent, dans la mesure où il rend compte du fait que les motivations des hackers sont essentiellement personnelles, mais néanmoins nullement réductibles à un simple calcul économique (Merten, 2002).

[11] Pekka Himanen s’inspire largement des analyses de Manuel Castells, qui a développé dès 1996 l’idée selon laquelle un nouveau modèle social serait en train d’émerger à partir d’Internet et de la figure du réseau. M. Castells est par ailleurs l’auteur de l’« épilogue » de l’ouvrage de P. Himanen.

[12] Citons par exemple André Gorz, pour qui « la communauté virtuelle, virtuellement universelle des usagers-producteurs de logiciels et de réseaux libres, instaure des rapports sociaux qui ébauchent une négation pratique des rapports sociaux capitalistes »(Gorz, 2003, p. 93).

[13] Ce choix de lecture se trouve corroboré par le faible nombre d’éléments factuels sur le logiciel libre présents dans l’ouvrage de Michael Hardt et Antonio Negri.

[14] Si l’on accepte l’analogie entre société et logiciel, on peut effectivement penser qu’une « démocratie open source » résoudrait nos problèmes sociaux plus efficacement que nos démocraties parlementaires, de la même façon que les logiciels libres s’avèrent souvent plus performants que les logiciels propriétaires…

[15] Précisons que si nous avons – pour la clarté de l’exposé – distingué ces deux types de discours, cette séparation n’a bien entendu rien d’étanche. Ainsi, les intellectuels fondant leur démarche théorique sur l’exemple du logiciel libre sont imprégnés d’un certain discours militant. On peut aussi remarquer qu’il y a déjà dans l’idéologie du Libre une tendance à vouloir accentuer la portée sociale du « modèle ouvert », tendance que certains intellectuels s’empressent ensuite de reprendre et de développer.




Montre-moi tes commentaires et je te dirai si tu es un bon développeur

Fraserspeirs - CC byEn programmation, les commentaires sont des portions du code source ignorées par le compilateur ou l’interpréteur, car ils ne sont pas nécessaires à l’exécution du programme, nous dit Wikipédia.

De fait ils sont le plus souvent utilisés pour expliquer le code, et contrairement à ce dernier qui nécessite un langage de programmation, les commentaires se font dans une langue humaine, généralement en anglais.

C’est une opération indispensable et une partie intégrante du travail du développeur, afin qu’un autre puisse comprendre et éventuellement modifier le code initial (quitte à ce que cet autre soit l’auteur même des commentaires, reprenant son code quelques temps plus tard).

De par le fait que sa nature en autorise l’accès et le ré-appropriation, on comprendra que ces commentaires soient encore plus importants dans le cas d’un logiciel libre.

Il se trouve cependant que, par paresse, manque de temps ou mépris pour ce qui ne serait pas de la programmation stricto sensu, ils sont parfois quelque peu négligés par les développeurs.

Or l’hypothèse défendue ici est qu’il y aurait une corrélation directe en la qualité des commentaires et la qualité du code.

Affirmer ainsi péremptoirement que l’un n’irait pas sans l’autre est somme toute assez osé. Mais cela a le mérite d’évoquer cette « face cachée » de la programmation qui fait aussi partie des compétences attendues d’un bon développeur[1].

Si les commentaires sont moches, le code est moche

If the comments are ugly, the code is ugly

Esther Schindler – 15 novembre 2009 – IT World
(Traduction Framalang : Goofy)

C’est un peu dur, je sais, mais finalement je crois que c’est vrai.

Le développeur de Plone Martin Aspeli m’a signalé un billet assez judicieux dans lequel un programmeur en C faisait part de trois règles apprises à ses dépens. Celle qui a particulièrement attiré l’attention de Martin (et la mienne) est la suivante :

Les bons programmes ne comportent aucune faute d’orthographe ni de faute de grammaire. Je pense que cela vient probablement d’une attention soutenue aux moindres détails ; dans les programmes excellents tout est correct à tous les niveaux, jusqu’aux points qui terminent les phrases de commentaires.

« Allez, tu charries ou quoi ? ». Vous pourriez croire que pinailler à ce point est indigne de vous, « Et bien je m’en vais commencer à vous signaler les erreurs dans votre code lui-même ». J’ai été bien embarrassé les deux ou trois fois où ça m’est arrivé.

La programmation, que vous la pratiquiez en enthousiaste de l’open source ou parce que vous êtes au service du patron, est un exercice qui exige de l’attention aux détails. Quiconque écrit un logiciel doit être pointilleux, sinon le code ne fonctionnera pas. Je suis sûre que je n’ai pas besoin de vous citer la série des célèbres bogues de programmation dont s’est rendu coupable un programmeur qui a utilisé une virgule et non un point, ou des plantages aléatoires provoqués par deux lignes de code placées au mauvais endroit ?

Il est possible que mon jugement soit faussé par mes fonctions d’écrivain et d’éditrice, mais je crois fermement que si vous ne pouvez pas trouver le temps d’apprendre les règles de syntaxe de la langue (y compris la différence entre « c’est » et « ces », ou encore « m’a » et « ma »), je ne crois pas que vous puissiez être beaucoup plus consciencieux pour écrire du code en respectant les bonnes pratiques. Si vos commentaires sont négligés, je m’attends à trouver du code négligé.

Mon postulat vient de ce que m’a enseigné un éditeur très brillant, il y a dix ans (Laton McCartney, si tu lis ça : merci !). Si tu peux écrire le chapeau, disait-il, tu peux écrire l’article très facilement. Si tu ne peux pas écrire le chapeau, c’est que tu ne comprends pas encore ce que tu veux dire, et tu ne devrais pas commencer à écrire (le « chapeau » est le petit paragraphe d’accroche qui suit le grand titre, qui dit en un mot de quoi il est question et invite gentiment le lecteur à en savoir plus). De filandreuses « explications » du code dans les commentaires de l’application (c’est-à dire, ceux qui se lisent comme de bonnes excuses) indiquent que le développeur ne savait probablement pas ce qu’il faisait au juste. Ce qui signifie que son code est éligible au titre de nid à bugs.

Se plaindre de la mauvaise documentation interne est un vieux refrain, mais il existe une raison pour laquelle il est important de la faire bien. Vos commentaires sont la seule façon dont vous disposez pour communiquer avec la prochaine personne qui regardera votre logiciel (il se peut même que ce soit vous) en profondeur, et pas juste une ligne ou deux. À quoi pensiez-vous en écrivant ce code ? D’accord, du code « auto-documenté » c’est l’idéal, mais c’est un peu arrogant de prétendre que vous l’avez atteint, et ça l’est tout autant de ma part si je prétends que mes phrases n’ont pas besoin d’être révisées (elles en ont besoin, je suis bien contente d’avoir un correcteur).

Un autre problème habituel dans la médiocrité des commentaires apparaît lorsque les développeurs mettent à jour le code sans mettre à jour les commentaires ; comme l’a expliqué un consultant, les commentaires ne sont pas testés. Mais est-ce qu’il ne s’agit pas là encore d’un manque d’attention aux détails ? À chaque fois que vous n’êtes pas totalement attentif, vous êtes prédisposé à laisser tomber un petit bout de logique.

Vous voulez quelques exemples ?

En voici un tiré d’une explication à propos d’un choix de conception. (« oui, je devine que c’était probablement intentionnel », a écrit le programmeur qui m’a montré cet exemple. « mais c’est bien là le problème : il faut que je devine ».)

 «... des questions prévues pour injustifier un débat...» 

Voici maintenant une authentique ligne de code avec un commentaire. Notez que le commentaire met l’accent sur la faute d’orthographe. Sans compter que le commentaire vous indique que le programmeur n’avait pas la moindre idée de ce qu’il faisait au départ. Particulièrement parce qu’il n’aurait pas dû écrire « finished » (NdT : fini) dans ce bout de code, mais qu’il aurait dû essayer « complete » (NdT : terminé).

 if item.getState() == 'finsihed': #est-ce correct? 

Bon, je vous accorde quelques exceptions. Si l’anglais n’est pas votre langue maternelle, il est possible que les commentaires que vous laissez dans votre code montrent que vous n’êtes pas à l’aise pour écrire en anglais. Cependant, en ce qui me concerne je n’ai pas trouvé que c’était le cas. Comme beaucoup d’Américains s’en sont rendu compte, les capacités en anglais des « étrangers » sont généralement bien meilleures que les nôtres. Parmi les développeurs que je connais, ceux qui ont des lacunes dans leur maîtrise de la langue anglaise en sont conscients et font tout leur possible pour qu’un anglophone passe en revue leur documentation.

Je ne me lancerai pas dans des considérations sur l’indentation du code et des commentaires, c’est une guerre de religions. Mais j’ai rencontré des développeurs qui réagissaient aussi violemment devant un formatage de code « moche » que moi devant une grammaire moche.

Les environnements de développement modernes procurent la discutable possibilité aux développeurs d’être négligents sans effets pervers ; une interface glisser-déposer vous permet de créer une application vite fait bien fait (ou plutôt mal fait, j’en ai peur) avec bien moins d’horribles dommages collatéraux qu’à l’époque où les logiciels étaient généralement écrits en assembleur. Pourtant, d’une certaine façon, j’ai du mal à considérer le « je peux être négligent » comme un avantage réel.

La règle du commentaire « moche » vaut autant pour les applications propriétaires que pour les logiciels open source. Mais les développeurs de FOSS (NdT : Free and Open Source Software, les logiciels libres et open source) doivent faire beaucoup plus attention encore pour deux raisons. La première, c’est qu’au bureau, vous avez de grandes chances de croiser le développeur du code mal fichu et de pouvoir lui poser des questions (ou de lui en coller une, si c’était vraiment horrible). De plus, dans la communauté open source, davantage de gens regardent dans le code et ont besoin de le comprendre.

Toutefois, lorsque j’ai suggéré à des développeurs que « si les commentaires sont moches, le code est moche », beaucoup n’étaient pas d’accord. Et vous non plus peut-être. J’aimerais savoir pourquoi, et je vous invite donc à laisser un… commentaire.

Notes

[1] Crédit photo : Fraserspeirs (Creative Commons By)




La guerre du Web, par Tim O’Reilly

Phault - CC byUn article majeur de l’un des gourous de la Toile, qui met le doigt là où ça peut faire bientôt très mal.

Hubert Guillaud, nous le présente ainsi sur l’agrégateur Aaaliens :

« Tim O’Reilly revient sur la guerre du Web : entre Facebook qui ne transforme par les liens en hyperliens, Apple qui rejette certaines applications menaçant son coeur de métier… Tim O’reilly répète depuis longtemps qu’il y a deux modèles de systèmes d’exploitation de l’Internet : celui de « l’anneau pour les gouverner tous » et celui des « petites pièces jointes de manières lâche », le modèle Microsoft et le modèle Linux.

Allons-nous vers le prolongement du modèle du Web interopérable ? Ou nous dirigeons-nous vers une guerre pour le contrôle du Web ? Une guerre des plateformes (Google, Apple, Facebook…) ? Il est temps pour les développeurs de prendre position : si l’on ne veut pas rejouer la guerre des PC ou celle des navigateurs, il faut prendre fait et cause maintenant pour les systèmes ouverts ! »

La guerre du Web aura-t-elle lieu ?[1] La réponse dépend aussi de la capacité qu’aura « la communauté du Libre » à diffuser et défendre ses valeurs et ses idées.

On notera au passage un étonnante prédiction finale sur Microsoft, notre futur allié de circonstance !

La guerre du Web

The War For the Web

Tim O’Reilly – 16 novembre 2009 – O’Reilly Radar
(Traduction Framalang : Olivier Rosseler et Goofy)

Vendredi dernier, mon dernier message sur Twitter a également été publié automatiquement sur Facebook, comme d’habitude. À un détail près : le lien que contenait le message n’était plus actif, comme l’a remarqué Tom Scoville.

En fait, il est loin d’être le seul à l’avoir remarqué. Dès samedi matin, Mashable publiait un article à ce sujet : Facebook retire vos liens Twitter.

Si vous publiez des liens Web (Bit.ly, TinyURL) sur votre compte Twitter et que par le biais d’une application Twitter-Facebook vous les partagez également sur Facebook, ils perdent leur caractère d’hyperliens. Vos amis devront copier et coller l’adresse dans leur navigateur pour qu’ils fonctionnent.

Si Facebook tente d’améliorer son ergonomie, c’est une curieuse décision : il vaudrait mieux que ça soit juste un bogue, nous avons donc contacté Facebook pour en savoir plus. Toujours est-il que tout le site est affecté, et pas seulement vous.

Il se trouve que ce ne sont pas uniquement les liens postés depuis Twitter qui étaient affectés. Tous les liens externes ont été temporairement désactivés si les utilisateurs ne les avaient pas clairement ajoutés avec la fonction « Joindre ». Sur Facebook j’ai essayé de poster un lien direct vers ce blog dans mes nouveautés, mais le résultat est le même : les liens n’étaient plus automatiquement cliquables. Le premier lien de cet article renvoie à une image illustrant ma tentative.

Le problème a été rapidement résolu, les liens apparaissent à nouveau cliquables. On a dit que c’était un bogue, mais certains mettent évidemment cette explication en doute, surtout compte tenu des efforts de plus en plus visibles de Facebook pour prévenir les gens qu’ils quittent Facebook pour se rendre sur le grand méchant Internet.

Tout cela part d’un bon sentiment, je n’en doute pas. Après tout, Facebook met en place un meilleur contrôle de la vie privée, pour que les utilisateurs puissent mieux gérer la visibilité de leurs informations et la visibilité universelle qui fait loi sur le Web n’est pas forcément la mieux adaptée aux informations postées sur Facebook. Mais ne nous voilons pas la face : Facebook est un nouveau type de site Web (ou une ancienne version largement reliftée), un monde à part, avec ses propres règles.

Mais ça ne concerne pas que Facebook.

L’iPhone d’Apple est l’appareil connecté le plus à la mode et, comme Facebook, même s’il est connecté au Web, il joue avec ses propres règles. N’importe qui peut créer un site Web ou offrir une nouvelle application pour Windows, Mac OS X ou Linux, sans demander la permission à qui que ce soit. Vous voulez publier une application pour iPhone ? Il vous faudra obtenir l’approbation d’Apple.

Mais il y a une lacune flagrante : n’importe qui peut créer une application Web et les utilisateurs peuvent y accéder depuis leur téléphone. Mais ces applications connaissent des limitations : toutes les fonctionnalités du téléphone ne leur sont pas accessibles. HTML5 aura beau innover autant qu’il veut, les fonctionnalités principales du téléphone resteront hors de portée de ces applications sans la permission d’Apple. Et si l’on s’en réfère à l’interdiction de Google Voice sur iPhone il y a quelques temps, Apple n’hésite pas à interdire les applications qui menacent leur cœur d’activité et celui de ses partenaires.

Et ce n’est pas tout, une autre salve a été tirée contre les règles tacites d’interopérabilité du Web : Rupert Murdoch menace de retirer le Wall Street Journal de l’index de Google. Même si, de l’avis général, ce serait du suicide pour le journal, des voix contraires s’élèvent pour insister sur l’influence qu’à Murdoch. Pour Mark Cuban, Twitter a maintenant dépassé les moteurs de recherche pour ce qui est des informations en temps réel. Jason Calacanis va même plus loin, quelques semaines avant les menaces de Murdoch, il suggérait déjà que pour porter un gros coup à Google il faudrait que tous les groupes de radio/presse/télévision devraient bloquer Google et négocier un accord d’exclusivité avec Bing pour ne plus apparaître que dans l’index de Microsoft.

Évidemment, Google n’encaisserait pas sans broncher et signerait également des accords de son côté, on assisterait alors à une confrontation qui ferait passer la guerre des navigateurs des années 90 pour une petite bagarre de cours d’école.

Je ne suis pas en train de dire que News Corp et les autres groupes d’information devraient adopter la stratégie prônée par Jason, ni même qu’elle fonctionnerait, mais je vois une se profiler une période de concurrence meurtrière qui pourrait être très néfaste à l’interopérabilité du Web telle que nous la connaissons aujourd’hui.

Si vous suivez mes commentaires sur le Web 2.0 depuis le début, vous savez que je pense que nous sommes engagés dans un projet à long terme dont la finalité est le système d’exploitation Internet (jetez un œil au programme de la O’Reilly Emerging Technology Conference de 2002 (pdf)). Je soutiens depuis des années qu’il y a deux modèles de systèmes d’exploitation, que je décris comme "Un anneau pour les gouverner tous" et "Des petits morceaux faiblement coordonnés", ce dernier étant illustré par une carte d’Internet.

Dans le premier : malheur au vaincu, c’est le monde que nous avons connu avec Microsoft Windows et le PC, un monde où priment la simplicité et l’accessibilité, mais où le choix de l’utilisateur et du développeur sont réduits au bon vouloir du fournisseur de système d’exploitation.

Le second est une système d’exploitation qui fonctionne comme Internet lui-même, comme le Web et comme les systèmes d’exploitation Open Source comme Linux : un monde certes moins raffiné, moins contrôlé, mais un monde qui est par essence novateur car chacun peut apporter ses idées sans avoir à demander la permission à qui que ce soit.

J’ai déjà expliqué les tentatives des grands pontes comme Facebook, Apple et News Corp de grignoter le modèle « des petits morceaux faiblement coordonnés » de l’Internet. Mais peut-être que le plus grand danger réside dans les monopoles qu’a engendré l’effet réseau du Web 2.0.

Je ne cesse de répéter, à propos du Web 2.0, qu’il s’appuie sur un système auto-entretenu : plus il y a d’utilisateurs, plus l’expérience est intéressante. C’est un système qui tend naturellement vers des monopoles.

Nous nous sommes donc habitués à un monde où un seul moteur de recherche domine, où une seule encyclopédie en ligne domine, un seul cyber-marchand, un seul site d’enchères, un seul site de petites annonces dominent, et nous avons été préparés à un monde où un seul réseau social dominera.

Mais qu’advient-il lorsqu’une de ces entreprises, profitant de son monopole naturel, tente de dominer une activité connexe ? C’est avec admiration et inquiétude que j’ai observé Google utiliser sa mainmise sur la recherche pour tenter d’étendre son emprise sur d’autres activités concentrées sur les données. Le service qui m’a mis la puce à l’oreille était la reconnaissance vocale, mais c’est vraiment les services de géolocalisation qui ont eu le plus gros impact.

Il y a de cela quelques semaines, Google a lancé une application de navigation GPS gratuite pour les téléphones Android. Pour les clients c’est génial puisque auparavant ils devaient opter pour un GPS dédié ou des applications pour iPhone hors de prix. Mais il faut aussi y voir la compétitivité que le Web a acquise et la puissance que Google a gagnée en comprenant que les données sont le nouveau "Intel Inside" de la nouvelle génération d’applications pour ordinateurs.

Nokia a allongé 8 milliards de dollars pour NavTeq, leader de la navigation routière. Le fabricant de GPS TomTom a quant à lui payé 3,7 milliards de dollars pour TeleAtlas, numéro deux du secteur. Google développe un service équivalent dans son coin pour finalement l’offrir gratuitement… mais à ses seuls partenaires. Tous les autres doivent encore payer de lourdes redevances à NavTeq et TeleAtlas. Google va même plus loin puisqu’il y ajoute ses propres services, comme Street View.

Mais surtout, les camps sont maintenant bien établis entre Apple et Google (ne ratez pas l’analyse de Bill Gurley à ce sujet). Apple domine l’accès au Web mobile avec son appareil, Google contrôle l’accès à l’une des applications mobiles les plus importantes et limite son accès gratuit aux seuls terminaux Android pour l’instant. Google ne fait pas des merveilles que dans le domaine de la recherche, mais aussi en cartographie, en reconnaissance vocale, en traduction automatique et dans d’autres domaines adossés à des bases de données intelligentes phénoménales que seuls quelques fournisseurs peuvent s’offrir. Microsoft et Nokia disposent également de ces atouts, mais eux aussi sont en concurrence directe avec Apple et, contrairement à Google, leur économie repose sur la monétisation de ces atouts, pas sur la gratuité du service.

Il se peut qu’ils trouvent un moyen de co-exister pacifiquement, et dans ce cas nous pourrions continuer à jouir du Web interopérable que nous connaissons depuis deux décennies. Mais je parierais plutôt sur l’effusion de sang. Nous sommes à la veille d’une guerre pour le contrôle du Web. Au fond, c’est même plus que ça, c’est une guerre contre le Web en tant que plateforme interopérable. Nous nous dirigeons plutôt vers la plateforme Facebook, la plateforme Apple, la plateforme Google, la plateforme Amazon, les grandes entreprises s’étripant jusqu’à ce qu’il n’en reste plus qu’une.

C’est maintenant au développeur de s’affirmer. Si vous ne voulez pas voir l’histoire se répéter comme pour les PC, pariez sur les systèmes ouverts. N’attendez pas qu’il soit trop tard.

PS : Une prédiction : Microsoft sera le grand défenseur du Web ouvert, encourageant l’interopérabilité des services Web, tout comme IBM est devenu l’entreprise soutenant le plus Linux.

Je parlerai de ce sujet lors de mon discours d’introduction à la Web 2.0 Expo à New York mardi. J’espère vous y rencontrer.

Notes

[1] Crédit photo : Phault (Creative Commons By)