Google : numéro 1 mondial de l’open source ?

Austin Ziegler - CC by-saAh qu’il était doux et rassurant le temps de l’informatique à grand-papa où nous avions nos ordinateurs fixes qui se connectaient de temps en temps et où nous luttions avec confiance et enthousiasme contre le grand-méchant Microsoft !

Ce temps-là est révolu. Nous entrons dans une autre décennie et il se pourrait bien que le principal sujet de conversation de la communauté du logiciel libre dans les dix ans à venir ne soit plus Microsoft (symbole du logiciel propriétaire, j’ai mal à mes fichiers !) mais Google (symbole de l’informatique dans les nuages, j’ai mal à mes données personnelles !)[1].

Firefox, bouffé par Chrome ? Ubuntu, court-circuité par Chrome OS ? Le Web tout entier se transformant petit à petit en un fort joli Minitel 2.0 bourré de services Google à tous les coins de rue ? Ces différents scénarios ne relèvent pas forcément de la science-fiction.

Le problème c’est que nous n’avons plus un Microsoft en face d’une limpide ligne de démarcation. Le problème c’est que nous avons affaire à rien moins qu’au premier contributeur open source de la planète. Et cela rend légèrement plus complexe le positionnement…

La plus grande entreprise mondiale de l’open-source ? Google

World’s biggest open-source company? Google

Matt Asay – 16 septembre 2009 – Cnet news
(Traduction Framalang : Julien et Cheval boiteux)

Red Hat est généralement considérée comme la principale société open source de l’industrie, mais c’est une distinction dénuée de sens parce qu’elle est inexacte. Alors que les revenus de Red Hat proviennent des logiciels open source que la société développe et distribue, d’autres entreprises comme Sun, IBM et Google écrivent et contribuent en réalité à beaucoup plus de code open source. Il serait temps d’arrêter de parler d’entreprises open source et de revenir à l’importance du code open source.

L’open source est de plus en plus le socle sur lequel reposent les entreprises d’internet et du logiciel. Myspace a dernièrement fait des vagues en ouvrant les sources de Qizmt, un framework de calcul distribué (qui curieusement tourne sur Windows Server) qui active la fonction « Personnes que tu pourrais connaître » du site. Mais Myspace, comme l’a noté VentureBeat, n’a fait que rattraper la récente ouverture des sources de Tornado par Facebook.

Aucun d’eux ne le fait pour marquer des points auprès des utilisateurs branchés. S’ils le font, c’est motivé par leurs propres intérêts, qui nécessitent de plus en plus souvent d’inciter des communautés de développeurs à adopter et étendre leurs propres applications et services Web.

C’est également un moyen d’améliorer la qualité des logiciels. En adoptant les projets open source d’une entreprise, puis en l’étendant à travers ses propres logiciels open source, la qualité collective de l’open source est forte et croissante, comme le note Kit Plummer d’Accenture.

C’est cette compréhension de l’intérêt qu’il apporte et la qualité qui en découle qui a fait de l’open source une architecture essentielle pour potentiellement tous les logiciels commerciaux, ce qui signifie que Red Hat et d’autres entreprises qui ne font que de l’open source ne sont désormais plus le centre de cet univers.

Le noyau Linux est composé de 11,5 millions de lignes de code, dont Red Hat est responsable à hauteur de 12% (mesuré en termes de lignes de code modifiées). Même si l’on y ajoute le serveur d’applications JBoss Application Server (environ 2 autres millions de lignes de code) et d’autres projets Red Hat, on obtient toujours un total inférieur à d’autres acteurs.

Prenons Sun, par exemple. C’est le principal développeur derrière Java (plus de 6.5 millions de ligne de code), Solaris (plus de 2 millions de lignes de code), OpenOffice (environ 10 millions de lignes) et d’autres projets open source.

Ou bien IBM, qui a contribué à lui seul à 12,5 millions de lignes pour Eclipse, sans parler de Linux (6.3% du total des contributions), Geronimo, et un large éventail d’autres projets open source.

Google, cependant, est la société la plus intéressante de toutes, car elle n’est pas une entreprise de logiciels en soi. J’ai interrogé Chris DiBona, responsable des programmes open source et secteur public de Google, à propos des contributions de la société dans le domaine de l’open source (NdT : Cf Tout, vous saurez tout sur Google et l’Open Source sur le Framablog). Voici sa réponse :

Au bas mot, nous avons libéré environ 14 millions de lignes de code. Android dépasse les 10 millions de lignes, puis vous avez Chrome (2 millions de lignes, Google Web Toolkit (300 000 lignes), et aux alentours d’un projet par semaine sorti au cours des cinq dernières années. Vous avez ainsi quelques centaines d’employés Google qui patchent sur une base hebdomadaire ou mensuelle.

Si DiBona se garde bien de suggérer que Google soit devenu le premier contributeur open source (« disons que nous sommes parmi les premiers »), c’est néanmoins probablement le cas, en particulier lorsque l’on considère ses autres activités open source, incluant Google Code, l’hébergement du plus grand dépôt peut-être de projets open source, avec plus de 250 000 projets hébergés, dont au moins 40 000 sont actifs, sans parler de son Summer of Code. Après tout, les lignes de code, bien que fondamentalement utiles, ne sont pas nécessairement la meilleure mesure de la valeur d’une contribution à l’open source.

En fait, Patrick Finch de la fondation Mozilla estime que la meilleure contribution de Google à l’open source n’a probablement rien à voir avec l’écriture de nouveau code :

La plus grande contribution de Google à l’open-source n’est sans doute pas du code, mais de prouver que vous pouvez utiliser Linux à grande échelle sur des machines démarquées (NdT : whitebox hardware).

C’est une étape importante, et qui souligne le fait que le label « entreprise open source » est devenu quelque peu obsolète. Google ne se présente pas, à juste titre, comme une entreprise open source. L’open source fait simplement partie de leur stratégie pour distribuer des logiciels qui vont aider à vendre davantage de publicité.

Sun a tenté de se transformer en entreprise open source, mais une fois que son acquisition par Oracle aura été finalisée, cette dernière ne va certainement pas prendre ce label. Pas parce que c’est un mauvais label, mais simplement parce qu’il n’est plus pertinent.

Toutes les entreprises sont désormais des entreprises open source. Ce qui signifie aussi qu’aucune ne l’est. L’open source est simplement un élément parmi d’autres de la politique de développement et de croissance de ces entreprises, que l’on s’appelle Red Hat, Microsoft, Google ou Facebook.

Et étant donné que les entreprises du Web comme Google n’ont pas besoin de monétiser directement l’open source, on va en fait avoir l’occasion à l’avenir de voir encore plus de code open source émerger de la part de ces sociétés que ce qui a déjà été réalisé par ces traditionnelles « entreprises de logiciels open-source » que sont Red Hat, Pentaho ou MySQL.

Notes

[1] Crédit photo : Austin Ziegler (Creative Commons By-Sa)




La tragédie des pommes

Jeroen Kransen - CC by-sa« An apple a day keeps the doctor away » dit l’adage anglophone. Sauf que c’est désormais la pomme[1] elle-même qui a besoin d’un docteur.

Car si on nous suggère de « manger des pommes », encore faudrait-il que la pomme demeure effectivement plurielle. Ce qui est malheureusement de moins en moins le cas aujourd’hui.

La faute à qui ?

Peut-être aux mêmes forces et logiques économiques qui mettent à mal les biens communs (cf ce manifeste), de l’eau au logiciel en passant par la culture prise au piège des industriels[2].

L’enclosure des pommes

The Enclosure of Apples

David Bollier – 10 novembre 2009 – OnTheCommons.org
(Traduction Framalang : Goofy)

L’agriculture moderne a drastiquement réduit les variétés naturelles de pommes.

Il y a un siècle, en 1905, il y avait plus de 6500 variétés distinctes de pommes comestibles, d’après Verlyn Klinkenborg du New York Times. Les gens avaient leur pommes saisonnières favorites en ce qui concerne la cuisine ou pour manger directement. Ils en utilisaient différentes sortes selon qu’ils voulaient faire des tartes, du cidre ou du jus de pomme. Ils avaient le choix entre de nombreuses variétés exotiques portant des noms tels que Scollop Gillyflower, Red Winter Pearmain, Kansas Keeper.

Maintenant d’après Klinkenborg, « seulement 11 variétés constituent 90% de toutes les pommes vendues dans le pays, et la Red Delicious en représente à elle seule la moitié ». Pour ceux qui se demandent ce que signifie enclosure, en voici un bon exemple.

Depuis que les forces du marché en sont venues à dominer la production et la distribution des pommes au cours du 20ème siècle, les variétés naturelles qu’auparavant nous croyions garanties ont pour la plupart disparu. Certaines variétés ont été abandonnées parce qu’elles avaient des peaux fines et s’écrasaient trop facilement, faisant d’elles des denrées moins transportables pour le commerce de masse. D’autres semblaient être trop petites ou répondaient uniquement à des besoins de niche du marché. La Red Delicious s’est probablement imposée sur le marché parce qu’elle était grosse et très brillante.

Le point clé est que notre système d’agriculture moderne, dirigé par l’efficacité à grande échelle et les motivations commerciales, ne trouve aucun intérêt à la diversité, la différence et la singularité.

Heureusement, les différentes variétés de pommes fantastiques dont nous pouvions profiter auparavant n’ont pas disparu pour toujours, fait remarquer Klinkenborg. Beaucoup des anciens pommiers existent toujours, et ils fonctionnent comme une sorte de conservatoire des variétés de pommes perdues ou abandonnées. Sur un terrain, une propriété ou dans un endroit abandonné, il y a toujours des pommiers qui produisent des fruits, témoins silencieux de la biodiversité des pommes qui était autrefois normale.

Klinkenborg note que « les chercheurs du Centre National pour la préservation des ressources génétiques étudient les marqueurs génétiques de 280 vénérables pommiers qui poussent dans de vieux corps de fermes dans le sud ouest. Certains proviennent de pépinières commerciales, d’autres de stations d’agriculture expérimentale, mais la plupart sont uniques. »

Il est triste de penser que, nous autres les consommateurs modernes, nous sommes habitués à une offre si restreinte de pommes standardisées. Dans un sens, nous sommes devenus des créatures conditionnées par les restrictions du marché. Nos goûts sont devenus aussi ternes et génériques que la nourriture que nous consommons.

Un des buts remarquables que vise le mouvement Slow Food, c’est de retrouver la diversité naturelle de notre nourriture locale. J’aime à penser que, à mesure que nous apprécierons de plus en plus la richesse de la diversité naturelle et de ses manifestations locales, nous ferons beaucoup plus pour rebâtir le bien commun.

Notes

[1] Crédit photo : Jeroen Kransen (Creative Commons By-Sa)

[2] Le titre de mon billet est un clin d’œil à la tragédie des biens communs.




Filtrage du Net : danger pour la démocratie et l’État de droit

Dolmang - CC by-saLe groupe de travail Framalang du réseau Framasoft, et La Quadrature du Net publient la traduction du résumé d’une étude juridique indépendante sur les dangers du filtrage du Net.

Ce que l’on retire de la lecture de cette étude, c’est que comme lors de la bataille HADOPI, où le gouvernement se cachait derrière la supposée « défense des artistes » pour imposer une absurde et dangereuse coupure de l’accès au Net, des politiques publiques légitimes sont désormais instrumentalisées pour imposer le filtrage gouvernemental des contenus sur Internet[1].

Toutefois, de même que les coupures d’accès, si elles sont appliquées, n’apporteront pas un centime de plus aux artistes et ne feront pas remonter les ventes de disques, le filtrage ne peut en aucun cas résoudre les problèmes au prétexte desquels il sera mis en place.

Si l’objectif de lutter contre la pédopornographie et son commerce est bien évidemment légitime, la solution qui consiste à bloquer les sites incriminés pour éviter leur consultation revient en réalité à pousser, dangereusement, la poussière sous le tapis. Le seul moyen de lutte véritablement efficace contre ces pratiques ignobles passe par le renforcement des moyens humains et financiers des enquêteurs, l’infiltration des réseaux criminels ainsi que le blocage des flux financiers et le retrait des contenus des serveurs eux-mêmes. Or, en la matière, des politiques efficaces existent déjà.

Il importe donc d’améliorer ces dispositifs existants et d’y consacrer les ressources nécessaires, plutôt que de remettre en cause les libertés au motif de politiques de prévention du crime totalement inefficaces. En effet, les arguments de lutte contre la criminalité, au potentiel émotionnel fort, sont aujourd’hui instrumentalisés pour tenter de légitimer un filtrage du Net qui porte pourtant radicalement atteinte à la structure du réseau, et entraîne de grands risques pour les libertés individuelles et « l’état de droit » tout entier.

L’étude dont le résumé de 30 pages vient d’être traduit en français conjointement par les volontaires de Framalang et de La Quadrature du Net est un pavé dans la mare. Elle conteste, démonstrations juridiques à l’appui, l’idée – évoquée par un nombre croissant de gouvernements européens – que le filtrage du Net puisse être une solution efficace et indolore de régulation des pratiques sur Internet. Réalisée par les éminents spécialistes Cormac Callanan[2], Marco Gercke[3], Estelle De Marco[4] et Hein Dries-Ziekenheine[5], ses conclusions sur l’inefficacité et la dangerosité du dispositif sont sans appel :

  • Quel que soit le mode de filtrage des contenus utilisé, il entraîne de graves risques de sur-blocage (risques de faux-positif : des sites innocents rendus inaccessibles).
  • Quel que soit le mode de filtrage retenu, il sera ridiculement facile à contourner. Les criminels se servent déjà de moyens de contournement et continueront d’agir en toute impunité.

La seule mise en place du filtrage entraine des risques de dérives : si l’on commence pour la pédopornographie, pourquoi ne pas continuer par la suite pour la vente de cigarettes sans TVA[6], le partage de musique et de films (comme le souhaitent les lobbies derrière l’ACTA)[7], les sondages en sorties des urnes ou même les insultes au président ? La plupart des pays non-démocratiques (Chine, Iran, Birmanie, etc.) utilisent le filtrage du Net aujourd’hui, systématiquement à des fins de contrôle politique.

La loi LOPPSI (loi d’orientation et de programmation pour la performance de la sécurité intérieure) sera bientôt examinée au Parlement français. Elle contient des dispositions visant à imposer le filtrage du Net sans contrôle de l’autorité judiciaire, par une autorité administrative dépendante du ministère de l’intérieur.

Il est indispensable que les citoyens attachés à Internet, aux valeurs démocratiques et à l’État de droit se saisissent de cette question, grâce à cette étude, afin de stimuler un débat public. Il est crucial de contrer cette tentative d’imposer un filtrage du Net attentatoire aux libertés fondamentales !

Passages essentiels :

p. 4 : Dans les pays où l’autorité judiciaire est indépendante du pouvoir législatif et du pouvoir exécutif, ce qui devrait être le cas dans toutes les démocraties libérales, seul un juge devrait avoir la compétence de déclarer illégal un contenu, une situation ou une action.

Un problème crucial autour des listes noires est celui de leur sécurité et leur intégrité. Une liste de contenus tels que ceux-là est extrêmement recherchée par ceux qui sont enclins à tirer parti d’une telle ressource. Sans même mentionner les fuites de listes noires directement sur Internet, des recherches indiquent qu’il serait possible de faire de la rétro ingénierie des listes utilisées par n’importe quel fournisseur de services.

p. 5 : En tout état de cause, il faut souligner qu’aucune stratégie identifiée dans le présent rapport ne semble capable d’empêcher complètement le filtrage abusif. Ceci est d’une importance décisive lorsqu’on met en balance la nécessité de bloquer la pédo-pornographie et les exigences des droits de l’Homme et de la liberté d’expression. Il semble inévitable que des contenus légaux soient aussi bloqués lorsque le filtrage sera mis en œuvre.

p. 13 : Aucune des stratégies identifiées dans ce rapport ne semble être capable de protéger du sur-filtrage. C’est une des préoccupations majeures dans l’équilibre entre la protection des enfants et les droits de l’homme et de la liberté. Il parait inévitable que le contenu légal soit filtré aux endroits où les filtres sont implémentés. Le sous-filtrage est aussi un phénomène universel spécialement présent dans la plupart des stratégies étudiées.

p 18 : Que l’accès à Internet soit ou non un droit fondamental indépendant, celui-ci est tout au moins protégé comme un moyen d’exercer la liberté d’expression, et chaque mesure de filtrage d’Internet qui tente d’empêcher les personnes d’accéder à l’information est par conséquent en conflit avec cette liberté. Chaque mesure de filtrage limite le droit à la liberté d’expression, de manière plus ou moins large selon les caractéristiques du filtrage et le degré de sur-filtrage, puisque l’objectif initial d’une telle mesure est de limiter l’accès à un contenu particulier.

p 21 : La seule sorte d’accord qui pourrait autoriser une mesure de filtrage serait le contrat entre l’utilisateur d’Internet et le fournisseur d’accès. La légalité d’une telle mesure de filtrage dépendrait pour beaucoup du type de contenu consulté, de la nature de l’entorse aux droits et libertés et des preuves requises. Si cela n’est pas précisé d’une façon raisonnable, il est facile d’envisager que de tels contrats soient considérés comme des entorses à la directive européenne sur les clauses contractuelles abusives, particulièrement si cela permet au fournisseur d’accès à Internet de prendre des sanctions unilatérales à l’encontre de son client.

p 23 : Le filtrage du web et du P2P dans l’intérêt de l’industrie de la propriété intellectuelle. Une mesure de filtrage du web ou du P2P, qui servirait l’intérêt des ayants droit, aurait probablement un effet global plus négatif :

  • tout d’abord, si le filtrage du P2P peut être présenté comme menant à un chiffrement des échanges rendant toute surveillance ou la plupart des contenus impossible, il deviendrait alors impossible de surveiller ces communications, même dans les conditions où cela est autorisé ;
  • ensuite, cela impliquerait des coûts. Elevés pour l’industrie d’Internet, les gouvernements et les internautes ;
  • enfin, cela mènerait à coup sûr au filtrage de fichiers légaux.

Au regard du critère qui requiert qu’il existe une base suffisante pour croire que les intérêts des ayants-droits soient en péril , nous pouvons dire qu’il n’y a aucune preuve d’un tel danger. Il n’y a aucune preuve de la nature et de l’étendue des pertes possibles dont souffrent les ayants-droits à cause des infractions commises à l’encontre de leurs droits sur le web ou les réseaux P2P, étant donné que les études sur ce problème sont insuffisantes ou démontrent un résultat inverse.

Le filtrage des contenus illégaux du web ou du P2P dans le but de la prévention du crime. L’objectif de la prévention du crime devrait être d’empêcher les gens de commettre des crimes ou délits ou d’en être complices en achetant, téléchargeant ou vendant des contenus illégaux. Sa proportionnalité dépendrait de l’équilibre trouvé entre, d’une part, le pourcentage de la population qui ne commettrait plus de délits puisque n’ayant plus accès aux contenus illégaux et, d’autre part, les restrictions des libertés publiques que causerait la mesure. L’effet de la mesure ne devrait pas être une réduction significative de la liberté d’expression ni du droit à la vie privée de chaque citoyen. Il n’existe pour l’instant aucune preuve qu’une mesure de filtrage pourrait aboutir à une diminution des crimes et délits, alors qu’elle restreindrait certains comportements légitimes et proportionnés.

p 25 : Si avoir le droit d’attaquer devant un tribunal une décision qui limite une des libertés est un droit fondamental, cela suppose que cette limitation a déjà été mise en place et que le citoyen a déjà subi ses effets. Par conséquent, il est essentiel qu’un juge puisse intervenir avant qu’une telle décision de filtrage ne soit prise. En ce qui concerne le filtrage d’Internet, ces situations sont tout d’abord relatives à l’estimation et la déclaration d’illégalité d’un contenu ou d’une action, puis à l’appréciation de la proportionnalité de la réponse apportée à la situation illégale.

p. 26 : Un passage en revue technique des principaux systèmes de filtrage d’Internet utilisés de nos jours, et la façon dont ils s’appliquent à différents services en ligne, soulignent la gamme croissante des contenus et des services qu’on envisage de filtrer. Une analyse de l’efficacité des systèmes de filtrage d’Internet met en évidence de nombreuses questions sans réponse à propos du succès de ces systèmes et de leur capacité à atteindre les objectifs qu’on leur assigne. Presque tous les systèmes ont un impact technique sur la capacité de résistance d’Internet et ajoutent un degré supplémentaire de complexité à un réseau déjà complexe. Tous les systèmes de filtrage d’Internet peuvent être contournés et quelquefois, il suffit de modestes connaissances techniques pour le faire. Il existe des solutions logicielles largement disponibles sur Internet qui aident à échapper aux mesures de filtrage.

p. 27 : En bref, le filtrage d’Internet est conçu avec des solutions techniques qui sont inadéquates par elles-mêmes et qui en outre sont sapées par la disponibilité de protocoles alternatifs permettant d’accéder à du matériel illégal et de le télécharger. Il en résulte que l’estimation du caractère proportionné des mesures ne doit pas seulement respecter l’équilibre des divers droits en jeu, mais aussi garder à l’esprit l’incapacité des technologies de filtrage à préserver les droits en question, ainsi que les risques d’effets pervers, tels qu’une diminution de la pression politique pour rechercher des solutions complètes, ou le risque d’introduction de nouvelles stratégies chez les fournisseurs de sites illégaux pour éviter le filtrage, ce qui rendrait à l’avenir plus difficiles encore les enquêtes pénales.

Notes

[1] Crédit photo : Dolmang (Creative Commons By-Sa)

[2] Cormac Callanan est Membre du conseil consultatif Irlandais sur la sûreté d’Internet et directeur d’Aconite Internet Solutions, qui fournit des expertises dans le domaine de la cybercriminalité.

[3] Marco Gercke est Directeur de l’Institut du droit de la cybercriminalité et professeur de droit pénal à l’Université de Cologne.

[4] Estelle De Marco est juriste. Ancienne consultante de l’Association des Fournisseurs d’Accès.

[5] Hein Dries-Ziekenheine est PDG de Vigilo Consult, cabinet de juristes spécialisés dans le droit de l’Internet.

[6] Voir Tabac et vente sur Internet : le gouvernement dément.

[7] En juin 2008, interrogé par PCINpact, le directeur général de la SPPF, Jérome Roger, qui représente les producteurs indépendants français, a déclaré : « les problématiques de l’industrie musicale ne sont pas éloignées de ces autres préoccupations (la pédophilie) qui peuvent paraître évidemment beaucoup plus graves et urgentes à traiter. Bien évidemment, les solutions de filtrage qui pourraient être déployées à cette occasion devraient faire l’objet d’une réflexion à l’égard des contenus, dans le cadre de la propriété intellectuelle ». Voir Quand l’industrie du disque instrumentalise la pédopornographie.




Le Petit Prince canadien est sorti de prison avant le Petit Prince français

Drizinha - CC by-saDans mon podium littéraire francophone à moi, il y a Cyrano de Bergerac, Voyage au bout de la nuit et Le Petit Prince.

Le premier est depuis longtemps tombé dans le do… tout comme Wikipédia, je n’aime l’expression « tomber dans le domaine public ». Nous ne marchons pas sur une peau de banane lorsqu’arrive ce qui serait plutôt une bonne nouvelle, à savoir ajouter une unité à la tour de Babel des biens communs. Je lui préfère donc de loin « entrer dans le domaine public », voire même, comme certains le préconisent religieusement, « s’élever dans le domaine public ».

Je reprends donc. Cyrano est depuis longtemps entré dans le domaine public. Pour les deux autres, il va encore falloir patienter un peu, pour ne pas dire beaucoup : 2031 pour Le Voyage et 2014 pour Le Petit Prince. Vous me direz que c’est étrange puisque Le Voyage (1932) a été publié bien avant Le Petit Prince (1943). L’explication vient de la législation : les œuvres entrent dans le domaine public 70 ans après la mort des auteurs. Céline étant mort en 1961 tandis que Saint-Exupéry est venu tragiquement s’écraser en mer en 1944.

70 ans c’est long et arbitraire soit dit en passant. Certains ont bien raison de vouloir réduire la période, alors même que d’autres tentent de l’allonger plus encore ! (cf cette percutante vidéo sous-titrée par nos soins).

Mais 70 ans c’est surtout une mesure nationale. Ce n’est ni européen, ni mondial. La durée minimale de protection imposée par les conventions internationales est de 50 ans après la mort de l’auteur. Mais ça n’est qu’une durée minimale. Et chaque pays est libre, comme ici la France, d’y ajouter quelques années supplémentaires, au grand dam du public. Le problème c’est qu’à l’ère du numérique et d’Internet ces différences de régime peuvent potentiellement aboutir à de beaux casse-têtes juridiques. Et justement j’en ai a priori un à vous proposer.

Il faut savoir en effet que le Canada a lui la bonne idée de s’arrêter à la limite inférieure des conventions internationales, à savoir donc 50 ans après la mort des auteurs. Autrement dit Le Petit Prince est déjà entré dans le domaine public de l’autre côté de l’Atlantique !

À partir de là on se retrouve avec un site, Wikilivres, qui le propose sur une seule et unique page dans son intégralité, magnifiques dessins inclus ! Le site ne s’arrête d’ailleurs pas là puisqu’il offre également des traductions en plusieurs langues dont l’anglais, l’espagnol et l’allemand.

Wikilivres prend soin, la belle affaire, de nous préciser ceci : « Cette œuvre est dans le domaine public au Canada, mais encore soumis aux droits d’auteur dans certains pays, notamment en Europe et/ou aux États-Unis. Les téléchargements sont faits sous votre responsabilité ».

Il n’empêche que nous sommes sur le Grand Internet, qui n’a assurément pas les mêmes frontières que le monde physique, et que cela m’interpelle.

Du coup j’ai imaginé quelques questions (dont j’assume la naïveté) que je soumets à votre sagacité :

  • Tout d’abord, Wikilivres a-t-il le droit de mettre en ligne ainsi l’intégralité du livre ? Est-ce que l’emplacement géographique du serveur du site (au Canada ou non) a une quelconque importance ?
  • Ai-je moi le droit de consulter l’intégralité du Petit Prince sur Wikilivres en me connectant hors du Canada ? Cela semble idiot, j’en conviens, et pourtant même là j’ai un doute. Parce qu’avec le développement de la téléphonie mobile, cela signifie que tout le monde sur la planète peut potentiellement lire le livre (modulo le fait que découvrir Le Petit Prince à travers l’écran de son smartphone, c’est pas forcément le top).
  • En tant que non canadien puis-je tranquillement imprimer à des fins personnelles l’intégralité du Petit Prince de Wikilivres ? Puis-je l’inclure dans ma liseuse numérique (Kindle, etc.) ?
  • Les conventions internationales énoncent que la durée de protection d’une œuvre ne peut excéder celle de son pays d’origine. Mais ici on est dans la situation inverse. Celle où elle est plus longue dans le pays d’origine. Va-t-on se retrouver dans une situation où pendant 20 ans le Canada offrira toute la culture française en avant-première dans le domaine public ?
  • Je ne peux clairement pas récupérer le fichier sur Wikilivres et m’en aller tranquillement sur InLibroVeritas créer mon livre Petit Prince à moi. Mais puis-je le faire si je trouve un équivalent canadien qui me fabrique donc le livre pour ensuite me l’envoyer en France ?
  • Un enseignant français, qui veut étudier l’œuvre, peut-il aller en salle informatique et demander à ses élèves de se connecter sur Wikilivres pour travailler dessus ?
  • Dans les pays où s’appliquent le droit d’auteur (comme en France) et non le copyright (comme aux USA), les auteurs et leurs héritiers conservent indéfiniment leur droit moral. Wikipédia nous dit : « Pour respecter le droit moral de l’auteur d’une œuvre entrée dans le domaine public, il suffit de citer le nom de l’auteur et le titre de l’œuvre utilisée ». Est-ce vraiment l’unique condition ? (interrogation non liée à la situation mais qui me turlupine également)
  • L’auteur doit-il avoir été publié dans un pays donné pour avoir le droit d’entrer dans le domaine public de ce pays ? Que l’auteur n’ait pas la nationalité du pays change-t-il quelque chose ? Comment cela se passe-t-il dans des pays comme la Chine ou Cuba ?
  • Saint-Exupéry est « Mort pour la France ». Doit-on alors rallonger de 30 ans l’entrée dans le domaine public du Petit Prince ? Ce qui nous ferait donc aller jusqu’en 2044, c’est-à-dire 100 ans après la mort de l’auteur ! Ce qui est sûr c’est que Saint-Exupéry n’est pas « Mort pour la Canada » !
  • Question subsidiaire : L’illustration[1] de mon billet est plus que sujette à caution. Je pourrais dire que cela n’est pas ma faute puisque j’ai récupéré cette photo sur Flickr et qu’elle a été placée par son auteur (en l’occurrence une dénommée Drizinha) sous licence Creative Commons By-Sa. Qui est responsable de quoi dans ces cas là ?
  • Le titre de mon billet est-il mal choisi ? (là, j’ai déjà la réponse)

N’hésitez pas à réagir, (tenter de) répondre aux question et/ou en suggérer d’autres dans les commentaires (que je me ferai un plaisir pour les plus pertinentes d’ajouter a posteriori à la liste ci-dessus).

Et pour conclure, j’use de mon droit de courte citation pour extraire ci-dessous un passage du Petit Prince, que je dédicace à tous les petits-enfants qui vivent aujourd’hui gracieusement des droits d’auteur de leurs grands-parents.

Le Petit Prince : Et que fais-tu de ces étoiles ?
Le businessman : Ce que j’en fais ?
— Oui.
— Rien. Je les possède.
— Tu possèdes les étoiles ?
— Oui.
— Mais j’ai déjà vu un roi qui…
— Les rois ne possèdent pas. Ils règnent sur. C’est très différent.
— Et à quoi cela te sert-il de posséder les étoiles ?
— Ça me sert à être riche.
— Et à quoi cela te sert-il d’être riche ?
— À acheter d’autres étoiles, si quelqu’un en trouve.
Celui-là, se dit en lui-même le petit prince, il raisonne un peu comme mon ivrogne. Cependant il posa encore des questions :
— Comment peut-on posséder les étoiles ?
— À qui sont-elles ? riposta, grincheux, le businessman.
— Je ne sais pas. À personne.
— Alors elles sont à moi, car j’y ai pensé le premier.
— Ça suffit ?
— Bien sûr. Quand tu trouves un diamant qui n’est à personne, il est à toi. Quand tu trouves une île qui n’est à personne, elle est à toi. Quand tu as une idée le premier, tu la fais breveter : elle est à toi. Et moi je possède les étoiles, puisque jamais personne avant moi n’a songé à les posséder.
— Ça c’est vrai, dit le petit prince. Et qu’en fais-tu ?
— Je les gère. Je les compte et je les recompte, dit le businessman. C’est difficile. Mais je suis un homme sérieux !
Le petit prince n’était pas satisfait encore.
— Moi, si je possède un foulard, je puis le mettre autour de mon cou et l’emporter. Moi, si je possède une fleur, je puis cueillir ma fleur et l’emporter. Mais tu ne peux pas cueillir les étoiles !
— Non, mais je puis les placer en banque.
— Qu’est-ce que ça veut dire ?
— Ça veut dire que j’écris sur un petit papier le nombre de mes étoiles. Et puis j’enferme à clef ce papier-là dans un tiroir.
— Et c’est tout ?
— Ça suffit !
C’est amusant, pensa le petit prince. C’est assez poétique. Mais ce n’est pas très sérieux.

Notes

[1] Crédit photo : Drizinha (Creative Commons By-Sa)




Hadopi à l’école : transformons la propagande en opportunité

Pink Sherbet Photography - CC byVous ne le savez peut-être pas, mais nous, professeurs, sommes désormais dans l’obligation légale « d’enseigner l’Hadopi » à vos enfants.

C’est évidemment un peu caricatural de présenter la chose ainsi. Sauf que voici ce qu’on peut lire actuellement en accueil et en pleine page de la rubrique Legamédia du très officiel site Educnet : « La loi Hadopi favorise la diffusion et la protection de la création sur internet (et) demande à l’éducation nationale de renforcer l’information et la prévention auprès des jeunes qui lui sont confiés ».

Le message est on ne peut plus clair, d’autant que Legamédia[1] se définit comme « l’espace d’information et de sensibilisation juridique pour la communauté éducative ».

Dura lex sed lex

Ceci place alors les nombreux collègues, qui n’étaient pas favorables à cette loi liberticide, dans une position difficile. Nous sommes de bons petits soldats de la République mais la tentation est alors réelle d’adopter une attitude larvée de résistance passive. Cependant, à y regarder de plus près, rien ne nous oblige à entrer dans la classe en déclamant aux élèves : « La loi Hadopi favorise la diffusion et la protection de la création sur internet, voici pourquoi… »[2].

Que dit en effet précisément la loi, pour les passages qui nous concernent ici ?

Elle dit ceci (article L312-6) :

Dans le cadre de ces enseignements (artistiques), les élèves reçoivent une information sur les dangers du téléchargement et de la mise à disposition illicites d’œuvres ou d’objets protégés par un droit d’auteur ou un droit voisin pour la création artistique.

Elle dit cela (article L312-9) :

Tous les élèves sont initiés à la technologie et à l’usage de l’informatique.

Dans ce cadre, notamment à l’occasion de la préparation du brevet informatique et internet des collégiens, ils reçoivent de la part d’enseignants préalablement sensibilisés sur le sujet une information sur les risques liés aux usages des services de communication au public en ligne, sur les dangers du téléchargement et de la mise à disposition illicites d’œuvres ou d’objets protégés par un droit d’auteur ou un droit voisin pour la création artistique, ainsi que sur les sanctions encourues en cas (Dispositions déclarées non conformes à la Constitution par la décision du Conseil constitutionnel n° 2009-580 DC du 10 juin 2009) de délit de contrefaçon. Cette information porte également sur l’existence d’une offre légale d’œuvres ou d’objets protégés par un droit d’auteur ou un droit voisin sur les services de communication au public en ligne.

Et puis c’est tout.

Sous les pavés du copyright, la plage du copyleft

Pourquoi alors évoquer dans mon titre aussi bien une propagande qu’une opportunité ?

La réponse est toute entière contenue dans les deux sous-amendements déposés par M. Brard et Mme Billard en avril 2009 (n° 527 et n° 528).

Ils visaient à ajouter la mention suivante au texte de loi ci-dessus : « Cette information est neutre et pluraliste. Elle porte également sur l’offre légale d’œuvres culturelles sur les services de communication au public en ligne, notamment les avantages pour la création artistique du téléchargement et de la mise à disposition licites des contenus et œuvres sous licences ouvertes ou libres. »

Et les justifications données valent la peine d’être rappelées.

Pour le sous-amendement n° 527 :

L’article L312-9 du Code de l’éducation dispose que « tous les élèves sont initiés à la technologie et à l’usage de l’informatique ». Il serait fort regrettable que sous couvert de prévention et de pédagogie autour des risques liés aux usages des services de communication au public en ligne sur les dangers du téléchargement et de la mise à disposition illicites d’œuvres culturelles, soit présentée comme seule alternative une « offre légale » qui occulterait la mise en valeur et la diffusion des contenus et œuvres sous licences ouvertes et libres. On violerait là, dans la préparation du brevet informatique et internet des collégiens, les principes de la neutralité scolaire sous l’égide même du ministère de l’Éducation nationale.

Pour le sous-amendement n° 528 :

Ce sous-amendement permet de préciser le lien entre « téléchargement » et « création artistique », dans le respect de la neutralité de scolaire.

Il ne s’agit pas de condamner une technologie par définition neutre, mais les usages illicites qui en sont faits, en mettant en avant les usages licites de partage des œuvres culturelles.

Les œuvres sous licences ouvertes et libres (licence Art Libre, Creative Commons) sont un excellent moyen de diffusion légale de la culture et de partage culturel entre particuliers, qui enrichissent la création artistique.

L’utilisation de ces licences est l’outil adéquat du partage de la connaissance et des savoirs et se montre particulièrement adaptée à l’éducation.

Les œuvres sous licences ouvertes et libres (licence Art Libre, Creative Commons) sont un excellent moyen de diffusion légale de la culture, et de partage culturel entre particuliers. Qu’il s’agisse de musique, de logiciels ou de cinéma, ces pratiques de création culturelle protégées par le droit d’auteur autorisent la copie, la diffusion et souvent la transformation des œuvres, encourageant de nouvelles pratiques de création culturelle.

Les œuvres sous licences ouvertes et libres ne sont pas des oeuvres libres de droits : si leur usage peut être ouvertement partagé, c’est selon des modalités dont chaque ayant droit détermine les contours. Les licences ouvertes sont parfaitement compatibles avec le droit d’auteur dont les règles, qui reposent sur le choix de l’auteur, permettent que soient accordées des libertés d’usage.

Elles ouvrent de nouveaux modèles économiques en phase avec les nouvelles technologies, comme en témoigne, dans le domaine musical, le dernier album du groupe Nine Inch Nails, distribué sous licence libre sur les réseaux de pair à pair, en tête des albums les plus vendus en 2008 sur la plateforme de téléchargement d’Amazon aux Etats-Unis.

Ces amendements ont été malheureusement rejetés, sous le prétexte fumeux que ça n’était « pas vraiment pas du ressort de la loi mais plutôt de la circulaire » (cf article de l’April). On pourra toujours attendre la circulaire, elle ne viendra pas. Car c’est bien ici que se cache la propagande.

De la même manière que le logiciel propriétaire a tout fait pendant des années pour taire et nier l’existence du logiciel libre en ne parlant que de logiciel propriétaire dûment acheté vs logiciel propriétaire « piraté », les industries culturelles (avec l’aide complice du gouvernement) ne présentent les choses que sous l’angle dichotomique de l’offre légale vs le téléchargement illégal en occultant totalement l’alternative des ressources sous licence libre. Pas la peine d’avoir fait Sciences Po pour comprendre pourquoi !

Nous pouvons cependant retourner la chose à notre avantage, tout en respectant évidemment la loi. Il suffit de présenter la problématique aux élèves sous un jour nouveau. Non plus la dichotomie précédente mais celle qui fait bien la distinction entre ressources sous licence fermée et ressources sous licence ouverte ou libre.

Exemple de plan. Dans une première partie, on évoquera bien entendu l’Hadopi, le téléchargement illégal (les amendes, la prison), l’offre légale, les droits d’auteur classiques de type « tous droits réservés », etc. Mais dans une seconde partie, plus riche, féconde et enthousiaste, on mettra l’accent sur cette « culture libre » en pleine expansion qui s’accorde si bien avec l’éducation.

C’est bien plus qu’une façon plus ou moins habile de « lutter contre l’Hadopi ». C’est une question de responsabilité d’éducateur souhaitant donner les maximum de clés à la génération d’aujourd’hui pour préparer au mieux le monde demain.

Préalablement sensibilisés

Encore faudrait-il, et désolé pour la condescendance, que les enseignants comprennent de quoi il s’agit et adhèrent à cette manière de voir les choses. Ce qui n’est pas gagné, quand on regarde et constate la situation actuelle du logiciel libre dans l’éducation.

La loi stipule que « les élèves reçoivent de la part d’enseignants préalablement sensibilisés sur le sujet une information sur… ». Peut-on aujourd’hui compter sur le ministère pour que cette sensibilisation ne se fasse pas à sens unique (et inique) ? Une fois de plus, je crains fort que non.

Peut-être alors serait-il intéressant de proposer aux collègues une sorte de « kit pédagogique dédié », élaboré conjointement par toutes les forces vives du libre éducatif et associatif ?

L’appel est lancé. Et en attendant voici en vrac quelques ressources internes et non exhaustives du Framablog susceptibles de participer à ce projet.

J’arrête là. N’ayant ni la volonté de vous assommer, ni le courage d’éplucher les quelques six cents articles des archives du blog. Sacrée somme en tout cas, qui me donne pour tout vous dire un léger coup de vieux !

Certains disent que la bataille Hadopi a été perdue dans les faits (la loi est passée) mais pas au niveau des idées et de la prise de conscience de l’opinion publique. Montrons ensemble qu’il en va de même à l’Éducation nationale en profitant de la paradoxale occasion qui nous est donnée.

Notes

[1] Ce n’est malheureusement pas la première fois que le Framablog évoque Legamédia.

[2] Crédit photo : Pink Sherbet Photography (Creative Commons By)




Agenda 2010 Wikimédia ou comment rendre original un cadeau banal

Agenda 2010 WikimédiaC’est bientôt la Noël et ses rituels spirituels et consuméristes. Et comme chaque année, la question existentielle suivante : Mais que vais-je donc bien pouvoir offrir à Tata Jeanine ?

Et que se passe-t-il si vous êtes à court d’idées, de temps et d’imagination ? Vous allez immanquablement penser à… un agenda (il ne reste plus que cette option puisque Tata Jeanine n’aime pas le chocolat).

Or cela tombe bien puisque c’est exactement le cadeau que nous allons nous aussi vous suggérer ! Sauf que cet agenda-là possède selon nous un petit supplément d’âme puisqu’il est proposé par Wikimédia France en partenariat avec l’éditeur InLibroVeritas (sous double licence libre Creative Commons By-Sa et Art Libre).

Donc, chère Tata, tu auras l’impression qu’une fois de plus je ne me suis pas foulé, mais détrompe-toi car tu tiendras entre les mains bien plus qu’un simple calendrier illustré et légendé, aussi beau soit-il (ce qui est d’ailleurs le cas). Tu tiendras entre les mains une infime mais lumineuse parcelle de ce libre accès à la connaissance souhaité et rendu possible par les projets Wikimedia (l’occasion du reste de nous rendre compte ensemble que Wikimedia ne se résume pas à l’encyclopédie Wikipédia).

L’agenda 2010 Wikimédia se présente au format A4 sous un format hebdomadaire (une page par semaine avec notation de rendez-vous sur la page de droite, une photo dûment sélectionnée sur la page de gauche). Vous pouvez le consulter en ligne et bien entendu l’acheter chez InLibroVeritas au prix de 25€.

Vous trouverez ci-dessous copie de la préface rédigée par Adrienne Alix, la présidente de l’association Wikimédia France qui, dernier argument, touchera l’intégralité des bénéfices de la vente.

PS : On peut voir l’intégralité des photos de l’agenda (et même un peu plus) sur cette page de l’espace personnel d’Adrienne sur Wikimedia Commons[1].

Agenda 2010 Wikimédia

Préface

« Wikipédia » : pour vous ce mot évoque internet, culture, diffusion du savoir. Saviez-vous qu’à côté de Wikipédia se développent des projets liés, complémentaires et dynamiques ?

Ce que Wikipédia est à la connaissance encyclopédique, Wikimedia Commons l’est aux contenus multimédias, Wikisource aux textes anciens, Wikiquote aux citations : des projets de diffusion libre et massive de connaissances.

Tous ces projets, et d’autres encore, font partie du mouvement Wikimédia. Ils sont hébergés par la Wikimedia Foundation, une association à but non lucratif. Ils fonctionnent, comme Wikipédia, sur un mode collaboratif : chaque internaute est invité à apporter selon ses capacités sa pierre à la diffusion du savoir.

Aujourd’hui, l’association Wikimédia France, association pour le libre partage de la connaissance, a voulu mettre en valeur le fabuleux contenu de ces projets. Et comment mieux valoriser ces projets qu’en montrant leurs contenus ? C’est la raison d’être de cet agenda.

Nous voulons vous montrer, grâce à un bel objet qui vous accompagnera toute l’année, la richesse culturelle des projets Wikimédia.

En illustrant cet agenda avec des photos tirées de Wikimedia Commons, vous découvrirez que cette médiathèque libre, contenant plus de 5 millions de fichiers rassemble des photos de monuments, d’animaux, de splendeurs de la nature ; mais aussi des cartes, des gravures, des tableaux. Sans compter les documents diffusés sous licences libres par de grandes institutions : NASA, Archives fédérales allemandes, qui ont choisi de libérer leurs contenus.

Les photos que nous avons choisies pour cet agenda ont pour objectif de montrer la richesse de Wikimedia Commons et de vous inciter à la fois à vous servir de cette base incroyablement riche pour vos besoins personnels ou professionnels (exposés, présentations, livres, journalisme etc.) ; mais aussi à contribuer à son enrichissement : vous aussi, vous pouvez choisir de placer vos photos sous licence libre et de les offrir à la diffusion sur Wikimedia Commons.

Pour accompagner ces belles photos, nous avons choisi quelques mots. Parfois un extrait d’article de Wikipédia, qui vous incitera à aller en savoir plus sur l’encyclopédie ; ou un extrait de texte tiré d’un livre de Wikisource, la bibliothèque numérique de textes libres de droits ; voire une citation extraite de Wikiquote, projet dédié à la collecte de citations.

Par l’achat de cet agenda, vous soutiendrez concrêtement et financièrement ces projets pour qu’ils continuent à vivre et à nourrir notre vie culturelle. Les projets Wikimédia ne vivent que par les dons de ceux qui les soutiennent. Merci de tout cœur.

Nous vous souhaitons de passer une belle année 2010 avec les projets Wikimédia. Notre ambition est de vous faire découvrir leurs richesses, et pourquoi pas de vous inciter à y participer.

Adrienne Charmet-Alix
Présidente de Wikimédia France – association pour le libre partage de la connaissance

Vous trouverez à la fin de l’agenda une présentation plus complète des projets ainsi que les adresses internet des sites et des contenus utilisés pour la réalisation de cet agenda.

Commander l’agenda 2010 Wikimédia

Agenda 2010 Wikimédia

Notes

[1] Crédit photos : Paulrudd (Creative Commons By-Sa) et Irving Underhill agenda ariège (Domaine public)




Sébastien Broca : Du logiciel libre aux théories de l’intelligence collective

Woallance3 - CC byNotre énergie, enthousiasme et optimisme ne doivent pas nous faire oublier les deux principaux écueils qui menacent en permanence ce blog, et peut-être aussi par extension toute la dite « Communauté du Libre ».

Le premier est la tentation d’enjoliver la situation et d’alimenter ainsi une mythologie, voire même une idéologie. Du côté open source, on n’aura de cesse de venter la qualité des logiciels libres, les vertus d’une organisation en mode « bazar et les formidables opportunités économiques offertes par le service autour du logiciel libre. Tandis que du côté free software, on mettra l’accent sur une éthique et un ensemble de valeurs, ainsi synthétisés non sans emphase par Richard Stallman en ouverture de ses conférences : « Je puis résumer le logiciel libre en trois mots : liberté, égalité, fraternité ».

Le second écueil consiste à croire, ou feindre de croire, que le modèle proposé par les logiciels libres est reproductible en dehors de la sphère informatique, l’exemple emblématique étant la « culture libre », dont nous serions bien en peine d’en proposer une définition exacte. Certains vont même jusqu’à voir dans ce modèle une possible alternative globale pour nos sociétés, qualifiées, peut-être trop vite d’ailleurs, de sociétés de l’information.

C’est pourquoi nous avons lu avec beaucoup d’intérêt le long mais passionnant article de Sébastien Broca « Du logiciel libre aux théories de l’intelligence collective » (paru initialement dans la Revue tic&société – Société de l’information ? Vol. 2, N° 2, 2008). Article que nous avons reproduit ci-dessous d’abord parce qu’il n’a peut-être pas eu toute l’attention qu’il méritait mais aussi telle une invitation à débattre ensemble des arguments avancés dans les commentaires.

Sébastien Broca est allocataire de recherche au Cetcopra (Univerisité Paris 1) où il réalise un doctorat de sociologie. Il résume ainsi son propos :

Cet article interroge la manière dont le mouvement du logiciel libre se trouve constitué dans de nombreux discours en modèle d‘avant-garde de transformations sociales globales. Je montre ainsi comment l’on passe d’une pratique singulière, mise en œuvre par les communautés du libre, à des théories sociologiques, économiques ou philosophiques, qui s’en inspirent largement. Je m’appuie pour ce faire sur les ouvrages récents de Pekka Himanen, Yann Moulier Boutang, Antonio Negri et Michael Hardt. J’essaie ensuite de mettre en lumière certaines difficultés relatives aux démarches de ces auteurs : généralisation abusive à partir de l’exemple du logiciel libre, et oubli des spécificités des divers domaines de la vie sociale.

Le frontispice du Framablog est orné de la citation suivante : « …mais ce serait l’une des plus grandes opportunités manquées de notre époque si le logiciel libre ne libérait rien d’autre que du code »[1]. C’est une question ouverte dont nous sentons bien, même confusément, l’extraordinaire potentiel. Encore faudrait-il être capable de l’affiner régulièrement avec lucidité et ne pas emprunter certaines postures peut-être parfois trop simplistes eu égard à la complexité du monde bien réel qui nous entoure…

PS : Pour un meilleur confort vous pouvez également lire ou imprimer la version PDF de l’article.

Du logiciel libre aux théories de l’intelligence collective

URL d’origine du document

Sébastien Broca – Revue tic&société – Société de l’information ? Vol. 2, N° 2, 2008
Mis à jour le 7 mai 2009 – Licence Creative Commons By-Nc-Nd

Introduction

Depuis une quinzaine d’années, le mouvement du logiciel libre a connu un développement fulgurant, mettant fortement en question la prééminence des logiciels propriétaires développés par les grandes entreprises du secteur informatique. Dans le même temps, certains intellectuels ont érigé ces bouleversements en symboles de transformations sociales plus générales, attendues ou espérées. En témoignent les occurrences nombreuses des références à la « démocratie open source », à « l’économie open source », voire à la « société open source ». Cette tendance à faire du mouvement du logiciel libre un des laboratoires où se préparerait la société du futur semble devoir nous interpeller à plus d’un titre. Elle incite d’une part à s’interroger sur le bien-fondé d’une démarche intellectuelle prenant appui sur une pratique spécifique, pour fonder un discours théorique à valeur générale et/ou prospective. Elle invite d’autre part à mener une réflexion critique sur les nouvelles grilles d’analyse, censées rendre compte des spécificités de notre époque.

Nous commencerons ainsi par retracer brièvement l’histoire du mouvement du logiciel libre, et par en rappeler les enjeux. Nous essaierons ensuite de montrer comment, sous l’effet d’un double mouvement d’idéalisation des pratiques et de généralisation de leur portée, les communautés du libre se trouvent présentées, dans un certain nombre de discours contemporains, comme porteuses d’un véritable modèle social d’avant-garde. Nous nous efforcerons aussi d’interroger les limites de ces discours, qui tendent à observer notre époque à travers le prisme unique du développement de pratiques de collaboration horizontales médiatisées par Internet.

1. Histoire et enjeux du mouvement du logiciel libre

1.1. Une brève histoire du libre

Le mouvement du logiciel libre se comprend comme une réaction aux changements intervenus dans l’industrie informatique au tournant des années 1970-1980, au moment où apparaît l’ordinateur personnel. Jusqu’à cette date, les utilisateurs et les programmeurs sont souvent les mêmes personnes, et à quelques exceptions près, ils peuvent librement modifier les logiciels, quand bien même ceux-ci sont soumis au copyright. Comme l’explique Eben Moglen,

dans la pratique, les logiciels pour supercalculateurs étaient développés de manière coopérative par le constructeur de matériel dominant et par ses utilisateurs techniquement compétents (Moglen, 2001, p. 160).

La situation évolue au début des années 1980. De nombreuses sociétés informatiques décident alors d’imposer des logiciels propriétaires, de privatiser du code auparavant libre, et de soumettre leurs informaticiens à des clauses de confidentialité[2].

Pour mesurer ces bouleversements, il faut savoir qu’un logiciel se présente sous deux formes. La première, dite version exécutable ou compilée, est écrite en « binaire ». C’est celle qui est lue par l’ordinateur, et elle n’est pas compréhensible pour un humain. La deuxième en revanche – appelée code source – n’est pas fonctionnelle, mais peut être appréhendée comme du « commentaire ». Écrite dans un langage de programmation compréhensible, elle explique aux développeurs comment fonctionne le programme. L’accès au code source est donc indispensable à qui veut opérer des modifications sur un logiciel. Or, c’est précisément cet accès qui se trouve fortement restreint par le mouvement de privatisation survenu au début des années 1980, qui empêche donc la communauté des informaticiens de collaborer pour améliorer les programmes.

C’est dans ce contexte que Richard Stallman, alors informaticien au laboratoire d’intelligence artificielle du MIT (Massachusetts Institute of Technology), décide en 1983 d’entreprendre la programmation d’un système d’exploitation entièrement « libre ». Il nomme celui-ci GNU (GNU is Not Unix), marquant ainsi sa volonté de se démarquer des nouvelles pratiques de l’informatique commerciale et de retrouver l’esprit coopératif d’antan. En 1985, il crée la Free Software Foundation pour faciliter le financement et le développement du projet. Les principes du logiciel libre sont formalisés en janvier 1989 dans la licence publique générale (GPL – General Public License). Celle-ci garantit aux utilisateurs quatre « libertés » : liberté d’utiliser le logiciel, liberté de le copier, liberté de le modifier (ce qui implique l’accès au code source), et liberté de le distribuer (y compris dans des versions modifiées). Tout logiciel respectant l’ensemble de ces « libertés » peut dès lors être considéré comme un « logiciel libre »[3].

Au début des années 1990, le projet GNU a abouti à l’écriture d’un système d’exploitation presque complet. Presque, car le noyau du système[4] fait encore défaut. Intervient alors la deuxième grande figure de l’histoire du logiciel libre : Linus Torvalds. À cette époque, cet étudiant finlandais de l’université d’Helsinki cherche à écrire un noyau, selon la légende pour pouvoir utiliser sur son ordinateur personnel les programmes sur lesquels il travaille dans le cadre de ses études. Il a alors l’idée brillante de rendre disponible sur Internet son travail inachevé, et d’inciter les informaticiens qui le souhaitent à le compléter. Grâce aux listes de diffusion et aux forums électroniques, des centaines puis des milliers de programmeurs en viennent à unir leurs efforts pour développer ce noyau, entre-temps nommé Linux. Bientôt, la combinaison des logiciels GNU et du noyau Linux donne naissance à un système d’exploitation complet : GNU/Linux, plus couramment appelé Linux.

Celui-ci a aujourd’hui acquis une solide réputation de fiabilité, et est devenu le concurrent principal de Windows. Il est emblématique de la réussite du logiciel libre, dont témoignent également Firefox, Apache, Open Office, et bien d’autres. Au fil des ans, ces succès ont éveillé l’intérêt des géants du secteur informatique, et ont favorisé une pénétration croissante des logiques économiques dans le monde du libre. Un exemple significatif est celui d’IBM. Alors que l’entreprise est en difficulté, ses dirigeants décident en 1999 de rendre libres de grandes quantités de lignes de code propriétaires, et de mettre en place des équipes pour travailler sur les projets Apache et Linux. Ce soutien à des projets libres est une réussite, et il s’amplifie à partir de 2002. Les bénéfices qu’en retire IBM sont en effet multiples : économies substantielles[5], réorientation de son activité vers de nouvelles offres de service[6], amélioration de son image…

1.2. L’idéologie du Libre

L’influence croissante des grands groupes informatiques a suscité d’importantes réserves et révélé quelques fractures parmi les défenseurs du logiciel libre. En témoigne notamment la controverse ayant éclaté à la fin des années 1990, suite au lancement de l’Open Source Initiative. Cette organisation est créée en 1998 pour promouvoir un label dissident (OSI approved), censé être moins contraignant que la licence GPL, et donc plus attractif pour le monde des affaires. L’initiative est condamnée par Richard Stallman et la Free Software Foundation, bien que dans les faits,la différence entre les deux labels devienne assez rapidement de pure forme[7]. Le débat – parfois virulent – entre les deux parties met en lumière la coexistence au sein du monde du libre de deux « philosophies » assez nettement opposées. Pour les partisans de l’open source, les logiciels libres doivent êtres défendus pour l’unique raison qu’ils sont meilleurs que les logiciels propriétaires ! À l’inverse, pour les défenseurs du free software et son fondateur Richard Stallman, la performance technologique est une préoccupation secondaire par rapport au mouvement social que représente le logiciel libre, et aux principes qu’il défend.

Par-delà son contenu, la controverse entre open source et free software révèle l’importance des discours de positionnement idéologique dans le milieu du libre. Le mouvement du logiciel libre est ainsi indissociable des discours produits par ses acteurs pour légitimer et promouvoir leur pratique de la programmation informatique. Ce trait est particulièrement marquant, s’agissant de la question de l’organisation des communautés de développeurs. Celles-ci sont souvent opposées aux structures pyramidales dominantes dans les sphères économiques et politiques (grandes entreprises, partis politiques, etc.). Elles sont décrites comme mettant en œuvre une organisation horizontale, reposant sur le partage de l’information et la coopération directe entre participants. Seuls les individus affectueusement nommés « dictateurs bienveillants » sont censés y tenir un rôle hiérarchique. Il s’agit d’une ou plusieurs personnes qui, en fonction du mérite qui leur est reconnu par la communauté, assurent pour chaque projet une fonction de direction, de coordination, et de sélection des contributions. Au sein du projet Linux, Linus Torvalds dirige ainsi la cellule chargée de choisir et d’assembler les modifications apportées au noyau du code source. À cette restriction près, l’idéal véhiculé par les partisans du logiciel libre est bien celui d’une communauté d’égaux, reposant sur le partage, la collaboration, et le jugement par les pairs.

Cette image est toutefois un peu trop parfaite pour ne pas fournir un reflet quelque peu déformé de la réalité. Il faut ainsi prendre garde à ce que le discours des défenseurs du logiciel libre peut avoir de militant, voire d’idéologique. Certaines études de terrain semblent ainsi démontrer que les structures hiérarchiques sont souvent plus fortes que ce que les acteurs eux-mêmes veulent bien admettre. Dans un travail réalisé en 2004, Thomas Basset montre ainsi, en étudiant le développement de la suite logiciels VideoLAN[8], qu’il existe un décalage important entre le discours des participants au projet et la réalité des pratiques. Bien que les développeurs mettent en avant l’idéal d’un « libre échange du savoir entre personnes égales (…) hors de toute structure hiérarchique » (Basset, 2003, p. 28), l’observation du chercheur met en lumière l’existence d’une forte hiérarchie informelle. Au moment de l’étude, le projet VideoLAN repose ainsi sur une distribution du travail très inégalitaire, encore renforcée par des « manœuvres volontaires de rétention de l’information » (Basset, 2003, p. 52) en contradiction flagrante avec les discours tenus.

De façon générale, il faut avoir en tête que le mouvement du logiciel libre a non seulement produit des réalisations de tout premier ordre (Linux, Apache, etc.), mais aussi – et c’est là presque aussi important – un ensemble de discours mettant en avant certaines valeurs et certains modes de fonctionnement. Or, ces discours fonctionnent parfois comme une véritable idéologie, contribuant à voiler la réalité des pratiques. Par ailleurs, s’il est vrai que cette idéologie du libre n’est pas parfaitement homogène et cohérente (c’est ce qui apparaît notamment à travers la controverse entre free software et open source mentionnée plus haut), il s’en dégage néanmoins certaines constantes : méfiance envers la hiérarchie, valorisation du mérite individuel, promotion d’une éthique de la collaboration. On insistera ainsi sur le fait que la valorisation simultanée du mérite individuel et de la collaboration n’est contradictoire que superficiellement. Le mode d’organisation des communautés du libre est précisément censé permettre à chacun de concilier une grande autonomie dans son travail avec une inscription dans un projet collectif. En effet, une organisation horizontale apparaît par définition peu susceptible de soumettre les individus au groupe, en ce qu’elle refuse toute forme de hiérarchie et de contrôle centralisé. Dans le même temps, elle permet à un grand nombre de relations de coopération de se nouer, dans la mesure où tout le monde peut potentiellement être en contact avec tout le monde. Si l’on suit l’idéologie du libre, il faut donc dire que la communauté, pour autant qu’en soient bannies les rigidités hiérarchiques et qu’y soit favorisée la collaboration, se présente comme le terrain le plus propice à révéler le mérite individuel. Que les choses soient plus compliquées en pratique est une évidence qu’il faut garder en tête. Néanmoins, il n’est pas exagéré d’affirmer que le mouvement du logiciel libre véhicule in fine une certaine idée des structures les plus aptes à assurer le plein épanouissement de l’individu et de la collectivité, dans le domaine de la programmation informatique voire au-delà.

2. Le logiciel libre comme modèle social d’avant-garde

Je voudrais désormais pousser le raisonnement plus loin, et examiner la manière dont certains intellectuels n’étant pas directement impliqués dans le milieu du logiciel libre, se sont emparés de cette thématique pour fonder leurs analyses d’un certain nombre de transformations sociales en cours. Autrement dit, je voudrais considérer des discours qui vont au-delà de ce que j’ai nommé l’idéologie du logiciel libre, dans la mesure où ils se présentent comme porteurs d’une analyse de portée générale sur l’évolution de nos sociétés. Ces discours tendent ainsi à reprendre l’idéalisation du logiciel libre véhiculée par ses acteurs, tout en étendant la portée du modèle à d’autres activités sociales. Le logiciel libre devient de la sorte un socle sur lequel se trouve bâtie toute une construction intellectuelle. Je développerai trois exemples pour appuyer ce propos.

2.1. Pekka Himanen : la propagation de « l’éthique hacker »

Le philosophe finlandais Pekka Himanen a consacré à « l’éthique hacker » un ouvrage au retentissement important, paru en France en 2001 : L’Éthique hacker et l’esprit de l’ère de l’information[9]. Il y soutient queles pratiques et les valeurs du monde du logiciel libre ont donné naissance à « une nouvelle éthique du travail qui s’oppose à l’éthique protestante du travail telle que l’a définie Max Weber » (Himanen, 2001, p. 10). Cette nouvelle éthique se caractériserait par une relation au travail fondée sur la passion et l’intérêt personnel, et non sur le devoir moral et l’intérêt financier. Pour les hackers, le travail ne serait ainsi ni posé comme fin en soi indépendamment de son contenu, ni considéré comme simple moyen d’assurer sa subsistance ou sa richesse. L’important serait au contraire la satisfaction personnelle éprouvée dans la réalisation d’une tâche, devant être vécue comme intrinsèquement intéressante et gratifiante : « Les hackers font de la programmation parce que les défis qu’elle génère ont un intérêt intrinsèque pour eux » écrit ainsi P. Himanen (Ibid., p. 23). Il cite également Linus Torvalds, qui affirme que pour lui « Linux a largement été un hobby (mais un sérieux, le meilleur de tous) » (Ibid., p. 34).

Ce nouveau rapport au travail, qui repose sur une logique de développement de soi (Selbstentfaltung[10]), irait de pair avec un nouveau rapport au temps. Ainsi, pour les hackers, la distinction entre temps de travail et temps de loisir se trouverait brouillée, au profit d’un temps flexible où travail, hobbies, familles, collègues et amis se trouveraient sans cesse mélangés.

À la lumière de ces éléments, on peut mettre en doute la radicale nouveauté de cette « éthique hacker ». P. Himanen reconnaît du reste lui-même que les universitaires ou – d’une manière différente – les artistes, entretiennent depuis longtemps ce même rapport passionné à leur travail, et valorisent eux aussi une organisation relativement « libre » de leur temps. La véritable nouveauté résiderait en fait dans la manière dont ce rapport au travail serait en train de se répandre dans la société, à partir des milieux hacker.

(…) l’éthique hacker du travail se propage doucement vers d’autres secteurs, à l’image de l’éthique protestante qui, selon Weber, a fait son chemin en partant des entreprises créées par des Protestants pour finir par dominer l’esprit du capitalisme (Ibid., pp. 66-67).

Autrement dit, à la faveur du passage de la société industrielle à la « société en réseaux » (Castells, 1998)[11], le rapport au travail des hackers deviendrait viable pour de larges pans de la main d’œuvre. Leur éthique se substituerait ainsi progressivement à l’éthique protestante traditionnelle (ou à sa déclinaison contemporaine, érigeant l’argent en valeur suprême). Les hackers seraient finalement une sorte de groupe social d’avant-garde, et le mouvement du logiciel libre la matrice dont émergerait une nouvelle société. « Le modèle hacker ouvert pourrait se transformer en un modèle social » écrit P. Himanen (2001,p. 86).

Cette thèse n’est pas sans poser certaines difficultés. En effet, la possibilité de généraliser la relation au travail des hackers à d’autres groupes sociaux, et à d’autres secteurs économiques, est loin d’être évidente. Pekka Himanen s’expose ainsi au reproche d’ethnocentrisme, dans la mesure où tous les types d’emplois ne semblent pas susceptibles d’engendrer un rapport passionné au travail. Ne se rend-il pas coupable de généraliser une attitude, qui est en fait un privilège réservé à une partie infime de la population ? N’oublie-t-il pas un peu vite la très grande spécificité des hackers en tant que catégorie socioprofessionnelle, lorsqu’il affirme que leur éthique a une valeur quasi « universelle » (Ibid.,p. 26) ?

La thèse d’Himanen d’une propagation de l’éthique hacker dans l’ensemble du corps social apparaît relativement difficile à maintenir telle quelle. On peut alors choisir de la tirer du côté de l’utopie, c’est-à-dire d’un état idéal du social dans lequel le travail ne serait plus aliénation mais autodéploiement. Mais tel n’est certainement pas le propos de l’auteur, qui adopte dans son ouvrage une posture plutôt « sociologique ». Peut-être faut-il alors se résoudre à tirer de son ouvrage – et à l’encontre de ce qu’il écrit lui-même – une thèse plus « faible ». La mise en pratique de l’éthique hacker ne serait finalement possible que dans des secteurs très spécifiques, pour les professionnels de l’information, les artistes, ou les chercheurs. La généralisation à l’ensemble de la société de l’attitude au travail propre au milieu du logiciel libre apparaît en effet assez peu vraisemblable.

2.2 Yann Moulier Boutang : le logiciel libre comme modèle productif d’un nouveau capitalisme

L’exemple du logiciel libre est également tout à fait central dans la démarche de Yann Moulier Boutang, économiste et directeur de la revue Multitudes. Celui-ci a entrepris depuis quelques années, en collaboration étroite avec d’autres chercheurs (Antonella Corsani, Carlo Vercellone, Bernard Paulré…), de renouveler les cadres d’analyse de la science économique pour saisir les mutations contemporaines du capitalisme. Ce projet a donné naissance à l’hypothèse du « capitalisme cognitif ». Selon Yann Moulier Boutang, nous serions ainsi en train de sortir du capitalisme industriel pour entrer dans un nouveau type d’économie, « fondé sur l’accumulation du capital immatériel, la diffusion du savoir et le rôle moteur de l’économie de la connaissance » (Moulier Boutang, 2007, p. 85). Le capitalisme ne se nourrirait plus « du muscle consommé dans les machines marchant à la dissipation de l’énergie "carbo-fossile" » (Ibid., p. 65), mais de la « force cognitive collective » (Ibid., p. 65), ou encore de « l’intelligence collective » (Ibid., pp. 61-67). La source de la richesse résiderait donc aujourd’hui dans le travail social de communication et d’invention, ou encore dans la manipulation et la création de connaissances.

À mesure que les formes du travail et les sources de la richesse se modifieraient, le mode de production propre au capitalisme industriel entrerait en crise. Certes bien loin de disparaître complètement, il serait néanmoins délaissé dans les secteurs « avancés » de l’économie. En effet, l’adaptabilité, la flexibilité et la créativité permises par l’organisation en réseau, se révèleraient plus propres à révéler l’intelligence collective, que la rigidité de la one best way propre au taylorisme.

La thèse de Yann Moulier Boutang est ainsi qu’un nouveau mode de production émerge, qu’il définit comme « le travail de coopération des cerveaux réunis en réseau au moyen d’ordinateurs » (Ibid., p. 95). Point n’est besoin de trop de perspicacité pour s’apercevoir que cette description correspond parfaitement au modèle de fonctionnement des communautés du logiciel libre. Et pour cause ! Selon Yann Moulier Boutang, ces communautés sont l’exemple paradigmatique de ce nouveau mode de production propre au capitalisme cognitif. Ainsi, « le phénomène social et économique du libre » fournirait

un véritable modèle productif. Et ceci, tant sur le plan des forces sociales nouvelles que l’on peut repérer, sur celui de la division sociale du travail, que sur celui de la rationalité des agents économiques qui se trouve ainsi inventée, promue, des formes d’identité non pas au travail mais à un travail qui a changé fortement de contenu (Ibid., p. 125).

Yann Moulier Boutang accorde ainsi au logiciel libre une valeur d’exemplarité : ce qu’ont réussi à mettre en place quelques milliers de passionnés à travers le monde dans le domaine de la production informatique, serait un avant-goût d’un bouleversement global de l’organisation du travail. Suivant la voie tracée par les hackers, les forces productives deviendraient progressivement comparables à « l’activité collective cérébrale mobilisée en réseaux numériques interconnectés » (Ibid., p. 93).

Dans le même temps, le capitalisme cognitif deviendrait de plus en plus assimilable à une économie open source. En effet, dès lors que la richesse résiderait désormais dans l’ensemble du travail social de communication et d’invention, l’entreprise n’en serait plus l’unique productrice. Elle se devrait au contraire de capter une richesse antérieure, c’est-à-dire de valoriser ce qui émerge spontanément de l’ensemble des échanges sociaux.

L’intelligence entrepreneuriale consiste désormais à convertir la richesse déjà là dans l’espace virtuel du numérique en valeur économique (Ibid., p. 167).

Les entreprises auraient ainsi un intérêt profond à laisser se développer sans entraves la coopération en réseau, car celle-ci leur offrirait in fine les meilleures occasions de profit, en leur permettant de tirer profit d’une grande quantité de travail gratuit.

L’activité humaine innovante de la coopération des cerveaux à l’ère numérique produit dans la science, dans l’art, dans les formes collectives du lien social des gisements nouveaux et impressionnants d’externalités positives pour les entreprises, c’est-à-dire de travail gratuit incorporable dans de nouveaux dispositifs de captation et de mise en forme(Ibid., p. 122).

Comme l’aura déjà remarqué le lecteur attentif, ce nouveau business model correspond en tout point aux stratégies mises en œuvre par certaines grandes multinationales du secteur informatique pour tirer parti du logiciel libre. Ainsi, quand IBM profite du travail gratuit des communautés Linux ou Apache, et réoriente ainsi son activité vers une nouvelle offre de services (cf. supra), l’entreprise opère précisément ce que Yann Moulier Boutang décrit comme une captation de l’intelligence collective.

Le logiciel libre constitue donc pour Yann Moulier Boutang le phénomène économique et social, permettant d’analyser le capitalisme cognitif dans ses multiples facettes. Les communautés de développeurs du libre auraient ainsi « inventé » le mode de production caractéristique de ce nouveau régime économique, tandis que les entreprises ayant investi dans l’open source auraient développé son business model. La démarche théorique de Yann Moulier Boutang apparaît donc finalement très proche de celle de Pekka Himanen, dans la mesure où elle procède par généralisation à partir de l’exemple des communautés du logiciel libre, en tendant à faire de celles-ci des sortes d’avant-gardes. Elle s’expose de ce fait au même type de critique. Emporté par son admiration pour « la révolution californienne du capitalisme » (Ibid., p. 25), Moulier Boutang semble sous-estimer la spécificité du logiciel libre, et la difficulté à exporter ce modèle vers d’autres secteurs économiques. Fabien Granjon a ainsi noté que « les nouveaux aspects de production » sur lesquels les tenants de la thèse du « capitalisme cognitif » fondent leur théorie, « ne constituent que des sphères relativement restreintes de l’activité économique : ainsi en est-il du domaine du logiciel libre » (Granjon, 2008, p. 63). De manière analogue, Michel Husson a pointé la tendance de ceux qu’ils nomment les « cognitivistes » à « extrapoler des tendances partielles sans comprendre qu’elles ne peuvent se généraliser » (Husson, 2007, p. 139).

Il est intéressant de noter que Yann Moulier Boutang est conscient de s’exposer à de telles objections. Il tente d’y répondre, en proposant une analogie entre sa démarche et celle de Marx à l’aube de l’ère industrielle :

On s’intéresse en général à des observations empiriques sélectionnées dans un fatras rhapsodique d’informations multiples parce qu’on cherche les variables pertinentes qui commandent la tonalité d’ensemble ou permettent de prévoir des trajectoires d’évolution. Le grand trait de génie de Marx et Engels n’est pas d’avoir étudié la population laborieuse la plus nombreuse en Angleterre, (c’étaient les domestiques qui se comptaient par millions) mais les quelques 250 000 ouvriers des usines de Manchester (Moulier Boutang, 2007, p. 99).

L’argument est malicieux, et non dénué de pertinence. Toutefois, il ne suffit pas à effacer l’impression que la généralisation opérée par Moulier Boutang à partir du logiciel libre repose sur un pari. Celui d’affirmer que nos économies post-industrielles vont effectivement suivre la voie tracée par les expériences pionnières du logiciel libre. Or, s’il y a là un avenir possible, ce n’est certainement pas le seul ! La période actuelle paraît en effet trop incertaine, pour qu’on puisse écarter, par exemple, l’hypothèse du développement d’un « capitalisme gestionnaire d’effets de réseaux et de verrouillage » (Aigrain, 2007, p. 252), capitalisme qui serait bien entendu totalement contraire au modèle promu par les tenants du libre. Yann Moulier Boutang ne semble certes pas considérer ce scénario comme crédible, mais c’est là une position qui relève davantage de l’acte de foi que de la démonstration irréfutable. Ou, pour le dire de façon plus clémente : Yann Moulier Boutang assume les risques et les faiblesses de tout discours sur le social ne se contentant pas d’être descriptif, mais ayant une double visée de synthèse et de prospective. Sa démarche visant à faire du logiciel libre le modèle d’un nouveau capitalisme en gestation est donc nécessairement très perméable à la critique.

2.3. Michael Hardt et Antonio Negri : la démocratie comme « société open source ».

Ayant bénéficié d’un important succès commercial, les ouvrages Empire et Multitudes de Michael Hardt et Antonio Negri se présentent comme une tentative de rénover la philosophie politique critique, à l’heure de la mondialisation et des nouvelles technologies de l’information et de la communication. Ils sont notamment consacrés à la construction d’une théorie originale de la démocratie, inspirée en partie par le mouvement du logiciel libre. Avant d’aborder celle-ci en tant que telle, il faut préciser que les auteurs ancrent leur réflexion dans une analyse des transformations économiques contemporaines ; analyse tout à fait semblable à celle de Yann Moulier Boutang. Ils insistent ainsi sur la progression de la part du travail immatériel, et sur l’importance nouvelle de la coopération en réseau sur le modèle du logiciel libre.

L’originalité de leur propos se situe dans la thèse selon laquelle ces transformations économiques rejailliraient sur toutes les dimensions de la vie en société. C’est ce qu’ils appellent, en reprenant un terme forgé par Michel Foucault, la dimension biopolitique de la production.

Dans le cadre de ce travail immatériel, la production déborde hors des frontières traditionnelles de l’économie et se déverse directement dans le domaine culturel, social et politique. Elle crée non seulement des biens matériels, mais des relations sociales concrètes et des formes de vie. Nous appelons « biopolitique » cette forme de production, afin de souligner le caractère générique de ses produits et le fait qu’elle a directement prise sur l’ensemble de la vie sociale (Hardt et Negri, 2004, p. 121).

Ce caractère biopolitique de la production est, selon les auteurs, à l’origine d’une isomorphie croissante entre les structures économiques et les autres structures sociales, y compris politiques. Autrement dit, le développement de la forme réseau dans le cadre de la production immatérielle aurait pour corrélat la progression de cette même forme dans toutes les dimensions de la vie sociale. Ainsi Michael Hardt et Antonio Negri écrivent-ils notamment que

les institutions de la démocratie doivent aujourd’hui coïncider avec les réseaux communicatifs et collaboratifs qui ne cessent de produire et reproduire la vie sociale (Ibid., p. 400).

C’est dans ce cadre conceptuel qu’il faut comprendre le lien établi par les auteurs entre le mouvement du logiciel libre et la redéfinition de la démocratie qu’ils appellent de leurs voeux. On peut ainsi – moyennant une simplification acceptable – donner à leur raisonnement la forme d’un syllogisme : Structures économiques et structures politiques tendent à devenir semblables. Or, le logiciel libre est emblématique des nouvelles structures économiques. Donc, le logiciel libre devient emblématique des nouvelles structures politiques ! Michael Hardt et Antonio Negri écrivent ainsi :

On peut donc voir la démocratie de la multitude comme une société open source, c’est-à-dire une société dont le code source est révélé, permettant à tous de collaborer à la résolution de ses problèmes et de créer des programmes sociaux plus performants (Ibid., p. 385).

À travers l’expression de « société open source », Michael Hardt et Antonio Negri poussent la généralisation à partir du mouvement du logiciel libre à l’extrême. Ils accordent à celui-ci une place centrale dans la construction d’un nouveau modèle de société, susceptible de fournir une alternative crédible au libéralisme débridé et aux « vieilles » démocraties parlementaires. Hardt et Negri font ainsi du projet du logiciel libre l’horizon d’une certaine gauche radicale : la « société open source » et la « démocratie de la multitude » sont fondues en un seul et même objectif politique.

Évidemment, c’est là prêter énormément au mouvement du logiciel libre (ici confondu avec l’open source), et faire peu de cas des ambiguïtés politiques qu’il recèle. On remarquera ainsi que les grands principes du libre (libre partage de l’information, organisation horizontale, autonomie laissée à chacun) dessinent en fait un projet politique relativement modeste. Comme le remarque Patrice Riemens, nous sommes « très en deçà des exigences de justice, d’équité, d’égalité, d’émancipation » (Riemens, 2002, p. 185), qui animent la plupart des grands projets politiques de gauche. De surcroît, il paraît délicat – plus en tous les cas que Negri et Hardt ne le laissent supposer – de faire du libre un projet politique global. En effet, l’engagement social d’une majorité de hackers semble se limiter à un attachement à la disponibilité du code au sein du monde informatique. Il a d’ailleurs été remarqué que

l’étendue du spectre des opinions politiques entretenues par les hackers individuels (…) est surprenante, et totalement inimaginable dans quelque autre « mouvement social » (Ibid., p. 185).

Il semble donc que Michael Hardt et Antonio Negri accordent au logiciel libre une portée sociale et politique légèrement excessive. Ils participent en cela d’un mouvement plus général, qui a vu plusieurs intellectuels de gauche s’enthousiasmer pour le libre au cours des années 2000[12]. Il est toutefois possible de faire une lecture légèrement différente de la référence à l’open source chez Hardt et Negri. On émettra ainsi l’hypothèse que leur intérêt se situe à un niveau plus abstrait. Autrement dit, la portée politique effective du mouvement du logiciel libre les intéresse peut-être moins, que le fait qu’il fournisse un modèle inédit pour penser une nouvelle forme et un nouveau contenude la démocratie[13]. C’est donc à ce niveau, disons plus « théorique », que je voudrais situer ma dernière critique.

Pour l’énoncer succinctement, celle-ci consiste à dire que la mise en avant du modèle du libre pour (re)penser la question démocratique est porteuse d’une négation de la spécificité de la politique. Ainsi, si l’on prend au sérieux la référence à l’open source, la « démocratie de la multitude » aurait pour objet la production collaborative d’une forme d’expertise collective. Elle aurait à mettre en œuvre des processus d’agrégation de savoirs locaux. Elle se présenterait comme une sorte de gigantesque entreprise de débogage, ou comme un problem solving à grande échelle.

De telles idées ont certes des aspects séduisants, d’une part parce qu’elles semblent promettre une gestion politique plus efficace[14], d’autre part parce qu’elles renouent avec l’idéal d’une démocratie qui reposerait véritablement sur la participation effective de tous et bannirait le secret. Toutefois, l’analogie entre l’open source et la démocratie pose des difficultés majeures. Ainsi, dans le cas du logiciel libre, la finalité de la collaboration ne prête pas à discussion, puisqu’il s’agit tout simplement de produire le meilleur logiciel possible. Corrélativement, la réussite (ou l’échec) des diverses modifications souffre assez peu de contestation. Elle s’évalue aisément, puisqu’il suffit d’exécuter le code pour observer si la nouvelle mouture est plus rapide et plus complète que l’ancienne, si elle contient des bugs, etc. En matière de démocratie, les choses sont nettement plus compliquées. Ainsi, il y a rarement unanimité sur l’identification et la hiérarchisation des « problèmes » auxquels la collectivité se trouve confrontée. On peut même dire que la discussion sur les fins de l’action politique est inéliminable : celles-ci sont toujours objets de litige. Le fonctionnement démocratique ne peut par conséquent être réduit à la recherche collective des moyens les plus efficaces de résoudre des problèmes, qui seraient eux soustraits à toute forme de mise en question.

Tout régime politique ouvert ne cesse ainsi d’être confronté à des questions, que l’acquisition d’un savoir, quel qu’il soit, ne peut suffire à trancher. La démocratie ne saurait la plupart du temps se contenter d’une somme de connaissances objectives pour déterminer sa pratique. Elle vit au contraire de la confrontation d’une diversité d’engagements argumentés, mettant en jeu une pluralité de valeurs, d’intérêts ou de « choix de société ». Elle est indissociable d’un régime de rationalité particulier : l’échange d’opinions conclu par le vote à la majorité, et non pas la production collaborative de connaissances dont dériveraient mécaniquement les décisions.

La référence à une hypothétique « démocratie open source » importe donc indûment dans le champ politique la rationalité technique et scientifique, au détriment de la rationalité proprement politique. Autrement dit, elle néglige le rapport de la politique à l’opinion, considérée en tant que catégorie épistémologique. Ainsi, dans le recouvrement de la doxa par l’épistèmê,et dans le remplacement du débat contradictoire par la collaboration en réseau, ce serait bien l’essence des enjeux et des procédures démocratiques qui serait perdue.

Conclusion

Au terme de ce parcours, il apparaît que les pratiques mises en place par les communautés du logiciel libre sont sujettes à une double distorsion. Elles se trouvent tout d’abord fréquemment idéalisées par les acteurs du libre eux-mêmes, dont le discours militant a souvent pour effet de recouvrir les difficultés posées par la mise en application du modèle qu’ils défendent. Une deuxième distorsion est imputable à certains intellectuels qui, en conférant aux expériences du logiciel libre une portée social générale, minimisent la spécificité d’un mouvement dont les enjeux sont – avant tout, bien que non exclusivement – internes au secteur informatique[15].

Ces théories « inspirées » du logiciel libre présentent des similitudes frappantes. Par-delà leurs champs d’application privilégiés, elles s’accordent pour voir la spécificité de notre période dans le développement de nouvelles formes de collaboration « intelligentes » médiatisées par Internet. À les suivre, les changements que connaît notre époque – qu’il s’agisse des mutations des formes de socialité, des bouleversements économiques, ou encore des nouvelles formes de l’engagement politique – seraient directement imputables à la nouvelle configuration sociotechnique, permettant de « mettre en réseau les cerveaux ». Ces changements seraient révélateurs d’une période de transition, entre une société industrielle mourante, et une société de « l’intelligence collective » propulsée par les nouvelles formes d’échange et de production de connaissances.

Si ces théories saisissent indéniablement un trait marquant de notre époque, elles semblent néanmoins pêcher par un certain réductionnisme. Elles présentent en effet une tendance à ramener des phénomènes hétérogènes à une grille d’explication unique, faisant fi des spécificités des différents domaines de la vie sociale. Elles tendent parfois aussi à occulter des traits particulièrement frappants de notre époque : montée inouïe des inégalités, déséquilibres écologiques, etc. On pourra ainsi regretter que le discours sur le partage de l’information ne s’accompagne que trop rarement d’un discours sur le partage des richesses, ou des ressources naturelles.

Bibliographie
  • AIGRAIN P., 2007, « Capitalisme cognitif et politiques qualitatives après la révolution informationnelle » in MOULIER BOUTANG Y., 2007, Le capitalisme cognitif, Paris, Éditions Amsterdam.
  • BASSET T., 2003, Monographie d’un logiciel libre : VideoLAN, Mémoire de DEA, Institut d’Études Politiques de Paris, en ligne : http://www.framasoft.net/IMG/videolan.pdf (consulté le 19 novembre 2008).
  • CASTELLS M., 1998, L’ère de l’information, vol. 1 : La société en réseaux, Paris, Fayard.
  • GORZ A., 2003, L’immatériel, Paris, Galilée.
  • GRANJON F., 2008, « Les nouveaux résistants à l’ère du numérique. Entre utopie sociale et déterminisme technique », in PROULX S.et alii, 2008, L’action communautaire québecoise à l’ère du numérique, Montréal, Presses de l’Université du Québec, pp. 59-76.
  • HARDT M. et NEGRI A., 2004, Multitudes, Paris, La Découverte.
  • HIMANEN P., 2001, L’éthique hacker et l’esprit de l’ère de l’information, Paris, Exils.
  • HUSSON M., 2007, « Notes critiques sur le capitalisme cognitif », ContreTemps, n°18, pp. 138-141, en ligne : http://hussonet.free.fr/cognict.pdf (consulté le 10 novembre 2008).
  • MERTEN S., 2002, « Logiciel libre et éthique du développement de soi : entretien avec Joanne Richardson », Multitudes, n°8, pp. 188-199, en ligne : http://multitudes.samizdat.net/Logiciel-libre-et-ethique-du (consulté le 19 novembre 2008).
  • MOGLEN E., 2001, « L’anarchisme triomphant : le logiciel libre et la mort du copyright », Multitudes, n° 5, pp. 146-183, en ligne : http://multitudes.samizdat.net/L-anarchisme-triomphant (consulté le 19 novembre 2008).
  • MOULIER BOUTANG Y., 2007, Le capitalisme cognitif, Paris, Éditions Amsterdam.
  • RIEMENS P., 2002, « Quelques réflexions sur le concept de “culture hacker” », Multitudes, n° 8, pp. 181-187, en ligne : http://multitudes.samizdat.net/Quelques-reflexions-sur-le-concept (consulté le 19 novembre 2008).
  • TAPSCOTT D. et WILLIAMS A. D., 2007, Wikinomics, Paris, Pearson Education France.

Notes

[1] Crédit photo : Woallance3 (Creative Commons By)

[2] L’arrivée de nouveaux acteurs industriels est symbolique de ces bouleversements. Un exemple emblématique est la création de la société Sun en 1982 par d’anciens étudiants de Stanford et de Berkeley. Celle-ci privatise en effet de nombreux logiciels du monde Unix

[3] Le « logiciel libre » s’oppose ainsi au « logiciel propriétaire ». On insistera sur le fait que c’est bien cette opposition qui est pertinente, et non l’opposition entre logiciel libre et logiciel commercial. Comme le répète souvent Richard Stallman, « "free software is a matter of liberty, not price. To understand the concept, you should think of "free speech, not "free beer" » (http://www.gnu.org/philosophy/free-sw.html).

[4] Comme son nom l’indique, « le noyau d’un système d’exploitation est le cœur du système, qui s’occupe de fournir aux logiciels une interface pour utiliser le matériel ». Source : Wikipedia, http://fr.wikipedia.org/wiki/Noyau_Linux.

[5] IBM, qui investit 100 millions de dollars par an pour le développement de Linux, estime qu’il lui faudrait un investissement dix fois supérieur pour développer seul un système d’exploitation équivalent (Tapscott et Williams, 2007, pp. 93 et 97).

[6] Par exemple, la formation aux logiciels libres, ou l’installation et la personnalisation de systèmes libres.

[7] Aujourd’hui, il est ainsi bien difficile de trouver un projet open source qui ne soit pas free software, et inversement. Les deux dénominations sont d’ailleurs le plus souvent employées indifféremment dans les médias. Dans le présent article, nous utilisons l’expression « logiciel libre » de façon générique, pour désigner à la fois les projets labellisés free software et les projets open source.

[8] Le développement de la suite logiciels VideoLAN, dont est issu le célèbre lecteur vidéo VLC, a été initié en 1995 par des élèves de l’École Centrale Paris (ECP). Depuis 2001, il s’agit d’un projet libre réalisé sous licence GPL, mené conjointement par des élèves de l’ECP et par des développeurs extérieurs.

[9] Il convient de préciser que le terme « hacker » n’est pas employé par l’auteur en son sens médiatique de « pirate informatique », mais bien en son sens originel, c’est-à-dire comme désignant tous les véritables passionnés d’informatique, et en premier lieu les partisans du logiciel libre.

[10] Ce terme, parfois proposé pour rendre compte du rapport des développeurs à leur travail, semble assez pertinent, dans la mesure où il rend compte du fait que les motivations des hackers sont essentiellement personnelles, mais néanmoins nullement réductibles à un simple calcul économique (Merten, 2002).

[11] Pekka Himanen s’inspire largement des analyses de Manuel Castells, qui a développé dès 1996 l’idée selon laquelle un nouveau modèle social serait en train d’émerger à partir d’Internet et de la figure du réseau. M. Castells est par ailleurs l’auteur de l’« épilogue » de l’ouvrage de P. Himanen.

[12] Citons par exemple André Gorz, pour qui « la communauté virtuelle, virtuellement universelle des usagers-producteurs de logiciels et de réseaux libres, instaure des rapports sociaux qui ébauchent une négation pratique des rapports sociaux capitalistes »(Gorz, 2003, p. 93).

[13] Ce choix de lecture se trouve corroboré par le faible nombre d’éléments factuels sur le logiciel libre présents dans l’ouvrage de Michael Hardt et Antonio Negri.

[14] Si l’on accepte l’analogie entre société et logiciel, on peut effectivement penser qu’une « démocratie open source » résoudrait nos problèmes sociaux plus efficacement que nos démocraties parlementaires, de la même façon que les logiciels libres s’avèrent souvent plus performants que les logiciels propriétaires…

[15] Précisons que si nous avons – pour la clarté de l’exposé – distingué ces deux types de discours, cette séparation n’a bien entendu rien d’étanche. Ainsi, les intellectuels fondant leur démarche théorique sur l’exemple du logiciel libre sont imprégnés d’un certain discours militant. On peut aussi remarquer qu’il y a déjà dans l’idéologie du Libre une tendance à vouloir accentuer la portée sociale du « modèle ouvert », tendance que certains intellectuels s’empressent ensuite de reprendre et de développer.




Viol de la licence GPL : Microsoft s’excuse et fait profil bas

Miss Rogue - CC by-saLa semaine dernière Microsoft a dû retirer de ses serveurs un logiciel qui permet d’installer Windows 7 à partir d’une image ISO, après qu’un bloggeur a découvert que le logiciel était une modification dissimulée d’un logiciel libre sous licence GPL dont Microsoft hébergeait lui-même les sources.

On attendait une réaction publique et officielle, la voici sous la plume de Peter Galli, rien moins que le « Open Source Community Manager for Microsoft’s Platform Strategy Group »[1].

Mise à jour de l’outil USB/DVD de Windows 7

Update on the Windows 7 USB/DVD Tool

Peter Galli – 13 novembre 2009 – Port 25
(Traduction Framalang : Gilles)

Comme vous avez pu le lire, et tel que cela a été indiqué ici, nous avons mené une enquête concernant l’outil de d’installation de Windows 7 depuis une clé USB, qui pouvait contenir du code sous licence GPL V2. le WUDT (NDT : Windows 7 USB/DVD Download Tool) est un outil gratuit, offert par le Microsoft Store, qui permettait à nos clients de créer une clé USB amorçable ou un DVD de sauvegarde à partir de l’édition électronique de Windows 7, disponible sous forme d’image ISO.

Après avoir analysé le code en question, nous sommes désormais en mesure de confirmer que tel était bien le cas, bien que cela n’ait pas été fait de manière délibérée. Bien que nous ayons confié cet outil à un développeur externe, nous partageons la responsabilité de cette situation; ce code est passé au travers des mailles de notre processus de revue de code. Nous avons également procédé à une revue d’autres portions de code disponibles dans le Microsoft Store, et il s’agit du seul incident que nous avons pu y découvrir.

Lorsqu’il est porté à notre attention qu’un composant de Microsoft contient du code développé par un tiers, notre objectif est de respecter les termes contractuels selon lesquels ce code est partagé. En conséquence, nous publierons le code source, ainsi que les fichiers binaires, de cet outil dès la semaine prochaine, sous les termes de la licence General Public Licence V2 (GPL V2), et prenons également des mesures pour améliorer nos futures revues de code, grâce à cette expérience

Nous nous excusons auprès de nos clients pour tout désagrément que cela a pu leur causer.

Notes

[1] Crédit photo : Miss Rogue (Creative Commons By-Sa)