Un Centre de Formation Logiciels Libres pour les Universités d’Île-de-France !

CF2L - La salle de formation - Jean-Baptiste YunesIl reste beaucoup à faire pour améliorer la situation du logiciel libre dans l’éducation en général et dans l’enseignement supérieur en particulier.

C’est pourquoi nous sommes fiers et heureux de pouvoir annoncer une grande première dans le monde universitaire : l’ouverture prochaine du CF2L-UNPIdF, c’est-à-dire Centre de Formation Logiciels Libres – Université numérique Paris Île-de-France en direction de tous les personnels des universités de la région (enseignants, chercheurs, administratifs, techniciens, ingénieurs, bibliothécaires,…).

D’autant plus fiers que Framasoft est directement impliqué en participant de près à la logistique.

Le programme, planning et site officiel seront disponibles prochainement, mais en attendant nous vous proposons un entretien avec le principal artisan de ce projet, Thierry Stœhr (que beaucoup ici connaissent déjà sous d’autres casquettes).

Vous pouvez relayer dès maintenant l’information, maximisant ainsi les chances de toucher le public concerné (contact : cf2l AT unpidf.fr).

Faire en effet salle comble dès la première session (et aux suivantes aussi !) témoignerait du besoin et de l’intérêt du personnel universitaire pour les logiciels libres et nous permettrait de poursuivre et d’étendre les formations au cours des prochaines années. Et au libre de trouver une place logique et méritée[1].

CF2L : Entretien avec Thierry Stœhr

Bonjour Thierry, vous n’êtes pas inconnu en ces lieux mais pouvez-vous néanmoins vous présenter ?

Styeb - CC by-saBonjour Alexis et bonjour aux nombreux lecteurs de Framablog ! Je m’appelle Thierry Stœhr, en effet déjà cité en ces lieux 🙂 Je suis enseignant de formation et je suis dans le monde du logiciel libre depuis 1998. J’ai commencé à m’impliquer dans le libre au travers de l’Association francophone des utilisateurs de logiciels libres (AFUL) en étant au Bureau de son Conseil d’Administration depuis sa création. J’en suis l’actuel président.

J’ai participé à de nombreuses manifestations et actions (comme les RMLL, le groupe éducation de l’AFUL, des conférences,…). Je traitais notamment du sujet des formats et j’ai ouvert en juillet 2004 avec Sylvain Lhullier un site Web sur le sujet, Formats-Ouverts.org (FOo pour faire court). Les formats y sont envisagés et expliqués au sens large (le cas des fichiers, mais aussi avec les capsules de café ou les déménagements). Et donc 5 ans d’âge en juillet dernier pour FOo.

Mais cela fait ne fait pas vivre son homme ! Et dans votre vie professionnelle, il y a aussi du logiciel libre ?

Tout cela était bénévole et hors de mon temps de travail, c’est exact. Mais le logiciel libre est présent professionnellement depuis la rentrée 2009.

En effet j’ai été recruté par l’université Paris Diderot Paris 7 (dont le campus principal est dans le 13e arrondissement, quartier Paris Rive Gauche). Je travaille au SCRIPT (oui, le nom est un clin d’œil et signifie quelque chose de réel : Service Commun de Ressources Informatiques Pédagogiques et Technologiques !). Au sein du SCRIPT j’ai 2 missions. D’une part je suis chargé de coordonner le C2i (Certificat informatique et Internet) que tous les étudiants doivent pouvoir passer au cours de leur licence. Ils ont tous à Paris Diderot un enseignement en informatique général au cours duquel ils travaillent la bureautique et à propos d’Internet. Et le libre est très présent (mais c’est un autre sujet !). D’autre part les logiciels libres occupent la seconde moitié de mes activités au sein du SCRIPT : diffusion interne et externe, veille, information et surtout en ce moment le CF2L.

Le CF2L ?

C’est le Centre de Formation Logiciels Libres, qui pourrait s’écrire CFLL mais CF2L a été retenu. Il s’agit d’une structure mise en place par l’Université numérique Paris Île-de-France (UNPIdF) qui regroupe les 17 universités… d’Île-de-France ! L’UNPIdF a décidé d’ouvrir début 2010 un centre destiné à la formation aux logiciels libres de tous les personnels des universités de la Région (enseignants, chercheurs, administratifs, techniciens, ingénieurs, bibliothécaires,…). Dans le cadre de sa stratégie de formation aux usages du numérique à destination des personnels universitaires, un premier centre de formation, le RTC Apple, a été ouvert début 2009. Il est implanté à l’université Paris Descartes. La volonté de l’UNPIdF est d’avoir aussi des centres à propos des autres plate-formes. D’où l’appel à candidature qui a été lancé pour un centre à propos des logiciels libres. Suite aux réponses obtenues, deux implantations ont été retenues : l’université Paris Descartes et l’université Paris Diderot.

Et quel est votre rôle dans ce CF2L ?

D’une manière générale, il s’agit de le faire vivre, en employant mes compétences et connaissances à propos du libre. Plus concrètement, je suis chargé du volet pédagogique du centre (contenu, programme, calendrier, intervenants,…) avec aussi un volet technique pour s’assurer que tout fonctionne. Mais ce dernier point repose sur les compétences internes en libre, qui sont très importantes. L’université Paris Diderot s’appuie beaucoup sur le libre (mais c’est encore un autre sujet !). Le projet du CF2L est fortement soutenu en interne, notamment par la Mission TICE.

D’ailleurs la mission TICE de l’Université Paris Diderot avait annoncé cette excellente nouvelle, mais les 140 caractères limitaient la description du projet. Nous en savons un peu plus, mais quelques détails supplémentaires à nous donner ?

Le Centre de Formation Logiciels Libres doit ouvrir le 5 février 2010, un vendredi. Ce sera la première journée de formation. Elle devrait porter sur la découverte des systèmes d’exploitation libres, les principes et les concepts généraux, le fonctionnement, l’installation. Bref, les premiers pas, la prise en main et les premières utilisations. Enfin il faut annoncer une autre caractéristique importante à propos du CF2L : Framasoft est partenaire de l’opération auprès de l’UNPIdF. Je suis très content de ce montage qui devrait permettre de belles réalisations.

Un mot de fin ?

Oui, et même quatre : diffuser, montrer, copier, adapter !

Il ne faut pas hésiter à diffuser l’information. Les personnels des universités d’Ile de France seront bien sûr informés officiellement, mais voilà un premier canal, qui va même vers le monde 😉

Montrer au grand jour des logiciels libres développés par des personnels de l’université et pour l’université (et plus largement encore) est possible via le CF2L. Cela peut compléter ce que font déjà PLUME ou Framasoft (je pense par exemple à 2 logiciels libres de 2 universitaires qui se reconnaitront… ; encore un autre sujet !).

Enfin copier et adapter : les logiciels libres sont très présents dans l’enseignement supérieur. Qu’ils se montrent donc encore plus au grand jour… et que ce qui a été mis en place (mon recrutement, le CF2L) soit copié dans d’autres universités et d’autres universités numériques en région, en adaptant (et en améliorant) le dispositif.

Merci pour toutes ces précisions. Et sinon continuez-vous à murmurer ouverts à l’oreille des formats ?

Il faut sans cesse le murmurer et aussi l’affirmer fortement, notamment aux oreilles de tous les enseignants (et des étudiants). Rendez-vous pour la suite (avec le programme, des détails techniques,…) car il y a encore du travail avant l’ouverture du CF2L : La route est longue mais la voie est libre !

Pour de plus amples informations : thierry.stoehr AT script.univ-paris-diderot.fr

Notes

[1] Crédit photos : Jean-Baptiste Yunes et Styeb (Creative Commons By-Sa)




Privilégier la licence Creative Commons Paternité (CC BY) dans l’éducation

Logo - Creative Commons AttributionQuelle est la licence la plus indiquée pour ce qui concerne les ressources produites dans un contexte éducatif ?

Assurément les licences Creative Commons. Or ce pluriel témoigne du fait qu’il existe justement plusieurs licences Creative Commons.

C’est la plus simple et peut-être aussi la plus « libre » d’entre toutes, la Creative Commons Paternité (ou CC BY), que est ici clairement, voire chaudement, recommandée, par les créateurs mêmes de ces licences, lorsqu’il est question de ces ressources en plein essor que constituent les « Ressources Éducatives Libres ».

Et c’est une prise de position d’autant plus remarquable que c’est une licence encore aujourd’hui très minoritaire dans la grande famille des Creative Commons.

Pourquoi licencier sous CC BY ?

Why CC BY?

CC Learn Productions – Juillet 2009 – Licence Creative Commons By (Traduction Framalang : Olivier Rosseler, Poupoul2 et Goofy)

Quelques règles d’utilisation des licences Creative Commons (CC), et plus particulièrement de la licence Creative Commons Paternité (CC BY), comme choix privilégié pour vos Ressources Éducatives Libres (NdT : OER pour Open Educational Resources en anglais).

1. Utilisez les licences Creative Commons

La famille de licences Creative Commons est un standard reconnu pour les contenus ouverts. Nous vous recommandons de consulter la FAQ ccLearn pour en apprendre davantage sur ces choix essentiels de licences dans l’éducation. Pour résumé, Creative Commons propose des licences publiques et gratuites, composées de combinaisons des conditions suivantes :

Logo CC BYPaternité : Vous offrez aux autres la possibilité de reproduire, distribuer et communiquer votre création, et les œuvres dérivées, mais uniquement s’ils vous en attribuent expressément la paternité. Cette condition est commune à toutes les licences Creative Commons.

Logo CC NCPas d’utilisation commerciale : Vous offrez aux autres la possibilité de reproduire, distribuer et communiquer votre création et les œuvres dérivées, mais uniquement dans un but non commercial. S’ils souhaitent utiliser votre travail à des fins commerciales, ils doivent prendre contact avec vous afin d’obtenir votre autorisation.

Logo CC SAPartage des conditions initiales à l’identique : Vous permettez aux autres de distribuer des œuvres dérivées, mais uniquement sous une licence identique à celle que vous avez initialement choisie.

Logo CC NDPas de modification : Vous offrez aux autres la possibilité de reproduire, distribuer et communiquer votre création sous sa forme initiale, sans modification. Votre accord est nécessaire à toute traduction, altération, transformation ou ré-utilisation dans une autre œuvre.

Selon la combinaison de conditions choisies, Creative Commons fournit une licence indiquant clairement les conditions de réutilisation de votre travail. Qui plus est, les licences Creative Commons sont tout particulièrement conçues pour en faciliter l’utilisation, ainsi que la compréhension par les auteurs et les utilisateurs. Leur terminologie standardisée et leur implantation technique les rendent universelles. Les Ressources Éducatives Libres publiées sous licences Creative Commons sont déjà nombreuses et s’inscrivent dans une dynamique collective qu’il aurait été impossible d’atteindre si des licences spécifiques et différentes avaient été appliquées à chaque œuvre.

Cette standardisation permet aux gens de se familiariser avec les différentes options de nos licences. Ces permissions ont été concentrées utilement dans des contrats simplifiés et accessibles, utilisant des icônes universellement identifiables, qui fournissent une référence rapide aux droits et conditions associées à chaque ressource. En complément, les licences Creative Commons sont lisibles par des machines, permettant ainsi de rechercher des ressources sous licence Creative Commons grâce à des outils de recherche Web (tels que Google, Yahoo!, ou les propres outils de recherche de Creative Commons), favorisant ainsi avec simplicité et efficacité la découverte et la diffusion de Ressources Éducatives Libres.

2. Utilisez la licence Creative Commons Paternité (CC BY) chaque fois que c’est possible.

Parmi l’ensemble des licences Creative Commons, la licence CC BY est le moyen le plus simple de garantir que vos Ressources Éducatives Libres auront un impact maximum, en termes de diffusion et de réutilisation. Les travaux sous licence CC BY peuvent en effet être redistribués et adaptés sans autre restriction que d’en respecter la paternité. Ces travaux peuvent être traduits, localisés, intégrés dans des produits commerciaux et combinés à d’autres ressources éducatives. La licence CC BY permet ces réutilisations par n’importe qui, pour n’importe quel objectif, toutes vous présentant explicitement comme l’auteur initial. Dans certaines situations, il peut vous paraître important de restreindre les possibilités de réutilisation de vos Ressources Éducatives Libres. Dans de tels cas, vous devriez porter une attention particulière aux conséquences de ces restrictions. Prenons par exemple une ressource dont la licence interdit la création de travaux dérivés, telles que les licences Creative Commons avec clause ND (pas de modification). Alors l’intégrité de vos travaux est protégée par une licence ND, mais dans le monde des Ressources Éducatives Libres cette restriction empêche toute traduction, adaptation ou localisation, alors que ces possibilités sont d’une importance critique dans le domaine éducatif.

La clause NC, qui interdit toute utilisation commerciale, en est un autre exemple. Votre organisation pourrait ne pas souhaiter que des concurrents commerciaux intègrent gratuitement vos créations dans leurs propres travaux et puissent ainsi en tirer un bénéfice financier. Cependant, il peut être parfois difficile de déterminer si une activité est ou n’est pas commerciale, ce qui pourrait pousser certains à éviter des ressources intégrant une clause NC, même s’ils envisageaient de s’engager dans des activités légitimes et séduisantes utilisant vos travaux. En fait, il existe de nombreux cas pour lesquels les efforts commerciaux élargiront l’accès et l’impact des Ressources Éducatives Libres. Par exemple des éditeurs commerciaux pourraient diffuser ces Ressources Éducatives Libres dans des régions où la connectivité au réseau est défaillante, des opérateurs de téléphonie mobile pourraient intégrer ces Ressources Éducatives Libres dans des offres de communication qui les aideraient à vendre des téléphones, tout en élargissant le nombre de bénéficiaires de ces ressources. Lorsque se pose la question de l’utilisation de la clause NC, Creative Commons pense qu’il est primordial que vous déterminiez si vous prévoyez de tirer un profit direct de votre travail (en clair, de le vendre). Si ce n’est pas le cas, essayez d’éviter d’utiliser la clause NC.

Un troisième exemple est la clause SA (Partage des conditions initiales à l’identique), qui contraint tous les travaux dérivés à être distribués dans les mêmes conditions que l’œuvre initiale. Cette clause est séduisante pour les organisations qui souhaitent utiliser leurs travaux afin d’étendre le corpus des ressources libres et ouvertes, en assurant que toute œuvre basée sur ces ressources conserve les mêmes libertés, même au prix de l’exclusion de réutilisations potentielles. Cependant, les œuvres porteuses d’une clause SA sont difficiles, voire impossibles, à combiner avec des ressources éducatives publiées sous une autre licence, ce qui dans de nombreux cas peut représenter un obstacle pour les étudiants et leurs professeurs.

Bien que certains attendent avec impatience l’avènement d’un jour où toutes les Ressources Éducatives Libres seront versées au domaine public, ouvertment accessibles et réutilisables sans conditions, Creative Commons comprend le besoin ressenti par les auteurs de fournir à leurs œuvres éducatives ouvertes une protection légale. Nous recommandons cependant d’imposer d’autres restrictions que la simple paternité uniquement lorsque c’est nécessaire et lorsque le choix de ces restrictions peut être clairement explicité.

3. Assurez-vous que vous utilisez correctement les licences Creative Commons

Convenablement appliquées aux ressources numériques, les licences Creative Commons peuvent être lues par les machines, en facilitant ainsi leur découverte et leur diffusion. Improprement appliquées, la visibilité et l’impact de vos ressources seront très certainement diminués.

4. Vérifiez que vous diffusez vos produits dans des formats qui permettent effectivement de jouir des droits (par exemple l’accès, la traduction, la re-composition) que vous avez légalement permis.

Si vous octroyez aux utilisateurs la permission de traduire vos Ressources Éducatives Libres, vous devriez alors garantir l’accès de ces ressources dans un format qui leur permettra de le faire facilement. Si vous êtes inquiet de l’avenir et de la qualité d’un format donné, vous pouvez envisager de publier la même ressource dans de multiples formats, afin que chaque destinataire soit capable d’en trouver une version qui lui convienne.

Des questions ?

Ce document est hautement abrégé. Pour plus d’informations à propos de ces sujets, ou d’autres sujets liés, rendez vous sur le site de Creative Commons (NdT : ou sur le site de Creative Commons France).




Sébastien Broca : Du logiciel libre aux théories de l’intelligence collective

Woallance3 - CC byNotre énergie, enthousiasme et optimisme ne doivent pas nous faire oublier les deux principaux écueils qui menacent en permanence ce blog, et peut-être aussi par extension toute la dite « Communauté du Libre ».

Le premier est la tentation d’enjoliver la situation et d’alimenter ainsi une mythologie, voire même une idéologie. Du côté open source, on n’aura de cesse de venter la qualité des logiciels libres, les vertus d’une organisation en mode « bazar et les formidables opportunités économiques offertes par le service autour du logiciel libre. Tandis que du côté free software, on mettra l’accent sur une éthique et un ensemble de valeurs, ainsi synthétisés non sans emphase par Richard Stallman en ouverture de ses conférences : « Je puis résumer le logiciel libre en trois mots : liberté, égalité, fraternité ».

Le second écueil consiste à croire, ou feindre de croire, que le modèle proposé par les logiciels libres est reproductible en dehors de la sphère informatique, l’exemple emblématique étant la « culture libre », dont nous serions bien en peine d’en proposer une définition exacte. Certains vont même jusqu’à voir dans ce modèle une possible alternative globale pour nos sociétés, qualifiées, peut-être trop vite d’ailleurs, de sociétés de l’information.

C’est pourquoi nous avons lu avec beaucoup d’intérêt le long mais passionnant article de Sébastien Broca « Du logiciel libre aux théories de l’intelligence collective » (paru initialement dans la Revue tic&société – Société de l’information ? Vol. 2, N° 2, 2008). Article que nous avons reproduit ci-dessous d’abord parce qu’il n’a peut-être pas eu toute l’attention qu’il méritait mais aussi telle une invitation à débattre ensemble des arguments avancés dans les commentaires.

Sébastien Broca est allocataire de recherche au Cetcopra (Univerisité Paris 1) où il réalise un doctorat de sociologie. Il résume ainsi son propos :

Cet article interroge la manière dont le mouvement du logiciel libre se trouve constitué dans de nombreux discours en modèle d‘avant-garde de transformations sociales globales. Je montre ainsi comment l’on passe d’une pratique singulière, mise en œuvre par les communautés du libre, à des théories sociologiques, économiques ou philosophiques, qui s’en inspirent largement. Je m’appuie pour ce faire sur les ouvrages récents de Pekka Himanen, Yann Moulier Boutang, Antonio Negri et Michael Hardt. J’essaie ensuite de mettre en lumière certaines difficultés relatives aux démarches de ces auteurs : généralisation abusive à partir de l’exemple du logiciel libre, et oubli des spécificités des divers domaines de la vie sociale.

Le frontispice du Framablog est orné de la citation suivante : « …mais ce serait l’une des plus grandes opportunités manquées de notre époque si le logiciel libre ne libérait rien d’autre que du code »[1]. C’est une question ouverte dont nous sentons bien, même confusément, l’extraordinaire potentiel. Encore faudrait-il être capable de l’affiner régulièrement avec lucidité et ne pas emprunter certaines postures peut-être parfois trop simplistes eu égard à la complexité du monde bien réel qui nous entoure…

PS : Pour un meilleur confort vous pouvez également lire ou imprimer la version PDF de l’article.

Du logiciel libre aux théories de l’intelligence collective

URL d’origine du document

Sébastien Broca – Revue tic&société – Société de l’information ? Vol. 2, N° 2, 2008
Mis à jour le 7 mai 2009 – Licence Creative Commons By-Nc-Nd

Introduction

Depuis une quinzaine d’années, le mouvement du logiciel libre a connu un développement fulgurant, mettant fortement en question la prééminence des logiciels propriétaires développés par les grandes entreprises du secteur informatique. Dans le même temps, certains intellectuels ont érigé ces bouleversements en symboles de transformations sociales plus générales, attendues ou espérées. En témoignent les occurrences nombreuses des références à la « démocratie open source », à « l’économie open source », voire à la « société open source ». Cette tendance à faire du mouvement du logiciel libre un des laboratoires où se préparerait la société du futur semble devoir nous interpeller à plus d’un titre. Elle incite d’une part à s’interroger sur le bien-fondé d’une démarche intellectuelle prenant appui sur une pratique spécifique, pour fonder un discours théorique à valeur générale et/ou prospective. Elle invite d’autre part à mener une réflexion critique sur les nouvelles grilles d’analyse, censées rendre compte des spécificités de notre époque.

Nous commencerons ainsi par retracer brièvement l’histoire du mouvement du logiciel libre, et par en rappeler les enjeux. Nous essaierons ensuite de montrer comment, sous l’effet d’un double mouvement d’idéalisation des pratiques et de généralisation de leur portée, les communautés du libre se trouvent présentées, dans un certain nombre de discours contemporains, comme porteuses d’un véritable modèle social d’avant-garde. Nous nous efforcerons aussi d’interroger les limites de ces discours, qui tendent à observer notre époque à travers le prisme unique du développement de pratiques de collaboration horizontales médiatisées par Internet.

1. Histoire et enjeux du mouvement du logiciel libre

1.1. Une brève histoire du libre

Le mouvement du logiciel libre se comprend comme une réaction aux changements intervenus dans l’industrie informatique au tournant des années 1970-1980, au moment où apparaît l’ordinateur personnel. Jusqu’à cette date, les utilisateurs et les programmeurs sont souvent les mêmes personnes, et à quelques exceptions près, ils peuvent librement modifier les logiciels, quand bien même ceux-ci sont soumis au copyright. Comme l’explique Eben Moglen,

dans la pratique, les logiciels pour supercalculateurs étaient développés de manière coopérative par le constructeur de matériel dominant et par ses utilisateurs techniquement compétents (Moglen, 2001, p. 160).

La situation évolue au début des années 1980. De nombreuses sociétés informatiques décident alors d’imposer des logiciels propriétaires, de privatiser du code auparavant libre, et de soumettre leurs informaticiens à des clauses de confidentialité[2].

Pour mesurer ces bouleversements, il faut savoir qu’un logiciel se présente sous deux formes. La première, dite version exécutable ou compilée, est écrite en « binaire ». C’est celle qui est lue par l’ordinateur, et elle n’est pas compréhensible pour un humain. La deuxième en revanche – appelée code source – n’est pas fonctionnelle, mais peut être appréhendée comme du « commentaire ». Écrite dans un langage de programmation compréhensible, elle explique aux développeurs comment fonctionne le programme. L’accès au code source est donc indispensable à qui veut opérer des modifications sur un logiciel. Or, c’est précisément cet accès qui se trouve fortement restreint par le mouvement de privatisation survenu au début des années 1980, qui empêche donc la communauté des informaticiens de collaborer pour améliorer les programmes.

C’est dans ce contexte que Richard Stallman, alors informaticien au laboratoire d’intelligence artificielle du MIT (Massachusetts Institute of Technology), décide en 1983 d’entreprendre la programmation d’un système d’exploitation entièrement « libre ». Il nomme celui-ci GNU (GNU is Not Unix), marquant ainsi sa volonté de se démarquer des nouvelles pratiques de l’informatique commerciale et de retrouver l’esprit coopératif d’antan. En 1985, il crée la Free Software Foundation pour faciliter le financement et le développement du projet. Les principes du logiciel libre sont formalisés en janvier 1989 dans la licence publique générale (GPL – General Public License). Celle-ci garantit aux utilisateurs quatre « libertés » : liberté d’utiliser le logiciel, liberté de le copier, liberté de le modifier (ce qui implique l’accès au code source), et liberté de le distribuer (y compris dans des versions modifiées). Tout logiciel respectant l’ensemble de ces « libertés » peut dès lors être considéré comme un « logiciel libre »[3].

Au début des années 1990, le projet GNU a abouti à l’écriture d’un système d’exploitation presque complet. Presque, car le noyau du système[4] fait encore défaut. Intervient alors la deuxième grande figure de l’histoire du logiciel libre : Linus Torvalds. À cette époque, cet étudiant finlandais de l’université d’Helsinki cherche à écrire un noyau, selon la légende pour pouvoir utiliser sur son ordinateur personnel les programmes sur lesquels il travaille dans le cadre de ses études. Il a alors l’idée brillante de rendre disponible sur Internet son travail inachevé, et d’inciter les informaticiens qui le souhaitent à le compléter. Grâce aux listes de diffusion et aux forums électroniques, des centaines puis des milliers de programmeurs en viennent à unir leurs efforts pour développer ce noyau, entre-temps nommé Linux. Bientôt, la combinaison des logiciels GNU et du noyau Linux donne naissance à un système d’exploitation complet : GNU/Linux, plus couramment appelé Linux.

Celui-ci a aujourd’hui acquis une solide réputation de fiabilité, et est devenu le concurrent principal de Windows. Il est emblématique de la réussite du logiciel libre, dont témoignent également Firefox, Apache, Open Office, et bien d’autres. Au fil des ans, ces succès ont éveillé l’intérêt des géants du secteur informatique, et ont favorisé une pénétration croissante des logiques économiques dans le monde du libre. Un exemple significatif est celui d’IBM. Alors que l’entreprise est en difficulté, ses dirigeants décident en 1999 de rendre libres de grandes quantités de lignes de code propriétaires, et de mettre en place des équipes pour travailler sur les projets Apache et Linux. Ce soutien à des projets libres est une réussite, et il s’amplifie à partir de 2002. Les bénéfices qu’en retire IBM sont en effet multiples : économies substantielles[5], réorientation de son activité vers de nouvelles offres de service[6], amélioration de son image…

1.2. L’idéologie du Libre

L’influence croissante des grands groupes informatiques a suscité d’importantes réserves et révélé quelques fractures parmi les défenseurs du logiciel libre. En témoigne notamment la controverse ayant éclaté à la fin des années 1990, suite au lancement de l’Open Source Initiative. Cette organisation est créée en 1998 pour promouvoir un label dissident (OSI approved), censé être moins contraignant que la licence GPL, et donc plus attractif pour le monde des affaires. L’initiative est condamnée par Richard Stallman et la Free Software Foundation, bien que dans les faits,la différence entre les deux labels devienne assez rapidement de pure forme[7]. Le débat – parfois virulent – entre les deux parties met en lumière la coexistence au sein du monde du libre de deux « philosophies » assez nettement opposées. Pour les partisans de l’open source, les logiciels libres doivent êtres défendus pour l’unique raison qu’ils sont meilleurs que les logiciels propriétaires ! À l’inverse, pour les défenseurs du free software et son fondateur Richard Stallman, la performance technologique est une préoccupation secondaire par rapport au mouvement social que représente le logiciel libre, et aux principes qu’il défend.

Par-delà son contenu, la controverse entre open source et free software révèle l’importance des discours de positionnement idéologique dans le milieu du libre. Le mouvement du logiciel libre est ainsi indissociable des discours produits par ses acteurs pour légitimer et promouvoir leur pratique de la programmation informatique. Ce trait est particulièrement marquant, s’agissant de la question de l’organisation des communautés de développeurs. Celles-ci sont souvent opposées aux structures pyramidales dominantes dans les sphères économiques et politiques (grandes entreprises, partis politiques, etc.). Elles sont décrites comme mettant en œuvre une organisation horizontale, reposant sur le partage de l’information et la coopération directe entre participants. Seuls les individus affectueusement nommés « dictateurs bienveillants » sont censés y tenir un rôle hiérarchique. Il s’agit d’une ou plusieurs personnes qui, en fonction du mérite qui leur est reconnu par la communauté, assurent pour chaque projet une fonction de direction, de coordination, et de sélection des contributions. Au sein du projet Linux, Linus Torvalds dirige ainsi la cellule chargée de choisir et d’assembler les modifications apportées au noyau du code source. À cette restriction près, l’idéal véhiculé par les partisans du logiciel libre est bien celui d’une communauté d’égaux, reposant sur le partage, la collaboration, et le jugement par les pairs.

Cette image est toutefois un peu trop parfaite pour ne pas fournir un reflet quelque peu déformé de la réalité. Il faut ainsi prendre garde à ce que le discours des défenseurs du logiciel libre peut avoir de militant, voire d’idéologique. Certaines études de terrain semblent ainsi démontrer que les structures hiérarchiques sont souvent plus fortes que ce que les acteurs eux-mêmes veulent bien admettre. Dans un travail réalisé en 2004, Thomas Basset montre ainsi, en étudiant le développement de la suite logiciels VideoLAN[8], qu’il existe un décalage important entre le discours des participants au projet et la réalité des pratiques. Bien que les développeurs mettent en avant l’idéal d’un « libre échange du savoir entre personnes égales (…) hors de toute structure hiérarchique » (Basset, 2003, p. 28), l’observation du chercheur met en lumière l’existence d’une forte hiérarchie informelle. Au moment de l’étude, le projet VideoLAN repose ainsi sur une distribution du travail très inégalitaire, encore renforcée par des « manœuvres volontaires de rétention de l’information » (Basset, 2003, p. 52) en contradiction flagrante avec les discours tenus.

De façon générale, il faut avoir en tête que le mouvement du logiciel libre a non seulement produit des réalisations de tout premier ordre (Linux, Apache, etc.), mais aussi – et c’est là presque aussi important – un ensemble de discours mettant en avant certaines valeurs et certains modes de fonctionnement. Or, ces discours fonctionnent parfois comme une véritable idéologie, contribuant à voiler la réalité des pratiques. Par ailleurs, s’il est vrai que cette idéologie du libre n’est pas parfaitement homogène et cohérente (c’est ce qui apparaît notamment à travers la controverse entre free software et open source mentionnée plus haut), il s’en dégage néanmoins certaines constantes : méfiance envers la hiérarchie, valorisation du mérite individuel, promotion d’une éthique de la collaboration. On insistera ainsi sur le fait que la valorisation simultanée du mérite individuel et de la collaboration n’est contradictoire que superficiellement. Le mode d’organisation des communautés du libre est précisément censé permettre à chacun de concilier une grande autonomie dans son travail avec une inscription dans un projet collectif. En effet, une organisation horizontale apparaît par définition peu susceptible de soumettre les individus au groupe, en ce qu’elle refuse toute forme de hiérarchie et de contrôle centralisé. Dans le même temps, elle permet à un grand nombre de relations de coopération de se nouer, dans la mesure où tout le monde peut potentiellement être en contact avec tout le monde. Si l’on suit l’idéologie du libre, il faut donc dire que la communauté, pour autant qu’en soient bannies les rigidités hiérarchiques et qu’y soit favorisée la collaboration, se présente comme le terrain le plus propice à révéler le mérite individuel. Que les choses soient plus compliquées en pratique est une évidence qu’il faut garder en tête. Néanmoins, il n’est pas exagéré d’affirmer que le mouvement du logiciel libre véhicule in fine une certaine idée des structures les plus aptes à assurer le plein épanouissement de l’individu et de la collectivité, dans le domaine de la programmation informatique voire au-delà.

2. Le logiciel libre comme modèle social d’avant-garde

Je voudrais désormais pousser le raisonnement plus loin, et examiner la manière dont certains intellectuels n’étant pas directement impliqués dans le milieu du logiciel libre, se sont emparés de cette thématique pour fonder leurs analyses d’un certain nombre de transformations sociales en cours. Autrement dit, je voudrais considérer des discours qui vont au-delà de ce que j’ai nommé l’idéologie du logiciel libre, dans la mesure où ils se présentent comme porteurs d’une analyse de portée générale sur l’évolution de nos sociétés. Ces discours tendent ainsi à reprendre l’idéalisation du logiciel libre véhiculée par ses acteurs, tout en étendant la portée du modèle à d’autres activités sociales. Le logiciel libre devient de la sorte un socle sur lequel se trouve bâtie toute une construction intellectuelle. Je développerai trois exemples pour appuyer ce propos.

2.1. Pekka Himanen : la propagation de « l’éthique hacker »

Le philosophe finlandais Pekka Himanen a consacré à « l’éthique hacker » un ouvrage au retentissement important, paru en France en 2001 : L’Éthique hacker et l’esprit de l’ère de l’information[9]. Il y soutient queles pratiques et les valeurs du monde du logiciel libre ont donné naissance à « une nouvelle éthique du travail qui s’oppose à l’éthique protestante du travail telle que l’a définie Max Weber » (Himanen, 2001, p. 10). Cette nouvelle éthique se caractériserait par une relation au travail fondée sur la passion et l’intérêt personnel, et non sur le devoir moral et l’intérêt financier. Pour les hackers, le travail ne serait ainsi ni posé comme fin en soi indépendamment de son contenu, ni considéré comme simple moyen d’assurer sa subsistance ou sa richesse. L’important serait au contraire la satisfaction personnelle éprouvée dans la réalisation d’une tâche, devant être vécue comme intrinsèquement intéressante et gratifiante : « Les hackers font de la programmation parce que les défis qu’elle génère ont un intérêt intrinsèque pour eux » écrit ainsi P. Himanen (Ibid., p. 23). Il cite également Linus Torvalds, qui affirme que pour lui « Linux a largement été un hobby (mais un sérieux, le meilleur de tous) » (Ibid., p. 34).

Ce nouveau rapport au travail, qui repose sur une logique de développement de soi (Selbstentfaltung[10]), irait de pair avec un nouveau rapport au temps. Ainsi, pour les hackers, la distinction entre temps de travail et temps de loisir se trouverait brouillée, au profit d’un temps flexible où travail, hobbies, familles, collègues et amis se trouveraient sans cesse mélangés.

À la lumière de ces éléments, on peut mettre en doute la radicale nouveauté de cette « éthique hacker ». P. Himanen reconnaît du reste lui-même que les universitaires ou – d’une manière différente – les artistes, entretiennent depuis longtemps ce même rapport passionné à leur travail, et valorisent eux aussi une organisation relativement « libre » de leur temps. La véritable nouveauté résiderait en fait dans la manière dont ce rapport au travail serait en train de se répandre dans la société, à partir des milieux hacker.

(…) l’éthique hacker du travail se propage doucement vers d’autres secteurs, à l’image de l’éthique protestante qui, selon Weber, a fait son chemin en partant des entreprises créées par des Protestants pour finir par dominer l’esprit du capitalisme (Ibid., pp. 66-67).

Autrement dit, à la faveur du passage de la société industrielle à la « société en réseaux » (Castells, 1998)[11], le rapport au travail des hackers deviendrait viable pour de larges pans de la main d’œuvre. Leur éthique se substituerait ainsi progressivement à l’éthique protestante traditionnelle (ou à sa déclinaison contemporaine, érigeant l’argent en valeur suprême). Les hackers seraient finalement une sorte de groupe social d’avant-garde, et le mouvement du logiciel libre la matrice dont émergerait une nouvelle société. « Le modèle hacker ouvert pourrait se transformer en un modèle social » écrit P. Himanen (2001,p. 86).

Cette thèse n’est pas sans poser certaines difficultés. En effet, la possibilité de généraliser la relation au travail des hackers à d’autres groupes sociaux, et à d’autres secteurs économiques, est loin d’être évidente. Pekka Himanen s’expose ainsi au reproche d’ethnocentrisme, dans la mesure où tous les types d’emplois ne semblent pas susceptibles d’engendrer un rapport passionné au travail. Ne se rend-il pas coupable de généraliser une attitude, qui est en fait un privilège réservé à une partie infime de la population ? N’oublie-t-il pas un peu vite la très grande spécificité des hackers en tant que catégorie socioprofessionnelle, lorsqu’il affirme que leur éthique a une valeur quasi « universelle » (Ibid.,p. 26) ?

La thèse d’Himanen d’une propagation de l’éthique hacker dans l’ensemble du corps social apparaît relativement difficile à maintenir telle quelle. On peut alors choisir de la tirer du côté de l’utopie, c’est-à-dire d’un état idéal du social dans lequel le travail ne serait plus aliénation mais autodéploiement. Mais tel n’est certainement pas le propos de l’auteur, qui adopte dans son ouvrage une posture plutôt « sociologique ». Peut-être faut-il alors se résoudre à tirer de son ouvrage – et à l’encontre de ce qu’il écrit lui-même – une thèse plus « faible ». La mise en pratique de l’éthique hacker ne serait finalement possible que dans des secteurs très spécifiques, pour les professionnels de l’information, les artistes, ou les chercheurs. La généralisation à l’ensemble de la société de l’attitude au travail propre au milieu du logiciel libre apparaît en effet assez peu vraisemblable.

2.2 Yann Moulier Boutang : le logiciel libre comme modèle productif d’un nouveau capitalisme

L’exemple du logiciel libre est également tout à fait central dans la démarche de Yann Moulier Boutang, économiste et directeur de la revue Multitudes. Celui-ci a entrepris depuis quelques années, en collaboration étroite avec d’autres chercheurs (Antonella Corsani, Carlo Vercellone, Bernard Paulré…), de renouveler les cadres d’analyse de la science économique pour saisir les mutations contemporaines du capitalisme. Ce projet a donné naissance à l’hypothèse du « capitalisme cognitif ». Selon Yann Moulier Boutang, nous serions ainsi en train de sortir du capitalisme industriel pour entrer dans un nouveau type d’économie, « fondé sur l’accumulation du capital immatériel, la diffusion du savoir et le rôle moteur de l’économie de la connaissance » (Moulier Boutang, 2007, p. 85). Le capitalisme ne se nourrirait plus « du muscle consommé dans les machines marchant à la dissipation de l’énergie "carbo-fossile" » (Ibid., p. 65), mais de la « force cognitive collective » (Ibid., p. 65), ou encore de « l’intelligence collective » (Ibid., pp. 61-67). La source de la richesse résiderait donc aujourd’hui dans le travail social de communication et d’invention, ou encore dans la manipulation et la création de connaissances.

À mesure que les formes du travail et les sources de la richesse se modifieraient, le mode de production propre au capitalisme industriel entrerait en crise. Certes bien loin de disparaître complètement, il serait néanmoins délaissé dans les secteurs « avancés » de l’économie. En effet, l’adaptabilité, la flexibilité et la créativité permises par l’organisation en réseau, se révèleraient plus propres à révéler l’intelligence collective, que la rigidité de la one best way propre au taylorisme.

La thèse de Yann Moulier Boutang est ainsi qu’un nouveau mode de production émerge, qu’il définit comme « le travail de coopération des cerveaux réunis en réseau au moyen d’ordinateurs » (Ibid., p. 95). Point n’est besoin de trop de perspicacité pour s’apercevoir que cette description correspond parfaitement au modèle de fonctionnement des communautés du logiciel libre. Et pour cause ! Selon Yann Moulier Boutang, ces communautés sont l’exemple paradigmatique de ce nouveau mode de production propre au capitalisme cognitif. Ainsi, « le phénomène social et économique du libre » fournirait

un véritable modèle productif. Et ceci, tant sur le plan des forces sociales nouvelles que l’on peut repérer, sur celui de la division sociale du travail, que sur celui de la rationalité des agents économiques qui se trouve ainsi inventée, promue, des formes d’identité non pas au travail mais à un travail qui a changé fortement de contenu (Ibid., p. 125).

Yann Moulier Boutang accorde ainsi au logiciel libre une valeur d’exemplarité : ce qu’ont réussi à mettre en place quelques milliers de passionnés à travers le monde dans le domaine de la production informatique, serait un avant-goût d’un bouleversement global de l’organisation du travail. Suivant la voie tracée par les hackers, les forces productives deviendraient progressivement comparables à « l’activité collective cérébrale mobilisée en réseaux numériques interconnectés » (Ibid., p. 93).

Dans le même temps, le capitalisme cognitif deviendrait de plus en plus assimilable à une économie open source. En effet, dès lors que la richesse résiderait désormais dans l’ensemble du travail social de communication et d’invention, l’entreprise n’en serait plus l’unique productrice. Elle se devrait au contraire de capter une richesse antérieure, c’est-à-dire de valoriser ce qui émerge spontanément de l’ensemble des échanges sociaux.

L’intelligence entrepreneuriale consiste désormais à convertir la richesse déjà là dans l’espace virtuel du numérique en valeur économique (Ibid., p. 167).

Les entreprises auraient ainsi un intérêt profond à laisser se développer sans entraves la coopération en réseau, car celle-ci leur offrirait in fine les meilleures occasions de profit, en leur permettant de tirer profit d’une grande quantité de travail gratuit.

L’activité humaine innovante de la coopération des cerveaux à l’ère numérique produit dans la science, dans l’art, dans les formes collectives du lien social des gisements nouveaux et impressionnants d’externalités positives pour les entreprises, c’est-à-dire de travail gratuit incorporable dans de nouveaux dispositifs de captation et de mise en forme(Ibid., p. 122).

Comme l’aura déjà remarqué le lecteur attentif, ce nouveau business model correspond en tout point aux stratégies mises en œuvre par certaines grandes multinationales du secteur informatique pour tirer parti du logiciel libre. Ainsi, quand IBM profite du travail gratuit des communautés Linux ou Apache, et réoriente ainsi son activité vers une nouvelle offre de services (cf. supra), l’entreprise opère précisément ce que Yann Moulier Boutang décrit comme une captation de l’intelligence collective.

Le logiciel libre constitue donc pour Yann Moulier Boutang le phénomène économique et social, permettant d’analyser le capitalisme cognitif dans ses multiples facettes. Les communautés de développeurs du libre auraient ainsi « inventé » le mode de production caractéristique de ce nouveau régime économique, tandis que les entreprises ayant investi dans l’open source auraient développé son business model. La démarche théorique de Yann Moulier Boutang apparaît donc finalement très proche de celle de Pekka Himanen, dans la mesure où elle procède par généralisation à partir de l’exemple des communautés du logiciel libre, en tendant à faire de celles-ci des sortes d’avant-gardes. Elle s’expose de ce fait au même type de critique. Emporté par son admiration pour « la révolution californienne du capitalisme » (Ibid., p. 25), Moulier Boutang semble sous-estimer la spécificité du logiciel libre, et la difficulté à exporter ce modèle vers d’autres secteurs économiques. Fabien Granjon a ainsi noté que « les nouveaux aspects de production » sur lesquels les tenants de la thèse du « capitalisme cognitif » fondent leur théorie, « ne constituent que des sphères relativement restreintes de l’activité économique : ainsi en est-il du domaine du logiciel libre » (Granjon, 2008, p. 63). De manière analogue, Michel Husson a pointé la tendance de ceux qu’ils nomment les « cognitivistes » à « extrapoler des tendances partielles sans comprendre qu’elles ne peuvent se généraliser » (Husson, 2007, p. 139).

Il est intéressant de noter que Yann Moulier Boutang est conscient de s’exposer à de telles objections. Il tente d’y répondre, en proposant une analogie entre sa démarche et celle de Marx à l’aube de l’ère industrielle :

On s’intéresse en général à des observations empiriques sélectionnées dans un fatras rhapsodique d’informations multiples parce qu’on cherche les variables pertinentes qui commandent la tonalité d’ensemble ou permettent de prévoir des trajectoires d’évolution. Le grand trait de génie de Marx et Engels n’est pas d’avoir étudié la population laborieuse la plus nombreuse en Angleterre, (c’étaient les domestiques qui se comptaient par millions) mais les quelques 250 000 ouvriers des usines de Manchester (Moulier Boutang, 2007, p. 99).

L’argument est malicieux, et non dénué de pertinence. Toutefois, il ne suffit pas à effacer l’impression que la généralisation opérée par Moulier Boutang à partir du logiciel libre repose sur un pari. Celui d’affirmer que nos économies post-industrielles vont effectivement suivre la voie tracée par les expériences pionnières du logiciel libre. Or, s’il y a là un avenir possible, ce n’est certainement pas le seul ! La période actuelle paraît en effet trop incertaine, pour qu’on puisse écarter, par exemple, l’hypothèse du développement d’un « capitalisme gestionnaire d’effets de réseaux et de verrouillage » (Aigrain, 2007, p. 252), capitalisme qui serait bien entendu totalement contraire au modèle promu par les tenants du libre. Yann Moulier Boutang ne semble certes pas considérer ce scénario comme crédible, mais c’est là une position qui relève davantage de l’acte de foi que de la démonstration irréfutable. Ou, pour le dire de façon plus clémente : Yann Moulier Boutang assume les risques et les faiblesses de tout discours sur le social ne se contentant pas d’être descriptif, mais ayant une double visée de synthèse et de prospective. Sa démarche visant à faire du logiciel libre le modèle d’un nouveau capitalisme en gestation est donc nécessairement très perméable à la critique.

2.3. Michael Hardt et Antonio Negri : la démocratie comme « société open source ».

Ayant bénéficié d’un important succès commercial, les ouvrages Empire et Multitudes de Michael Hardt et Antonio Negri se présentent comme une tentative de rénover la philosophie politique critique, à l’heure de la mondialisation et des nouvelles technologies de l’information et de la communication. Ils sont notamment consacrés à la construction d’une théorie originale de la démocratie, inspirée en partie par le mouvement du logiciel libre. Avant d’aborder celle-ci en tant que telle, il faut préciser que les auteurs ancrent leur réflexion dans une analyse des transformations économiques contemporaines ; analyse tout à fait semblable à celle de Yann Moulier Boutang. Ils insistent ainsi sur la progression de la part du travail immatériel, et sur l’importance nouvelle de la coopération en réseau sur le modèle du logiciel libre.

L’originalité de leur propos se situe dans la thèse selon laquelle ces transformations économiques rejailliraient sur toutes les dimensions de la vie en société. C’est ce qu’ils appellent, en reprenant un terme forgé par Michel Foucault, la dimension biopolitique de la production.

Dans le cadre de ce travail immatériel, la production déborde hors des frontières traditionnelles de l’économie et se déverse directement dans le domaine culturel, social et politique. Elle crée non seulement des biens matériels, mais des relations sociales concrètes et des formes de vie. Nous appelons « biopolitique » cette forme de production, afin de souligner le caractère générique de ses produits et le fait qu’elle a directement prise sur l’ensemble de la vie sociale (Hardt et Negri, 2004, p. 121).

Ce caractère biopolitique de la production est, selon les auteurs, à l’origine d’une isomorphie croissante entre les structures économiques et les autres structures sociales, y compris politiques. Autrement dit, le développement de la forme réseau dans le cadre de la production immatérielle aurait pour corrélat la progression de cette même forme dans toutes les dimensions de la vie sociale. Ainsi Michael Hardt et Antonio Negri écrivent-ils notamment que

les institutions de la démocratie doivent aujourd’hui coïncider avec les réseaux communicatifs et collaboratifs qui ne cessent de produire et reproduire la vie sociale (Ibid., p. 400).

C’est dans ce cadre conceptuel qu’il faut comprendre le lien établi par les auteurs entre le mouvement du logiciel libre et la redéfinition de la démocratie qu’ils appellent de leurs voeux. On peut ainsi – moyennant une simplification acceptable – donner à leur raisonnement la forme d’un syllogisme : Structures économiques et structures politiques tendent à devenir semblables. Or, le logiciel libre est emblématique des nouvelles structures économiques. Donc, le logiciel libre devient emblématique des nouvelles structures politiques ! Michael Hardt et Antonio Negri écrivent ainsi :

On peut donc voir la démocratie de la multitude comme une société open source, c’est-à-dire une société dont le code source est révélé, permettant à tous de collaborer à la résolution de ses problèmes et de créer des programmes sociaux plus performants (Ibid., p. 385).

À travers l’expression de « société open source », Michael Hardt et Antonio Negri poussent la généralisation à partir du mouvement du logiciel libre à l’extrême. Ils accordent à celui-ci une place centrale dans la construction d’un nouveau modèle de société, susceptible de fournir une alternative crédible au libéralisme débridé et aux « vieilles » démocraties parlementaires. Hardt et Negri font ainsi du projet du logiciel libre l’horizon d’une certaine gauche radicale : la « société open source » et la « démocratie de la multitude » sont fondues en un seul et même objectif politique.

Évidemment, c’est là prêter énormément au mouvement du logiciel libre (ici confondu avec l’open source), et faire peu de cas des ambiguïtés politiques qu’il recèle. On remarquera ainsi que les grands principes du libre (libre partage de l’information, organisation horizontale, autonomie laissée à chacun) dessinent en fait un projet politique relativement modeste. Comme le remarque Patrice Riemens, nous sommes « très en deçà des exigences de justice, d’équité, d’égalité, d’émancipation » (Riemens, 2002, p. 185), qui animent la plupart des grands projets politiques de gauche. De surcroît, il paraît délicat – plus en tous les cas que Negri et Hardt ne le laissent supposer – de faire du libre un projet politique global. En effet, l’engagement social d’une majorité de hackers semble se limiter à un attachement à la disponibilité du code au sein du monde informatique. Il a d’ailleurs été remarqué que

l’étendue du spectre des opinions politiques entretenues par les hackers individuels (…) est surprenante, et totalement inimaginable dans quelque autre « mouvement social » (Ibid., p. 185).

Il semble donc que Michael Hardt et Antonio Negri accordent au logiciel libre une portée sociale et politique légèrement excessive. Ils participent en cela d’un mouvement plus général, qui a vu plusieurs intellectuels de gauche s’enthousiasmer pour le libre au cours des années 2000[12]. Il est toutefois possible de faire une lecture légèrement différente de la référence à l’open source chez Hardt et Negri. On émettra ainsi l’hypothèse que leur intérêt se situe à un niveau plus abstrait. Autrement dit, la portée politique effective du mouvement du logiciel libre les intéresse peut-être moins, que le fait qu’il fournisse un modèle inédit pour penser une nouvelle forme et un nouveau contenude la démocratie[13]. C’est donc à ce niveau, disons plus « théorique », que je voudrais situer ma dernière critique.

Pour l’énoncer succinctement, celle-ci consiste à dire que la mise en avant du modèle du libre pour (re)penser la question démocratique est porteuse d’une négation de la spécificité de la politique. Ainsi, si l’on prend au sérieux la référence à l’open source, la « démocratie de la multitude » aurait pour objet la production collaborative d’une forme d’expertise collective. Elle aurait à mettre en œuvre des processus d’agrégation de savoirs locaux. Elle se présenterait comme une sorte de gigantesque entreprise de débogage, ou comme un problem solving à grande échelle.

De telles idées ont certes des aspects séduisants, d’une part parce qu’elles semblent promettre une gestion politique plus efficace[14], d’autre part parce qu’elles renouent avec l’idéal d’une démocratie qui reposerait véritablement sur la participation effective de tous et bannirait le secret. Toutefois, l’analogie entre l’open source et la démocratie pose des difficultés majeures. Ainsi, dans le cas du logiciel libre, la finalité de la collaboration ne prête pas à discussion, puisqu’il s’agit tout simplement de produire le meilleur logiciel possible. Corrélativement, la réussite (ou l’échec) des diverses modifications souffre assez peu de contestation. Elle s’évalue aisément, puisqu’il suffit d’exécuter le code pour observer si la nouvelle mouture est plus rapide et plus complète que l’ancienne, si elle contient des bugs, etc. En matière de démocratie, les choses sont nettement plus compliquées. Ainsi, il y a rarement unanimité sur l’identification et la hiérarchisation des « problèmes » auxquels la collectivité se trouve confrontée. On peut même dire que la discussion sur les fins de l’action politique est inéliminable : celles-ci sont toujours objets de litige. Le fonctionnement démocratique ne peut par conséquent être réduit à la recherche collective des moyens les plus efficaces de résoudre des problèmes, qui seraient eux soustraits à toute forme de mise en question.

Tout régime politique ouvert ne cesse ainsi d’être confronté à des questions, que l’acquisition d’un savoir, quel qu’il soit, ne peut suffire à trancher. La démocratie ne saurait la plupart du temps se contenter d’une somme de connaissances objectives pour déterminer sa pratique. Elle vit au contraire de la confrontation d’une diversité d’engagements argumentés, mettant en jeu une pluralité de valeurs, d’intérêts ou de « choix de société ». Elle est indissociable d’un régime de rationalité particulier : l’échange d’opinions conclu par le vote à la majorité, et non pas la production collaborative de connaissances dont dériveraient mécaniquement les décisions.

La référence à une hypothétique « démocratie open source » importe donc indûment dans le champ politique la rationalité technique et scientifique, au détriment de la rationalité proprement politique. Autrement dit, elle néglige le rapport de la politique à l’opinion, considérée en tant que catégorie épistémologique. Ainsi, dans le recouvrement de la doxa par l’épistèmê,et dans le remplacement du débat contradictoire par la collaboration en réseau, ce serait bien l’essence des enjeux et des procédures démocratiques qui serait perdue.

Conclusion

Au terme de ce parcours, il apparaît que les pratiques mises en place par les communautés du logiciel libre sont sujettes à une double distorsion. Elles se trouvent tout d’abord fréquemment idéalisées par les acteurs du libre eux-mêmes, dont le discours militant a souvent pour effet de recouvrir les difficultés posées par la mise en application du modèle qu’ils défendent. Une deuxième distorsion est imputable à certains intellectuels qui, en conférant aux expériences du logiciel libre une portée social générale, minimisent la spécificité d’un mouvement dont les enjeux sont – avant tout, bien que non exclusivement – internes au secteur informatique[15].

Ces théories « inspirées » du logiciel libre présentent des similitudes frappantes. Par-delà leurs champs d’application privilégiés, elles s’accordent pour voir la spécificité de notre période dans le développement de nouvelles formes de collaboration « intelligentes » médiatisées par Internet. À les suivre, les changements que connaît notre époque – qu’il s’agisse des mutations des formes de socialité, des bouleversements économiques, ou encore des nouvelles formes de l’engagement politique – seraient directement imputables à la nouvelle configuration sociotechnique, permettant de « mettre en réseau les cerveaux ». Ces changements seraient révélateurs d’une période de transition, entre une société industrielle mourante, et une société de « l’intelligence collective » propulsée par les nouvelles formes d’échange et de production de connaissances.

Si ces théories saisissent indéniablement un trait marquant de notre époque, elles semblent néanmoins pêcher par un certain réductionnisme. Elles présentent en effet une tendance à ramener des phénomènes hétérogènes à une grille d’explication unique, faisant fi des spécificités des différents domaines de la vie sociale. Elles tendent parfois aussi à occulter des traits particulièrement frappants de notre époque : montée inouïe des inégalités, déséquilibres écologiques, etc. On pourra ainsi regretter que le discours sur le partage de l’information ne s’accompagne que trop rarement d’un discours sur le partage des richesses, ou des ressources naturelles.

Bibliographie
  • AIGRAIN P., 2007, « Capitalisme cognitif et politiques qualitatives après la révolution informationnelle » in MOULIER BOUTANG Y., 2007, Le capitalisme cognitif, Paris, Éditions Amsterdam.
  • BASSET T., 2003, Monographie d’un logiciel libre : VideoLAN, Mémoire de DEA, Institut d’Études Politiques de Paris, en ligne : http://www.framasoft.net/IMG/videolan.pdf (consulté le 19 novembre 2008).
  • CASTELLS M., 1998, L’ère de l’information, vol. 1 : La société en réseaux, Paris, Fayard.
  • GORZ A., 2003, L’immatériel, Paris, Galilée.
  • GRANJON F., 2008, « Les nouveaux résistants à l’ère du numérique. Entre utopie sociale et déterminisme technique », in PROULX S.et alii, 2008, L’action communautaire québecoise à l’ère du numérique, Montréal, Presses de l’Université du Québec, pp. 59-76.
  • HARDT M. et NEGRI A., 2004, Multitudes, Paris, La Découverte.
  • HIMANEN P., 2001, L’éthique hacker et l’esprit de l’ère de l’information, Paris, Exils.
  • HUSSON M., 2007, « Notes critiques sur le capitalisme cognitif », ContreTemps, n°18, pp. 138-141, en ligne : http://hussonet.free.fr/cognict.pdf (consulté le 10 novembre 2008).
  • MERTEN S., 2002, « Logiciel libre et éthique du développement de soi : entretien avec Joanne Richardson », Multitudes, n°8, pp. 188-199, en ligne : http://multitudes.samizdat.net/Logiciel-libre-et-ethique-du (consulté le 19 novembre 2008).
  • MOGLEN E., 2001, « L’anarchisme triomphant : le logiciel libre et la mort du copyright », Multitudes, n° 5, pp. 146-183, en ligne : http://multitudes.samizdat.net/L-anarchisme-triomphant (consulté le 19 novembre 2008).
  • MOULIER BOUTANG Y., 2007, Le capitalisme cognitif, Paris, Éditions Amsterdam.
  • RIEMENS P., 2002, « Quelques réflexions sur le concept de “culture hacker” », Multitudes, n° 8, pp. 181-187, en ligne : http://multitudes.samizdat.net/Quelques-reflexions-sur-le-concept (consulté le 19 novembre 2008).
  • TAPSCOTT D. et WILLIAMS A. D., 2007, Wikinomics, Paris, Pearson Education France.

Notes

[1] Crédit photo : Woallance3 (Creative Commons By)

[2] L’arrivée de nouveaux acteurs industriels est symbolique de ces bouleversements. Un exemple emblématique est la création de la société Sun en 1982 par d’anciens étudiants de Stanford et de Berkeley. Celle-ci privatise en effet de nombreux logiciels du monde Unix

[3] Le « logiciel libre » s’oppose ainsi au « logiciel propriétaire ». On insistera sur le fait que c’est bien cette opposition qui est pertinente, et non l’opposition entre logiciel libre et logiciel commercial. Comme le répète souvent Richard Stallman, « "free software is a matter of liberty, not price. To understand the concept, you should think of "free speech, not "free beer" » (http://www.gnu.org/philosophy/free-sw.html).

[4] Comme son nom l’indique, « le noyau d’un système d’exploitation est le cœur du système, qui s’occupe de fournir aux logiciels une interface pour utiliser le matériel ». Source : Wikipedia, http://fr.wikipedia.org/wiki/Noyau_Linux.

[5] IBM, qui investit 100 millions de dollars par an pour le développement de Linux, estime qu’il lui faudrait un investissement dix fois supérieur pour développer seul un système d’exploitation équivalent (Tapscott et Williams, 2007, pp. 93 et 97).

[6] Par exemple, la formation aux logiciels libres, ou l’installation et la personnalisation de systèmes libres.

[7] Aujourd’hui, il est ainsi bien difficile de trouver un projet open source qui ne soit pas free software, et inversement. Les deux dénominations sont d’ailleurs le plus souvent employées indifféremment dans les médias. Dans le présent article, nous utilisons l’expression « logiciel libre » de façon générique, pour désigner à la fois les projets labellisés free software et les projets open source.

[8] Le développement de la suite logiciels VideoLAN, dont est issu le célèbre lecteur vidéo VLC, a été initié en 1995 par des élèves de l’École Centrale Paris (ECP). Depuis 2001, il s’agit d’un projet libre réalisé sous licence GPL, mené conjointement par des élèves de l’ECP et par des développeurs extérieurs.

[9] Il convient de préciser que le terme « hacker » n’est pas employé par l’auteur en son sens médiatique de « pirate informatique », mais bien en son sens originel, c’est-à-dire comme désignant tous les véritables passionnés d’informatique, et en premier lieu les partisans du logiciel libre.

[10] Ce terme, parfois proposé pour rendre compte du rapport des développeurs à leur travail, semble assez pertinent, dans la mesure où il rend compte du fait que les motivations des hackers sont essentiellement personnelles, mais néanmoins nullement réductibles à un simple calcul économique (Merten, 2002).

[11] Pekka Himanen s’inspire largement des analyses de Manuel Castells, qui a développé dès 1996 l’idée selon laquelle un nouveau modèle social serait en train d’émerger à partir d’Internet et de la figure du réseau. M. Castells est par ailleurs l’auteur de l’« épilogue » de l’ouvrage de P. Himanen.

[12] Citons par exemple André Gorz, pour qui « la communauté virtuelle, virtuellement universelle des usagers-producteurs de logiciels et de réseaux libres, instaure des rapports sociaux qui ébauchent une négation pratique des rapports sociaux capitalistes »(Gorz, 2003, p. 93).

[13] Ce choix de lecture se trouve corroboré par le faible nombre d’éléments factuels sur le logiciel libre présents dans l’ouvrage de Michael Hardt et Antonio Negri.

[14] Si l’on accepte l’analogie entre société et logiciel, on peut effectivement penser qu’une « démocratie open source » résoudrait nos problèmes sociaux plus efficacement que nos démocraties parlementaires, de la même façon que les logiciels libres s’avèrent souvent plus performants que les logiciels propriétaires…

[15] Précisons que si nous avons – pour la clarté de l’exposé – distingué ces deux types de discours, cette séparation n’a bien entendu rien d’étanche. Ainsi, les intellectuels fondant leur démarche théorique sur l’exemple du logiciel libre sont imprégnés d’un certain discours militant. On peut aussi remarquer qu’il y a déjà dans l’idéologie du Libre une tendance à vouloir accentuer la portée sociale du « modèle ouvert », tendance que certains intellectuels s’empressent ensuite de reprendre et de développer.




MiMOOo ou la migration OpenOffice.org de l’administration publique en questions

MimOOo Box« MiMOOo » vous connaissiez ? Nous non plus ! Cherchons alors ensemble à en savoir davantage, parce que cela en vaut la peine…

MiMOOo est l’acronyme de ce qui se présente comme un beau projet institutionnel français signifiant Mutualisation interMinistérielle pour OpenOffice.org.

Laissons une Sophie Gautier enthousiaste nous le présenter plus avant sur son blog : « MiMOOo ou quand l’administration s’organise comme l’open source ! Ce groupe de travail interministériel a mis en place une véritable stratégie de migration à OOo. Depuis un peu plus d’un an, les différents ministères se rencontrent régulièrement pour définir des statégies communes, partager outils et problématiques. S’inspirant des techniques de mise en commun des projets de développement, MiMOOo a ainsi optimisé sa migration à travers le partage des expériences et des savoirs ».

Cette citation date d’avril 2007. On peut donc en déduire que Mimoo existe depuis au moins avril 2006, c’est-à-dire depuis un certain temps déjà.

Hypothèse corroborée par cette dépêche tout aussi enthousiaste de LinuxFr du mois de septembre 2006, titrée La plus grosse migration OpenOffice.org au monde : 400 000 postes dans l’administration française, et ainsi présentée : « Courant 2007, l’administration centrale française (essentiellement les ministères) va voir 400 000 de ses postes informatiques migrer vers la suite bureautique OpenOffice.org et le format ouvert OpenDocument, ce qui constitue actuellement la plus grosse migration vers OpenOffice.org au monde. Le groupe de travail interministériel responsable de ce déploiement met à disposition des administrations de nombreux outils : cédérom interministériel d’installation d’OpenOffice.org[1], mallette pédagogique, formation en ligne, pack de communication, outils d’accompagnement, mémentos, guide, etc. »

On retrouve donc notre groupe de travail interministériel. Mais problème : les deux principaux liens proposés par la dépêche (Le programme de migration et Communauté assistance OpenOffice.org) sont aujourd’hui inaccessibles.

MiMOOo en (toute) discrétion

Parce qu’il se trouve justement que malgré son bel âge nous ne disposons aujourd’hui que de trop rares et déjà anciennes informations publiques sur le projet.

Il ne subsiste en effet aujourd’hui qu’un petit encart dans une brochure sur la modernisation de l’État (page 2 – avril 2007), mais surtout cet article de présentation, sur le site gouvernemental des Ateliers de la modernisation, dont le titre interpelle par son optimisme (alors que la dernière mise à jour date de septembre 2006) : Poste de travail : les clés d’un projet réussi.

Article qui vient confirmer les informations précédentes avec des citations comme : « Le projet de par sa nature induisait une démarche de mutualisation. En effet, la notion de logiciel libre est étroitement liée à un idée de partage des ressources, des connaissances : un état d’esprit qui se prête au travail collaboratif. »

Et depuis plus rien. Point de bilan et perspectives à l’instant t et aucune trace des « cédérom interministériel d’installation, mallette pédagogique, formation en ligne, pack de communication, outils d’accompagnement, mémentos, guide, etc. ».

Alors, trois ans plus tard, où en sommes-nous ? Telle est la légitime question qui en appelle plusieurs autres dans le détail.

Cette absence d’informations publiques signifie-t-elle qu’à ce jour le groupe hiberne et que la migration OpenOffice.org est au point mort dans l’administration publique ?

Assurément non. Elle signifie simplement que nous les administrés ne sommes pas en mesure d’évaluer les avancées du projet. Elle signifie également que nous ne pouvons profiter des documents produits pour l’occasion sur OpenOffice.org, rétention dont nous ne sommes pas habitués lorsqu’il s’agit de logiciel libre. Elle signifie enfin que la collaboration avec la communauté francophone d’OpenOffice.org a dû être si ce n’est nulle tout du moins fortement limitée.

MiMOOo en réunion

Nous pouvons de plus affirmer que MiMOOo est une cellule toujours active.

En effet nous savons, de « source autorisée », que le groupe s’est réuni le 19 mai dernier. Lors de cette réunion, étaient présents des représentants des ministères suivants :

  • Le ministère de l’Économie et du Budget
  • Le ministère de l’Intérieur
  • Le ministère de la Justice
  • Le ministère de l’Alimentation, de l’Agriculture et de la Pêche
  • Le ministère de l’Écologie, de l’Énergie, du Développement durable et de la Mer
  • La Gendarmerie Nationale
  • Les services du Premier ministre
  • La Caisse nationale des allocations familiales
  • L’Assemblée Nationale
  • L’École nationale d’administration

On remarquera quelques grands absents, à commencer par le ministère de… l’Éducation nationale ! On aurait pu s’attendre en effet à ce que ce ministère y siège en bonne place et y envoie un représentant compétent en la matière, ce dont la maison ne manque pas.

MiMOOo en question(s)

À partir de là, voici une liste non exhaustive de quelques questions que nous aimerions poser avant tout au groupe de travail MiMOOo, mais également à l’Éducation nationale, en passant par le personnel administratif et l’équipe francophone d’OpenOffice.org,

N’y voyez surtout pas un nouvel avatar de « la dictature d’Internet » qui souhaite mettre son nez partout. Et nous comprenons fort bien que certaines informations n’aient pas vocation ni intérêt à être diffusées publiquement. Nous, simples citoyens (et contribuables) en appelons juste à plus de transparence, puisque ce projet concerne l’administration publique en route vers une migration massive en logiciel libre et format ouvert.

Questions à MiMOOo
  • Quelle est la composition de ce groupe et sa gouvernance ? De quel département ce groupe est-il l’émanation ?
  • Quelles sont ses prérogatives ? Est-il uniquement consultatif ? Est-il décisionnel au niveau des plans d’équipement et/ou de formation ?
  • Qui sont les destinataires de ses conclusions ?
  • Qui contacter pour obtenir des renseignements sur les travaux de ce groupe ?
  • Y a-t-il eu d’autres réunions depuis ? Quelle est la fréquence de ces réunions ?
  • Pourquoi MiMOOo ne publie-t-il pas ses comptes rendus et ses débats en ligne ?
  • Qu’en est-il aujourd’hui de cet ambitieux objectif de 400 000 postes sous OpenOffice.org affiché en 2006 ?
  • Concerne-t-il toutes les administrations ou bien uniquement celles présentes à la réunion ?
  • Qu’en est-il aujourd’hui de cette autre volonté affichée en 2006, celle de « migrer vers le format OpenDocument » ?
  • MiMOOo a-t-il eu, ou tenté d’avoir, une influence quelconque dans l’élaboration de la toute récente nouvelle version du Référentiel général d’interopérabilité qui, d’après l’April, « sème la confusion en préconisant deux formats bureautiques concurrents » ? (cf le communiqué de l’April : RGI : le cadeau de François Fillon à Microsoft)
  • Pourquoi un certain nombre de ressources créées en interne ne seraient-elles pas rendues publiques si elles sont susceptibles de profiter à toute la communauté ?
Question au personnel des ministères
  • Avez-vous vu passer MiMOOo dans votre service ? Si oui, dans quelles conditions (formation, accompagnement, documentation…) ?
  • Faites-vous partie des 400 000 postes qui ont migré vers OpenOffice.org ?
Questions à l’Éducation nationale
  • Qui est le représentant MiMOOo du ministère de l’Éducation Nationale ? Comment le contacter ?
  • De quels mandats ce représentant a-t-il été chargé par son ministère de tutelle ?
  • Fait-on une distinction entre la migration de l’informatique pédagogique (les postes des élèves et des enseignants) et la migration de l’informatique administrative (les postes de la direction, de l’intendance, etc.) ?
  • L’absence remarquée à la réunion du 19 mai est-elle ponctuelle ou permanente ?
Questions à OpenOffice.org
  • Quelle relation le projet francophone OpenOffice.org entretien-t-il avec MiMOOo ?
  • Le projet francophone OpenOffice.org offre-t-il assistance et expertise à MiMOOo ? Intervient-il dans les réunions, les formations ?
  • En retour, MiMOOo (que l’on peut assimiler ici à un « grand compte public ») fait-il remonter les remarques, avis, critiques, problèmes rencontrés lors du déploiement ? Donne-t-il accès aux ressources évoquées ?
Question à la cantonade
  • Est-il normal qu’une structure telle que MiMOOo, pour rappel composée exclusivement de fonctionnaires, soit si discrète dans son action, sa communication et la diffusion de ses ressources créées en interne ?

En espérant, sait-on jamais, que tout ou partie des questions trouveront réponse dans les commentaires. Parce que « la plus grosse migration OpenOffice.org au monde » mérite certainement plus que cela, c’est-à-dire pour le moment une seule page Web mise à disposition.

Edit du 16 novembre : 24h après la mise en ligne de ce billet est apparu un article MiMOOo sur Wikipédia qui répond à bon nombre des questions ! Merci pour cette excellente et originale initiative.

Notes

[1] C’est l’image virtuelle de la boîte de ce cédérom qui sert d’illustration à ce billet.




La libération du savoir est un travail de fourmis

AntWeb - CC by-saUn peu de storytelling aujourd’hui sur le Framablog, avec cette histoire de fourmis qui n’avaient pas d’images dans Wikipédia.

Nous le savons, l’encyclopédie libre est très certainement l’une des plus belles aventures humaines jamais imaginées.

Mais son influence est telle qu’elle a aujourd’hui également la capacité d’influencer directement ou indirectement la politique de licences des contenus produits par les organismes publics, universités en tête[1].

AntWeb passe sous licence Creative Commons BY-SA

AntWeb goes CC-BY-SA

Waldir Pimenta – 6 novembre 2009 – All The Modern Things
(Traduction Framalang : Poupoul2)

Saviez vous que l’insecte le plus venimeux au monde est une fourmi ? En effet, une piqûre de la fourmi Maricopa Harvester équivaut à douze piqures d’abeilles, ce qu’il faut pour tuer un rat de plus de deux kilos.

J’ai découvert cela il y a plus d’un an dans le livre des insectes de l’Université de Floride. Je me suis immédiatement tourné vers Wikipedia pour savoir ce qu’on en disait, mais à ma grande surprise, aucun article n’existait. J’en ai donc commencé un à partir d’un page blanche, en utilisant des informations glanées sur plusieurs sites consacrés aux fourmis. Finalement, les gens ont commencé à enrichir l’article, jusqu’à ce qu’il contienne une somme d’informations de bonne qualité à propos de cette espèce fascinante. Mais il y manquait toujours quelque chose, qui à lui seul pouvait rendre l’article dix fois meilleur : Une image.

Ainsi, en cherchant des images afin d’illustrer cet article, j’ai découvert les fantastiques images d’AntWeb, un projet de l’Académie des Sciences de Californie, qui a pour objectif d’illustrer l’énorme diversité des fourmis dans le monde. J’étais particulièrement heureux qu’ils utilisent une licence Creative Commons, mais j’ai rapidement déchanté en constatant que celle qu’ils utilisaient (la licence Creative Commons BY-NC) n’était pas appropriée pour Wikipédia, ou plus généralement pour ce que les Creative Commons appellent elles-mêmes les « œuvres culturelles libres » (Ndt : voir à ce sujet ce billet du Framablog).

Je leur ai donc envoyé un courriel, suggérant de changer la licence. Lorsqu’ils m’ont répondu, j’ai découvert qu’en fait, des discussions internes à propos de la licence étaient déjà en cours. Je suis resté en contact avec eux, et me suis assuré de leur parler des avantages de voir leurs travaux placés dans des vitrines telles que Wikipédia, Commons ou Wikispecies.

J’aime à penser que ma modeste intervention a participé à leur prise de décision, quelque temps plus tard, non seulement de changer de licence pour une Creative Commons BY-SA, mais également de téléverser leurs images dans Commons eux-mêmes. Il s’agissait d’une partie de leur mission globale : « L’accès universel aux informations sur les fourmis ». Auparavant, le projet AntWeb, se concentrait sur la numérisation de contenus et le développement d’un portail web : ils ont désormais décidé d’exporter le contenu d’AntWeb pour en améliorer l’accès. Mettre les images et les méta-données associées dans Commons fut un exemple en matière d’organisation.

Cette initiative a été saluée par la communauté, et il y a eu de nombreuses contributions à ce massif téléversement, afin de rendre les images plus faciles à trouver et à utiliser pour illustrer des articles, et autres pages pertinentes. Le processus a pris plusieurs jours, mais au final ce sont pas moins de 30 000 images qui auront été téléversées, intégralement associées à leurs données EXIF, mais également aux informations taxonomiques et géographiques, chaque fois qu’elles étaient disponibles.

Tout ceci n’est pourtant quelque part qu’une première pierre. Puisque, comme d’habitude dans le monde des wikis, vous pouvez contribuer. Il existe des articles à illustrer dans toutes les langues de Wikipedia (l’outil de recherche d’images libres FIST de Magnus arrive à point nommé pour cela). Il y a des pages à illustrer sur Wikispecies. Il y a des catégories à créer dans Commons, afin de faciliter la navigation dans l’arbre des catégories des fourmis et d’y rendre chaque image de fourmi accessible. Et plus important, il y a cette nouvelle fantastique à diffuser, afin de faire savoir à tous ceux qui sont intéressés par les fourmis qu’ils peuvent désormais compter sur ce qui est sans doute la plus importante ressource en ligne d’images de fourmis, toutes de grandes qualité.

Un grand merci à Brian Fisher, chef de projet AntWeb, qui a coordonné le processus de changement de licence, Dave Thau, ingénieur logiciel AntWeb, qui a écrit le script de téléversement et réalisé cette opération, et à toute l’équipe d’AntWeb pour leur formidable travail.

Notes

[1] Crédit photo : AntWeb (Creative Commons By-Sa)




La neutralité du réseau – Benjamin Bayart – Extrait du livre La bataille Hadopi

La bataille Hadopi - InLibroVeritas - CC by-sa et Art Libre« La bataille d’Hadopi n’a été, finalement, qu’une des batailles, ni la première, ni la dernière, de la guerre qui vise à obtenir ou maintenir la liberté d’expression sur les réseaux, et donc qui vise à consacrer le principe de la neutralité du réseau. C’est la première grande guerre des enjeux politiques du 21e siècle. »

Ainsi s’achève ce très intéressant article de Benjamin Bayart pioché dans le non moins intéressant livre choral d’InLibroVeritas La bataille Hadopi (et ses 40 auteurs).

Benjamin Bayart, c’est le président de French Data Network (FDN). C’est aussi l’homme de la désormais célèbre expression du « Minitel 2.0 » et de la citation suivante qui prend le même chemin : « l’imprimerie a permis au peuple de lire, Internet va lui permettre d’écrire ».

Mais c’est surtout un « expert des libertés numériques » (dixit Nicolas Dupont-Aignan) et certainement l’un des meilleurs d’entre nous lorsqu’il s’agit d’exposer et d’expliquer ce sujet à la fois simple (à comprendre) et complexe (à défendre) qu’est la Neutralité du Net.

C’est pourquoi cet article synthèse, au style plaisant malgré la rugosité du propos, nous semble important à lire et à faire lire.

PS : Vous trouvez l’article trop long pour un blog ? C’est peut-être parce qu’Internet vous a rendu idiot ! Mais nous avons une solution : commander le livre, dont les bénéfices iront intégralement à La Quadrature du Net, et qui vous fera découvrir par la même occasion 39 autres articles du même acabit.

La neutralité du réseau

URL d’origine du document

Benjamin Bayart – Octobre 2009 – La Bataille Hadopi (InLibroVeritas)
Licence Creative Commons By-Sa et Licence Art Libre

La bataille d’Hadopi, telle que nous l’avons connue à l’Assemblée Nationale et dans les médias a eu plusieurs vertus. La première, longuement expliquée déjà, est d’avoir amené à la politique toute une population, appelée « les Internautes » pour faire simple, qui ne s’en préoccupait pas vraiment avant.

La seconde vertu de la bataille d’Hadopi, c’est d’avoir permis de bien mettre en avant ce qui est, au fond, l’enjeu central de tous ces sujets, à savoir non pas la rémunération des artistes, auteurs et troubadours, mais la neutralité du réseau et ses enjeux.

En effet, quand le Conseil Constitutionnel a eu à connaître de ce texte, finalement bébêtte, qui menaçait de couper d’Internet les enfants qui téléchargent comme nos parents nous privaient de télé, il le censura. Et pas sur de l’argutie légère ou sur un point de détail, non, sur du fondamental, sur du lourd, du très lourd : présomption d’innocence et liberté d’expression. Deux des piliers des Droits de l’Homme depuis 1789.

Comment cette loi supposée traiter un problème assez léger a pu se cogner dans des problèmes aussi lourds ?

Internet – liberté fondamentale

Pour expliquer ça, il faut revenir un peu en arrière, et essayer de comprendre ce qu’est Internet, et son influence sur la marche du monde. Internet est, en beaucoup de points, comparable à l’imprimerie. D’abord par sa nature, c’est un moyen de diffusion de la connaissance, et d’accès à celle-ci. Ensuite, par ses conséquences. L’invention de l’imprimerie, et son lent développement, à partir de 1445, ne peut pas être séparée des évolutions majeures de l’époque. Pas de renaissance et de démarche scientifique sans moyen moderne de diffusion des connaissances. On ne peut pas séparer la renaissance du renouveau philosophique, et en particulier de la philosophie des Lumières, donc des révolutions démocratiques. De même que tout le progrès scientifique et technique du dix- neuvième siècle est impensable sans les avancées fondamentales de la renaissance et la naissance de la démarche scientifique.

Ce n’est pas l’imprimerie qui a fait ça. On peut toujours lancer des petits caractères en plomb sur les soldats, ça ne renverse pas les gouvernements. Mais l’imprimerie était une étape nécessaire, pour permettre ces évolutions et ces changements, il fallait un moyen moderne et rapide de diffuser et de conserver le savoir pour qu’il puisse s’accroître.

De la même manière, Internet change très en profondeur la façon dont se diffuse, et donc la façon dont se crée, le savoir. Une bonne façon de résumer ça est de dire que l’imprimerie a permis au peuple de lire, Internet va lui permettre d’écrire.

On a déjà dit cent fois qu’Internet met à la disposition de tous, et sans coût notable, modulo quelques barrières pénibles, la totalité du savoir de l’humanité, c’est facile à comprendre. On a moins souvent dit, parce que c’est moins clair pour un esprit formé au siècle dernier, qu’Internet permet à chacun de construire le savoir de l’humanité, c’est-à-dire d’écrire.

Bien entendu, chacun sait qu’Internet n’est pas qu’un lieu d’échanges savants entre érudits. Forcément. L’imprimerie ne sert-elle qu’à imprimer des ouvrages savants ? Pour un livre « intelligent », combient sont imprimés de prospectus, de tracts, de catalogues, de correspondances sans intérêts (factures, relevés, avis, et autre paperasses) ? Et bien Internet suit la même pente. Fondamentalement, il a été créé pour diffuser et produire de la connaissance scientifique à grande échelle et rapidement, mais il était évident depuis le premier jour qu’il servirait aussi à diffuser et produire tout le reste de ce qu’on peut vouloir diffuser ou produire comme information.

Cependant, bien que l’imprimerie soit en majorité utilisée à des fins futiles, il ne vient à l’idée de personne de remettre en cause la liberté de la presse. Il y a là une logique, l’outil technique a apporté une avancée pour la société, et c’est pour défendre l’avancée qu’on défend l’outil. D’une manière similaire, Internet crée une percée importante, un changement profond, même si une partie colossale du trafic sur le réseau correspond à autre chose.

Un argument souvent opposé à cette vision du réseau est d’expliquer que les discussions y sont trop souvent d’un faible niveau, qualifiées de discussions de café du commerce. Là encore, c’est une analyse à courte vue. D’abord parce que la forme d’expression permise par le café du commerce ne permet pas de construire de vrais argumentaires : on est dans l’oral, dans le périssable, et dans le débat privé, donc sans argumentation extérieure possible. Ce qu’Internet crée comme débat est structurellement différent. Les débats sur la place publique, le plus souvent par écrit, permettent aux points de vues de se confronter, de s’invalider, ou au contraire de se renforcer, de s’étayer. De tout cela, il ressort une espèce de discussion du café du commerce dont on consignerait les arguments par écrit, pour les étudier, les rendre publics, bref, pour en faire une vraie réflexion. Au final, c’est plus proche des débats publics, qu’on connaît depuis longtemps, mais qui ne sont plus réservés à de petits groupes.

De tout celà, une idée forte est à retenir : Internet est l’avancée technique qui a permis, enfin, l’exercice réel de la liberté d’expression. La presse, on s’en rend compte avec le recul, ne fournissant au fond que la liberté d’accéder à l’information. Et c’est bien sur cette base-là que la Conseil Constitutionnel a censuré l’Hadopi, c’est bien en se référant à l’article 11 de la Déclaration Universelles des Droits de l’Homme et du Citoyen de 1789, à savoir :

Art. 11 : La libre communication des pensées et des opinions est un des droits les plus précieux de l’homme ; tout citoyen peut donc parler, écrire, imprimer librement, sauf à répondre de l’abus de cette liberté dans les cas déterminés par la loi.

On a donc, validé par le Conseil Constitutionnel, cette première étape de marquée : Internet est essentiel à l’exercice de la liberté d’expression, qui est une liberté fondamentale.

Hadopi – Besoin d’un juge

C’est le premier point, immense, gagné dans la bataille d’Hadopi. Maintenant, ce n’est plus une renvendication, ce n’est plus un point de vue de visionnaire maniaque du réseau ou de futurologue échevelé, c’est une décision, forte, d’une autorité qu’on ne peut pas soupçonner de travailler avec légèreté, ou de se laisser emporter par sa technophilie. Or, de ce point fondamental qui vient d’être édicté par le Conseil, il découle des conséquences inattendues et fortes, pour ceux qui pensaient priver les gens d’Internet comme on prive un enfant de télévision ou de dessert.

En effet, priver un citoyen d’une liberté fondamentale, ce n’est pas une décision qui se prend à la légère. Il y a des cas, prévus, connus, codifiés, mais ce sont des sanctions lourdes, pour des délits ou des crimes graves. L’exemple le plus connu, et pratiquement le seul, est l’emprisonnement ou l’assignation à résidence[1]. Une telle mesure de privation de liberté ne peut être décidée que par un juge, et dans le cadre d’une procédure contraignante. Ce qu’on apprend donc, toujours en lisant la même décision du Conseil, couper l’accès Internet d’un citoyen, c’est aussi sérieux que de l’envoyer en prison, et ne peut donc pas se faire dans n’importe quelles conditions. On est maintenant bien loin de la petite loi simpliste, pensée trop vite par des gens qui ne comprennent plus le monde qui les entoure.

De là, bien entendu, les autres conséquences qu’en tire le Conseil dans sa décision, à savoir que la présomption d’innocence est de mise, qu’il faudra des preuves de la matérialité des faits pour condamner, que le juge sera requis, que le mouchard filtrant obligatoire pour pouvoir se disculper n’est pas valable dans ce contexte, bref, tout l’édifice Hadopi s’effondre.

Neutralité du réseau

Un point n’est pas abordé par le Conseil Constitutionnel dans sa décision, et pourtant il est important pour comprendre là où on va, c’est celui de la nécessité de la neutralité du réseau.

Pour aborder ce sujet-là, il faudrait faire un peu de technique, expliquer avec quelques termes barbares des notions affreuses, comme l’analyse de traffic, l’analyse protocolaire, l’analyse de contenu, l’analyse de comportement, et le tout dans un beau jargon anglais. Pour éviter cela, on va se contenter d’une définition intuitive et pratique : on dit que le réseau est neutre si on sait qu’on peut lui faire confiance pour ne pas altérer le message. C’est le cas par exemple du réseau utilisé pour les discussions orales : quand on parle, de vive voix, en face à face, on sait que l’air qui nous sépare ne modifie pas les propos, que ce qui est dit est vraiment dit. Qu’il vienne se glisser dans la discussion un interprète, et alors, forcément, la question de confiance se pose.

L’intermédiaire, dans cet échange, n’est acceptable que si les deux interlocuteurs lui font une confiance entière et absolue. à tel point que, lorsqu’on n’a pas confiance en l’interprète, chacun vient avec le sien. On dit alors que le réseau est neutre quand il joue le rôle d’un interprète idéal, réussissant à transporter le message sans l’altérer en rien, sans le déformer.

Une autre façon de le dire, c’est de considérer ce qu’est Internet. D’où que je sois sur le réseau, je vois Internet. Si l’Internet que je vois depuis un point A n’est pas le même que l’Internet que je vois depuis un point B, alors, quelque part, quelque chose n’est pas neutre. Par exemple, quand un site est filtré dans un pays, c’est une atteinte à la neutralité du réseau : depuis ce pays-là, le site ne marche pas, et curieusement depuis partout ailleurs il marche bien. Par exemple, quand un site est enrichi : je peux mettre en place, sur le réseau de mon entreprise, un mécanisme qui fait qu’à chaque fois que j’accède à tel site de mon fournisseur habituel, il soit affiché des informations annexes (dernière fois qu’on a commandé tel produit, quantité disponible en stock, etc). Quelqu’un qui viendra se connecter à ce réseau verra un site qui n’est pas le même que celui qu’il voit quand il se connecte depuis chez lui : mon réseau n’est plus neutre, il fausse la communication, il ajoute des informations qui n’existent pas.

La neutralité des réseaux est importante. En fait, autant que le réseau lui même. C’est presque sa définition. Internet n’est que l’accord d’interconnexion, techniquement neutre, entre les réseaux de plus de 40.000 opérateurs sur la planète. Supprimez cette neutralité, et ce n’est plus Internet.

Il ne faut pas se méprendre, ça ne veut pas dire qu’il ne faut pas, jamais, enrichir ou filtrer, simplement, que ce n’est pas le réseau qui doit le faire, et que si un réseau fait ça, ce n’est plus Internet.

Pour reprendre les exemples précédents, le service, fort utile, imaginé sur ce réseau d’entreprise, n’est pas en soi une mauvaise chose. Simplement, ce réseau d’entreprise n’est plus Internet. C’est un réseau d’entreprise, un outil interne, comme le logiciel de comptabilité ou l’outil pour faire les devis.

Il y a donc deux éléments fondamentaux pour définir la neutralité du réseau : le premier est que jamais le réseau lui-même ne doit altérer en rien le contenu, le second est que les altérations sont nécessairement pilotées en périphérie du réseau. Par exemple quand je filtre les mails publicitaires (les spams), c’est moi qui ai la maîtrise de ces filtres, je peux les activer ou les désactiver, selon mon bon vouloir. Et ce point-là est fondamental, c’est moi qui trie le courrier intéressant du courrier inutile, pas le facteur.

Pilier des libertés

La neutralité du réseau n’est pas, en elle-même, une liberté fondamentale. Mais c’est un élément important, parce que sur cette neutralité sont adossées des libertés.

Par exemple la liberté d’expression évoquée par le Conseil Constitutionnel, n’a pas de sens sur un réseau qui ment : comment savoir si le texte que je suis en train d’écrire sera bien reçu, non modifié, par mes lecteurs ? Comment savoir s’il sera modifié, et si oui par qui ? Moi, je vois bien ce texte tel que je l’ai posté. Tant qu’Internet est neutre, et que donc tout le monde voit le même Internet, alors tout le monde voit mon texte tel que je l’ai publié. Sitôt que le réseau n’est plus neutre, je n’ai aucun moyen de savoir ce que voit mon voisin. Donc, sur un réseau non-neutre, je ne peux pas exprimer librement ma pensée, et donc l’exercice pratique et réel de cette liberté est remis en cause.

Par exemple la liberté d’accès à l’information. En effet, tant que le réseau est neutre, chacun peut être confiant dans ce qu’il lit sur le réseau. Non pas que toutes les informations y soient justes (ce serait utopique comme croyance), mais simplement de savoir que l’information qu’on reçoit est bien celle qui a été émise. Si le réseau n’est plus neutre, comment savoir si le texte est bien le fruit de la pensée de son auteur, ou s’il a été ‘‘ caviardé ’’ au passage par les habiles ciseaux de la censure moderne ? Si je ne peux plus avoir confiance dans le réseau de transport, alors je ne peux plus avoir confiance dans l’information qui est dessus. La liberté d’accès à l’information est amputée.

Par exemple, la libre concurrence, qui est une liberté moindre en général (la liberté de choisir son fournisseur, par exemple), peut devenir fort sérieuse sitôt qu’on parle d’accès à l’information (choisir un quotidien par exemple, ce n’est pas tout à fait comme choisir une marque de lessive). En effet, les atteintes à la neutralité du réseau sont souvent le fait d’opérateurs en place, ou de fournisseurs de services bien implantés, utilisant une position de force pour évincer d’éventuels concurrents. Ce mode de fonctionnement n’est pas le modèle habituel d’Internet. En effet, sur un réseau neutre, n’importe quel abonné à Internet peut, de chez lui, proposer n’importe quel service, et peut donc, sans permis, sans moyens financiers particuliers, sans moyens techniques particuliers, innover et mettre en œuvre des idées nouvelles. Sur un réseau non-neutre, ce n’est plus possible. Les modèles économiques qui découlent de ce choix d’un réseau neutre ou non ont, entre autre conséquence, pour effet d’empêcher l’innovation en la réservant aux acteurs en place.

Si la neutralité du réseau n’est pas une liberté en elle-même, elle est nécessaire à pouvoir garantir d’autres libertés, tout comme la séparation et l’équilibre des pouvoirs n’est pas une liberté en elle-même, mais une condition nécessaire.

Modèle économique

L’argument le plus souvent employé par les opposants à la neutralité des réseaux est celui de la congestion. Internet serait trop plein, et, étant rempli, il faudrait rationnaliser l’usage de la bande passante devenue rare. La technique habituelle de rationalisation des ressources rares étant l’économie, on transporterait de manière plus prioritaire les données des plus offrants, et donc on pénaliserait les autres.

Cet argument a pour principale caractéristique d’être faux. Sauf dans sa causalité, en effet le réseau est très régulièrement saturé. Et ce de manière normale et naturelle. En moins de dix ans, la France est passée, par exemple, de zéro à plus de dix-huit millions d’accès permanents à haut débit, générant des usages, et donc de la charge pour le réseau. Dans cette croissance très rapide, bien entendu, il y a des phases de saturation, qui sont résorbées en investissant sur la capacité du réseau.

Il y a deux façons de traiter une saturation du réseau, l’une qui est d’investir sur la capacité du réseau, cet investissement devant être refait très régulièrement, aussi longtemps que les usages continueront de croître à un rythme soutenu, l’autre étant d’investir, très régulièrement aussi, dans des équipements permettant de sélectionner le trafic à faire passer en priorité. Ces deux modèles correspondent à des niveaux d’investissements similaires, simplement pas sur les mêmes technologies.

Porter atteinte à la neutralité du réseau est donc bien, effectivement, un moyen de résoudre une saturation du réseau, tout comme on peut résoudre une pénurie de logements en augmentant les prix des loyers, ou en construisant des logements. Simplement, ce moyen est dangereux, qui porte atteinte, comme on l’a vu, aux libertés. Laisser à des opérateurs privés, à des financiers, le choix de porter atteinte aux libertés individuelles n’est pas une option valable.

Difficultés techniques

Filtrer Internet, puisque c’est bien de cela qu’on parle, pose de grosses difficultés techniques :

  • Que ce soit du filtrage pur (faire disparaître tel contenu), et on se retrouve alors avec des moyens qui fleurissent pour contourner le filtre. Par exemple, tel texte est interdit, il circulera le lendemain sous forme d’une image, ou d’un enregistrement audio.
  • Que ce soit de la priorisation de trafic, et là aussi les moyens de contournement fleuriront. Le trafic web est plus rapide que le trafic de partage de musique chez mon opérateur ? Dans les jours qui suivent, l’application de téléchargement ressemblera à s’y méprendre à du trafic web, pour devenir elle aussi favorisée.

Ce n’est pas nouveau, c’est le principe de l’arme et de l’armure. Plus l’arme est puissante, plus l’armure est solide. Et, en matière de réseau et de numérique en général, la puissance des moyens de contournement des filtres se trouve sur les ordinateurs en périphérie du réseau (basiquement, sur mon bureau). Or il y a beaucoup plus de puissance sur les ordinateurs individuels des utilisateurs que sur la totalité de tous les systèmes de traitement du réseau lui-même. Pour faire un parallèle hasardeux : que les automobilistes décident de ne plus s’arrêter au péage, et, forcément, les barrières de péage seront explosées. Il y a trop de voitures pour les contenir autrement qu’avec la bonne volonté des conducteurs.

Difficulté politique

Par ailleurs, le filtrage décidé par un état, en général sous couvert de nobles objectifs, comme par exemple de museler les terroristes, ou de protéger les enfants, etc. pose une vraie difficulté politique.

Chaque état aura sa propre politique de filtrage, selon ses propres critères, correspondant à sa notion de l’intérêt général. Par exemple, l’Iran et les USA n’ont pas la même vision de ce qu’est un dangereux terroriste mettant en danger la nation. Or le trafic, sur Internet, passe d’un opérateur à l’autre, sans faire vraiment attention aux pays. Si chaque pays a sa propre politique de filtrage, alors le filtrage résultant, pour l’internaute, est la somme des effets de ces politiques sur le chemin suivi par sa communication.

Pour aboutir à un résultat cohérent, il faut donc une cohérence des filtrages. Sans quoi, quand je veux accéder à une information interdite dans le pays A, je m’arrange pour que ma connexion passe plutôt par un pays B qui a d’autres vues, chose qui est techniquement assez simple, et en train de se démocratiser. D’ailleurs, pourquoi ces techniques sont en train de se démocratiser ? Elles ont été mises au point en général pour des usages pointus, par exemple d’accéder aux données clefs de l’entreprise, pour le cadre dirigeant, depuis chez lui, sans risque pour la sécurité de l’entreprise. Elles ont été raffinées pour contourner les filtrages les plus voyants, par exemple pour accéder à de l’information y compris quand on est en Chine. Et elles sont en train de se démocratiser… à cause de la bataille d’Hadopi et des batailles voisines qui ont lieu dans toute l’Europe.

Le premier grand combat

Au final, tout ça nous dit quoi ? Qu’Internet est important, que ce n’est pas un jouet, mais un pilier de la société de demain. Et qu’on ne peut pas en faire n’importe quoi. En particulier, on ne peut pas se permettre de l’abîmer, de le polluer, de le filtrer.

La bataille d’Hadopi n’a été, finalement, qu’une des batailles, ni la première, ni la dernière, de la guerre qui vise à obtenir ou maintenir la liberté d’expression sur les réseaux, et donc qui vise à consacrer le principe de la neutralité du réseau. C’est la première grande guerre des enjeux politiques du 21e siècle.

Notes

[1] Qui portent, bien entendu, atteinte à la liberté d’aller et venir, qui est elle aussi une liberté fondamentale.




Première démonstration « open source » d’un théorème mathématique

Robynejay - CC by-saEst-ce uniquement par leur licence qu’un noyau Linux et une encyclopédie Wikipédia sont identifiés comme étant libres ?

Juridiquement parlant oui, mais s’en tenir là serait passer à côté du modèle collaboratif particulier que ce sont donnés ces deux fleurons de la culture libre pour développer leur projet.

Conséquence de la licence, c’est aussi voire surtout la puissance de ce modèle qui caractérise le Libre. Et ce modèle commence à se diffuser un peu partout dans la société…

Les mathématiques sont « libres » depuis la nuit des temps (enfin depuis que les pythagoriciens ont cessé de se cacher, pour être plus précis)[1]. Chacun est libre des les étudier, les copier et les améliorer en étant fortement encouragé à rendre évidemment publiques ces améliorations, dans la plus pure tradition universitaire.

C’est absurde, mais si il fallait a posteriori leur accoler une licence issue de la culture libre, ce pourrait être la plus simple des Creative Commons, la CC-By, puisque cette notion de paternité est très importante dans un monde scientifique avant tout motivé par la reconnaissance des pairs et la place laissée dans l’Histoire de leur champ disciplinaire.

On retrouve d’ailleurs souvent les crédits et les hommages dans les noms que l’on donne aux résultats. On parlera ainsi de la preuve selon Euclide du théorème de Thalès.

Les mathématiques seraient donc « libres », les professeurs également (enfin surtout en France dans le secondaire avec Sésamath), mais quid des mathématiciens eux-même et de leurs pratiques ? Et si ils s’organisaient à la manière d’un projet de développement d’un logiciel libre pour chercher et éventuellement trouver ensemble des résultats importants ?

Entendons-nous bien. Les mathématiciens ne vivent bien entendu pas dans une tour d’ivoire. Ils sont habitués à travailler et échanger ensemble au sein d’un laboratoire, lors d’un séminaire… et évidemment sur Internet. Mais l’aventure intellectuelle et collective du « Projet Polymath » que nous avons choisi de vous narrer ci-dessous est un peu différente, en ce sens que ses auteurs eux-mêmes la définissent comme une expérience « open source ».

Ne vous arrêtez surtout pas à la complexité mathématique de ce qu’ils cherchent à accomplir (à savoir une « meilleure » preuve d’un théorème déjà démontré !), c’est totalement secondaire ici. Ce qui nous intéresse en revanche c’est comment ils y sont arrivés (désolé d’avoir vendu la mèche) et les enseignements qu’ils en tirent pour l’avenir.

Parce qu’il se pourrait que cet mode opératoire, original et efficient, fasse rapidement des émules, et ce bien au delà des mathématiques.

Remarque : C’est le terme « open source » qui a été choisi tout du long par les auteurs et non « free software ». Contrairement au domaine logiciel, il ne s’agit pas d’un choix ou d’un parti pris mais tout simplement d’une question de sens : « open source mathematics » étant largement plus signifiant que « free software mathematics » !

Mathématiques massivement collaboratives

Massively collaborative mathematics

Timothy Gowers[2] et Michael Nielsen[3] – 24 octobre 2009 – Nature.com (Opinion)
(Traduction Framalang : Olivier et Goofy)

Le « Projet Polymath » est la preuve que l’union de nombreux cerveaux peut résoudre des problèmes mathématiques complexes. Timothy Gowers et Michael Nielsen nous livrent leurs réflexions sur ce qu’ils ont appris des sciences open source.

Le 27 janvier 2009, l’un d’entre nous, Gowers, a lancé une expérience inhabituelle par l’intermédiaire de son blog (NdT : avec ce billet Is massively collaborative mathematics possible?). Le Projet Polymath s’était fixé un but scientifique conventionnel : s’attaquer à un problème mathématique irrésolu. Mais son but plus ambitieux était d’innover dans la recherche en mathématiques. Reprenant l’idée des communauté open source comme Linux et Wikipédia, le projet s’appuyait sur des blogs et des wikis pour canaliser une collaboration complètement ouverte. Libre à tout un chacun d’en suivre la progression et s’il le désire d’apporter sa contribution. Les blogs et wikis étaient en quelque sorte une mémoire à court terme collective, un brainstorming ouvert à grande échelle dédié à l’amélioration des idées.

Le résultat de la collaboration dépassa de loin les espérances de Gowers, offrant une belle illustration de ce que nous pensons être une dynamique formidable pour les découvertes scientifiques : la collaboration de nombreux cerveaux connectés par Internet.

Le Projet Polymath visait à trouver une preuve élémentaire d’un cas particulier du théorème de Hales-Jewett sur la densité (NdT : DHJ pour Density Hales-Jewett), théorème central de l’analyse combinatoire, une branche des mathématiques qui étudie les structures discrètes (voir Morpion à plusieurs dimensions). Ce théorème avait déjà été démontré, mais les mathématiciens ne se contentent pas toujours d’un seul chemin. De nouvelles preuves peuvent déterminantes pour une meilleure compréhension du théorème. Trouver une nouvelle démonstration du théorème DHJ était important pour deux raisons. Tout d’abord il fait partie d’un ensemble de résultats fondamentaux possédant plusieurs démonstrations, alors que le théorème DHJ n’en avait jusqu’alors connu qu’une seule, longue, complexe, et très technique. Seul un élan de nouvelles idées pouvait amener à une preuve plus simple, s’appuyant sur des concepts de base plutôt que sur des techniques compliquées. Ensuite, du théorème DHJ découle un autre théorème important, le théorème de Szemerédi. La découverte de nouvelles preuves de ce théorème a conduit à de grandes avancées au cours de la dernière décennie, on pouvait donc raisonnablement s’attendre à ce qu’un même phénomène accompagne la découverte d’une nouvelle démonstration du théorème DHJ.

À l’origine du projet on retrouve Gowers. Il publia une description du problème, indiqua quelques ressources et établit une liste préliminaire de règles régissant la collaboration. Grâce à ces règles, les échanges sont restés polis et respectueux, elles encourageaient les participants à proposer une et une seule idée par commentaire, même sans la développer complètement. Ces règles stimulaient ainsi les contributions et aidaient à conserver le caractère informel de la discussion.

Mettre le projet sur les bons rails

La discussion collaborative a vraiment commencé le 1er février, doucement : il a fallu attendre plus de 7 heures avant que Jozsef Solymosi, un mathématicien de l’Université de la Colombie Britannique à Vancouver, fasse le premier commentaire. Quinze minutes après, un nouveau commentaire était posté par Jason Dyer, enseignant dans un lycée de l’Arizona. Trois minutes après, c’est Terence Tao (lauréat de la médaille Fields, la plus haute distinction en mathématiques), de l’Université de California à Los Angeles, qui écrivit son commentaire.

Au cours des 37 jours qui suivirent, ce sont pas moins de 27 personnes qui ont apporté leur contribution au travers d’environ 800 messages, pour un total de 170 000 mots. Personne n’a été spécialement invité à participer : la discussion était ouverte à tout le monde, des doctorants aux experts mathématiciens. Nielsen a mis en place un wiki pour mettre en avant les contributions importantes apparues dans les commentaires du blog. Au moins 16 autres blogs ont parlé du projet, il s’est hissé à la première page de l’agrégateur Slashdot technology et a donné naissance à un projet assez proche sur le blog de Tao.

Tout s’est déroulé sans accroc : pas de « trolls » (ces adeptes des posts non constructifs, voire malveillants), ni de commentaires bien intentionnés mais complètement inutiles (on peut malgré tout signaler que le wiki a été spammé). Le rôle de modérateur pris par Gowers se résumait essentiellement à corriger les fautes.

Le projet progressa bien plus rapidement qu’attendu. Le 10 mars, Gowers annonça qu’il était assez sûr que les participants au projet Polymath avaient découvert une preuve élémentaire d’un cas particulier du théorème DHJ et, qu’étonnamment (compte tenu des expériences avec des problèmes similaires), cette preuve pouvait être généralisée assez facilement pour prouver le théorème entier. La rédaction d’un article décrivant cette preuve est entreprise, ainsi que celle d’un second papier décrivant des résultats liés. De plus, alors que le projet était encore actif, Tim Austin, doctorant à l’Université de Californie, Los Angeles, publia une autre preuve (non élémentaire celle-ci) du théorème DHJ en s’appuyant largement sur les idées développées dans le projet Polymath.

Les archives du projet Polymath constituent une ressource exceptionnelle pour les étudiants en mathématiques, les historiens et autres philosophes des sciences. Pour la première fois, on peut suivre le cheminement intellectuel complet à l’origine d’un résultat mathématique sérieux. On y voit les idées naître, grandir, changer, s’améliorer ou être abandonnées, et on y découvre que la progression de la compréhension ne se fait pas nécessairement par un unique pas de géant, mais plutôt par le regroupement et le raffinement de plusieurs petites idées.

C’est un témoignage direct de la persévérance dont il faut faire preuve pour résoudre un problème complexe, pour progresser malgré les incertitudes et on réalise que même les meilleurs mathématiciens peuvent faire des erreurs simples et s’entêter à creuser une idée vouée à l’échec. Il y a des hauts et des bas et on ressent une vraie tension à mesure que les participants s’approchent d’une solution. Les archives d’un projet mathématique peuvent se lire comme un thriller, qui l’eût cru ?

Des implications plus larges

Le projet Polymath ne ressemble pas aux collaborations à grande échelle traditionnelles, comme on peut en trouver dans l’industrie ou dans les sciences. En général, ces organisations sont divisées hiérarchiquement. Le projet Polymath était complètement ouvert, chacun était libre d’apporter sa pierre à l’édifice… n’importe quelle pierre. La variété des points de vue a parfois apporté des résultats inattendus.

Se pose alors la question de la paternité : difficile de décréter une règle de paternité stricte sans heurt ou sans décourager des contributeurs potentiels. Quel crédit accorder aux contributeurs apportant uniquement une idée perspicace, ou à un contributeur très actif mais peu perspicace ? Le projet a adopté une solution provisoire : il signe ses articles du pseudonyme « DHJ Polymath » suivi d’un lien vers les archives (NdT : cf cette première publication ainsi signée A new proof of the density Hales-Jewett theorem). Grâce à la collaboration ouverte privilégiée par le projet Polymath, on sait exactement qui a fait quoi. Au besoin, une lettre de recommandation peut isoler les contributions d’un membre du projet en particulier, comme c’est déjà le cas en physique des particules où il est courant de voir des articles avec des centaines d’auteurs.

Se pose aussi le problème de la conservation. Les archives principales du projet Polymath sont dispersées sur deux blogs (1 et 2) et un wiki, le rendant très dépendant de la disponibilité de ces sites. En 2007, la bibliothèque du Congrès américain a initié un programme de conservation des blogs tenus par les professionnels du droit. De la même manière, mais à plus grande échelle, un programme similaire est nécessaire pour conserver les blogs et wikis de recherche.

D’autres projets, ayant vu le jour depuis, permettront d’en apprendre plus sur le fonctionnement des mathématiques collaboratives. Il est en particulier crucial de savoir si ce genre de projet peut être élargi à plus de contributeurs. Bien qu’il ait rassemblé plus de participants qu’une collaboration classique en mathématiques, le projet Polymath n’est pas devenu la collaboration massive que ses créateurs espéraient. Ceux qui y ont participé s’accordent sur le fait que pour grandir, il faudrait que le projet adapte sa manière de procéder. La narration linéaire du blog posait, entre autre, problème aux nouveaux arrivants. Difficile pour eux, parmi la masse d’informations déjà publiées, d’identifier où leur aide serait la plus précieuse. Il y avait également le risque qu’ils aient loupé un « épisode » et que leur apport soit redondant.

Les projets de logiciels libres utilisent des logiciels de suivi de version pour organiser le développement autour des « problèmes », des rapports de bogues ou des demandes de fonctionnalités en général. Ainsi, les nouveaux arrivants ont une vision claire de l’état du projet, ils peuvent concentrer leurs efforts sur un « problème » particulier. De même, la discussion est séparée en modules. Les futurs projets Polymath pourraient s’en inspirer.

Bientôt, les sciences ouvertes

L’idée derrière le projet Polymath est potentiellement applicable à tous les défis scientifiques, mêmes les plus importants comme ceux pour lesquels le Clay Mathematics Institute de Cambridge, Massachussets offre un prix d’un million de dollars. Même si certaines personnes souhaiteront toujours garder tout le mérite pour elles-mêmes et être pour ainsi dire refroidies par l’aspect collaboratif, d’autres au contraire pourraient y voir une excellente opportunité d’être associés à la résolution de l’un de ces problèmes.

Dans d’autres disciplines, l’approche open source ne gagne que très lentement du terrain. Un domaine s’y est ouvert avec succès : la biologie synthétique. Les informations ADN d’organismes vivants sont enregistrées numériquement et envoyées à un dépôt en ligne, comme celui du MIT Registry of Standard Biological Parts. D’autres groupes peuvent utiliser ces informations dans leur laboratoire et, s’ils le souhaitent, reverser leurs améliorations au dépôt. qui compte actuellement plus de 3 200 contributions, apportées par plus de 100 entités différentes. Les découvertes qui en découlent ont fait l’objet de nombreux articles comme par exemple Targeted Development of Registries of Biological Parts. La biologie open source et les mathématiques open source montrent comment la science peut progresser grâce aux diverses contributions apportées par des gens aux compétences variées.

On pourrait, de la même manière, employer ces techniques open source dans d’autres domaines, telle la physique et l’informatique théoriques, où les données brutes contiennent de nombreuses informations et peuvent être partagées librement en ligne. Appliquer les techniques open source aux travaux pratiques est plus délicat, les conditions expérimentales étant difficilement reproductibles. Quoiqu’il en soit, le partage libre des données expérimentales permet néanmoins leur analyse libre. Adopter ces techniques open source à grande échelle ne sera possible que grâce à un changement profond des mentalités en science et au développement de nouveaux outils en ligne. Nous croyons à un fort développement de la collaboration de masse dans de nombreux domaine des sciences, et que cette collaboration massive repoussera les limites de nos capacités à résoudre des problèmes.

Notes

[1] Crédit photo : Robynejay (Creative Commons By-Sa)

[2] Timothy Gowers appartient au Departement of Pure Mathematics and Mathematical Statistics de l’Université de Cambridge, Wilberforce Road, Cambridge CB3 0WB, UK et il est Royal Society 2010 Anniversary Research Professor.

[3] Michael Nielsen est écrivain et physicien, il habite à Toronto et travaille sur un livre sur le futur de la science.




Avez-vous le réflexe OpenStreetMap ?

Francois Schnell - CC byDans la série « les projets pharaoniques (mais sans esclaves) de la culture libre hors logiciels », on cite toujours, et à juste titre, Wikipédia. Mais il se pourrait bien qu’OpenStreetMap vienne rapidement le rejoindre aux yeux du grand public.

Afin d’accélerer le mouvement, adoptons tous « le réflexe OpenStreetMap », qu’il s’agisse de participer directement à son édition ou plus modestement de l’utiliser autant que faire se peut dans nos documents, messages, sites, blogs et autres réseaux sociaux.

Qu’est-ce qu’OpenStreetMap, ou OSM pour les intimes ?

(et je m’adresse ici bien moins aux fidèles lecteurs du Framablog qu’à ceux, bienvenus, qui arrivent un peu par hasard et curiosité, par exemple à partir de Wikio et son « classement » des blogs)

Commençons par ce petit reportage vidéo issu des archives Framatube, et poursuivons en interrogeant encore (et toujours) Wikipédia : « OpenStreetMap est un projet pour créer des cartes libres du monde, en utilisant le système GPS ou d’autres données libres. OpenStreetMap a été fondé en juillet 2004 par Steve Coast au University College de Londres. Les cartes sont disponibles sous les termes de la licence Creative Commons Attribution-ShareAlike 2.0. Par l’utilisation de moyens informatiques basés sur Internet qui permettent l’intervention et la collaboration de tout utilisateur volontaire, le projet OpenStreetMap relève de la géomatique 2.0 et est aussi une contribution à ce qui est appelé la néogéographie. »

Du coup on le surnomme parfois « le Wikipédia de la cartographie » et, licences et affinités obligent, on ne s’étonnera pas de trouver les cartes de l’un dans les articles de l’autre.

Mais vous en saurez beaucoup plus en parcourant l’excellent dossier OpenStreetMap, les routards du web réalisé cet été par Camille Gévaudan pour le non moins excellent site Ecrans.fr (l’année d’avant c’était le tour de Wikipédia mais surtout de la désormais célèbre Saga Ubuntu d’Erwan Cario !).

Non seulement ce dossier nous permet de mieux appréhender le projet dans son extraordinaire dimension collaborative (avec interview de contributeurs à la clé) mais il fournit en prime un mode d’emploi par l’exemple pour ceux qui aimeraient à leur tour participer à dessiner librement le monde. Ce qui, par contagion, est une conclusion presque naturelle de la lecture du dossier (quand bien même on vous prévient qu’il faut être sacrément motivé parce que techniquement parlant les ballades « Je cartographie ma ville pour OpenStreetMap » relèvent parfois du parcours du combattant).

Extraits de l’introduction :

OpenStreetMap, sorte de Wikipédia de la cartographie, est un projet un peu fou qui tente depuis 5 ans de redessiner le monde (…), rue après rue. Sa communauté œuvre d’abord par idéologie. Convaincue que les données géographiques de la planète devraient appartenir au bien commun et non aux agences qui les ont relevées pour les exploiter commercialement.

(…) Et comme toute réutilisation des contenus propriétaires de Google Maps, Yahoo ! Maps et autres Mappy est formellement interdite, l’exercice est un peu sportif… au sens littéral du terme. Ni clavier ni souris : les outils du cartographe 2.0 sont un appareil GPS et une voiture, un vélo ou une bonne paire de baskets. On enregistre son itinéraire en parcourant méthodiquement les rues de sa ville ou les sentiers d’une randonnée locale, avant de transférer les coordonnées sur son ordinateur et de convertir le paquet de chiffres en tracés de routes. La dernière étape consiste à associer aux tracés des informations (nom, type de voie, largeur…) qui leur permettent d’être correctement interprétés et affichés sur la carte interactive.

(…) L’ampleur du travail à fournir et le côté un peu « roots » du projet ne semble pas décourager les participants, dont les contributions sont de plus en plus nombreuses. Quand on s’est toujours figuré les militants du Libre comme des geeks blafards et sédentaires, on ne peut qu’être fortement intrigué…

Alors, à Ecrans.fr, on a eu envie d’essayer aussi. Un GPS en main (…), on se donne comme objectif d’apporter une petite pierre à l’édifice. Disons deux ou trois rues, pour commencer. Lire la suite…

Mais est-ce que ne pas posséder de GPS est éliminatoire pour contribuer ? Que nenni !

Rendez-vous sur le wiki francophone du site officiel où l’on vous expliquera[1] comment vous pouvez cartographier les traces GPS existantes et/ou ajouter des informations (ou tags) aux cartes qui ne demandent que cela (cf cette page et cette aide-mémoire pour avoir une idée de la diversité de la chose). On remarquera qu’il n’y aucune raison de se restreindre aux routes et chemins proprement dits, comme en témoignent ces extensions au projet que sont OpenCycleMap[2] (vélo), OpenPisteMap (ski) ou encore OpenSeaMap (balises maritimes) !

Imaginons maintenant que vous n’ayez ni GPS, ni la patience, la disponibilité, etc. d’enrichir les informations des cartes ? Et bien vous pouvez quand même participer !

En effet, à chaque fois que vous avez besoin d’afficher une carte dynamique sur vos sites, oubliez Google Maps[3] et autres aspirateurs propriétaires à données, et pensez à OpenStreetMap.

Comme la planète entière n’a pas encore été « openstreetmapisée » (une question de temps ?), il se peut fort bien que votre zone géographique soit mal ou non renseignée. Mais dans le cas contraire (comme c’est généralement désormais le cas pour les grandes voire moyennes villes occidentales), ce serait vraiment dommage de s’en priver et ne pas en profiter du même coup pour faire à moindre effort la promotion de ce formidable projet.

Comment procède-t-on concrètement ? C’est très simple. On se rend sur le site d’OpenStreeMap et on parcourt le monde en zoomant jusqu’à tomber sur le lieu qui nous intéresse. Si vous êtes satisfait du résultat (c’est à dire si les dimensions et la qualité de la carte vous conviennent), cliquez alors sur l’onglet Exporter en choisissant le format HTML incorporable. Un code à recopier directement sur votre site Web vous sera alors proposé (notez au passage que l’on peut également exporter en XML, PDF, PNG, etc.).

Voici ce que cela donne ci-dessus pour mon chez moi à moi qui se trouve pile au centre de la carte (que l’on peut aussi consulter en grand sur le site d’OSM bien entendu).

D’ailleurs si vous passez un jour à Rome, n’hésitez pas à me contacter pour qu’on refasse le monde ensemble autour d’un cappuccino !

Autant le refaire plus libre qu’avant du reste, si vous voulez mon humble avis 😉

MapOSMatic - Exemple de La Cantine à ParisMais ça n’est pas fini ! En combinant les données, le très prometteur projet dérivé MapOSMatic vous délivre de véritables cartes « qualité pro » avec un magnifique index coordonné des rues.

Par exemple, si je veux vous donner rendez-vous à La Cantine à Paris pour un « TrucCamp » autour du libre, je peux faire comme précédemment mais je peux également y adjoindre une carte générée par MapOSMatic avec le PDF du plan et de son index (cf photo ci-contre et pièces jointes ci-dessous). Impressionnant non ?! Le tout étant évidemment sous licence libre.

Il faut vraiment être blasé pour ne pas s’enthousiasmer une fois de plus sur la formidable capacité de travail que peuvent fournir bénévolement les gens lorsqu’il sont motivés par une cause qui leur semble noble, juste et source de progrès.

Pour le moment le programme est restreint à la France (à ce que j’en ai compris), pour cause de projet démarré chez nous[4], mais nous n’en sommes qu’au début de l’application qui ne compte certainement pas en rester là.

Voilà, d’une implication forte (mais qui fait faire de belles ballades individuelles ou collectives en mapping party) à une participation plus légère (qui rend service et embellit nos sites Web), prenons tous « l’habitude OSM » et parlons-en autour de nous. Ce n’est pas autrement que nous réussirons là encore un projet de type « ils ne savaient pas c’était impossible alors ils l’ont fait » qu’affectionne tout particulièrement le logiciel libre lorsqu’il part à la rencontre des biens communs.

« La route est longue mais la voie est libre », avons-nous l’habitude de dire à Framasoft. Ce n’est pas, bien au contraire, le projet OpenStreetMap qui nous démentira !

Notes

[1] Dans la mesure où l’édition dans OpenStreetMap n’est pas forcément chose aisée, je me prends à rêver d’un framabook dédié ouvrant plus facilement l’accès au projet. Des volontaires ?

[2] Crédit photo : François Schnell (Creative Commons By)

[3] À propos de Google Maps, quelques questions pour d’éventuels commentaires. Peut-on considérer que les deux projets sont concurrents ? Est-ce que la comparaison est valable et valide ? Est-ce que, à terme, l’un peut librement se substituer à l’autre ?

[4] À propos de MapOSMatic, sachez que l’un des prochains entretiens du Framablog concernera justement ce projet puisque nous partirons à la rencontre de l’un de ses créateurs, le prolifique développeur Thomas Petazzoni.