Internet ne peut pas être contrôlé, autant s’y faire – par Laurent Chemla

Evil Erin - CC byOn trouve un article puissant et inédit de Laurent Chemla en ouverture (ou prolégomènes) du tout récent framabook AlternC Comme si vous y étiez.

Historiquement, techniquement, économiquement et moralement, Internet ne peut pas être contrôlé[1].

Autant s’y faire. Et, contrairement à d’autres, nous nous y faisons très bien 😉

Pour rappel toute l’équipe l’AlternC vous attend à La Cantine lundi 28 mars prochain (de 19h à 22h) pour fêter simultanément la sortie du livre, les dix ans d’AlternC et la version 1.0 du logiciel !

Remarque : Ce n’est pas le premier article de Chemla que nous reproduisons sur le Framablog (cf L’avenir d’Internet). Par ailleurs je le remercie de m’avoir ouvert les yeux en 1999 avec Internet : Le yoyo, le téléporteur, la carmagnole et le mammouth.

Internet ne peut pas être contrôlé, autant s’y faire

Laurent Chemla – juillet 2010 – Licence Creative Commons By-Sa

Plus que jamais, à l’heure où j’écris ces lignes, Internet est la cible des critiques du pouvoir. Il serait responsable de toutes les dérives, de toutes les ignominies, il nous ramènerait aux pires heures de notre histoire et serait le lieu de toutes les turpitudes.

Bon. Depuis longtemps, je dis qu’il est normal – de la part de ceux qui disposaient de l’exclusivité de la parole publique – de s’inquiéter de l’avènement d’un outil qui permet à tout un chacun de s’exprimer. Pas de quoi s’étonner, dès lors, des attaques furieuses que subit le réseau.

Tant qu’il ne s’agit que de mots…

Oh bien sûr, le législateur étant ce qu’il est, il tente souvent d’aller au delà des mots. Il fait aussi des lois. C’est son métier.

Or donc – sans volonté d’exhaustivité – nous avons vu depuis 1995 un certain nombre de tentatives de « régulation », de « contrôle », voire même de « domestication ». Il y a eu la loi Fillon, la commission Beaussant, la LCEN, la DADVSI, la LSI, la LSQ, et plus récemment HADOPI et LOPPSI. Beaucoup d’acronymes et de travail législatif pour un résultat plus que mince : ce qui n’a pas été retoqué par le Conseil Constitutionnel s’est toujours avéré inapplicable.

La seule chose qui reste, c’est le principe d’irresponsabilité pénale des intermédiaires techniques (LCEN). Grand succès !

On pourrait imaginer que le pouvoir apprendrait quelque chose d’une telle suite d’échecs. On pourrait penser, par exemple, qu’il mesurerait le risque de vouloir créer des lois d’exceptions selon qu’on s’exprime sur Internet ou ailleurs. Que nenni : aujourd’hui encore, j’apprends qu’une député vient de se ridiculiser en proposant d’encadrer le journalisme « en ligne ».

J’ai hâte. On en rigole d’avance.

Mais qu’est qui rend Internet si imperméable à ces tentatives réitérées de contrôle ? J’y vois (au moins) quatre raisons majeures :

La première (dans tous les sens du terme) est historique. À la demande de l’armée américaine, qui souhaitait trouver une parade au risque d’une attaque nucléaire contre son réseau de télécommunication, Internet a été inventé à la fin des années 1960 (dans l’Amérique de Woodstock et de la lutte contre la guerre du Vietnam) par de jeunes universitaires qui rêvaient d’un monde dans lequel l’accès à un réseau mondial de communication serait un droit pour tous (pour que son impact social soit positif)[2].

À l’époque de Mac Luhan, les bases théoriques du futur réseau sont toutes influencées par l’utopie du « village global » et teintées d’idéologie libertaire. Le principe selon lequel la rédaction d’une RFC (texte définissant un des standards d’Internet) doit être ouverte à tous, scientifique ou non – et son contenu libre de droit – est adopté en avril 1969.

Quoi d’étonnant dès lors si le résultat est un réseau presque entièrement décentralisé et non hiérarchique ? Après tout, c’est bien ce que l’armée américaine avait demandé à ses jeunes ingénieurs : un réseau centralisé est facile à détruire (il suffit d’attaquer le centre).

Tout ce qui est facile à contrôler est facile à détruire.
Internet est difficile à détruire.
Donc Internet est difficile à contrôler.

Il faudrait, pour qu’Internet soit plus aisément « domestiquable », que ses bases théoriques mêmes soient revues (à l’exemple du Minitel pour lequel l’émission de contenus était soumise à l’approbation préalable de France Telecom). Mais comment démanteler l’existant et interdire l’utilisation d’une technologie ayant fait ses preuves à tous ceux qui l’ont adoptée depuis des années ?

Et surtout – c’est la seconde raison qui fait d’Internet un bastion dont la prise semble bien difficile – le réseau est international.

On peut, même si c’est difficile à envisager, imaginer qu’un pays impose à ses citoyens l’usage d’une technologie « contrôlée » plutôt qu’une autre, trop permissive. Mais quel pouvoir pourrait faire de même à l’échelle du monde ?

Et comment, dès lors qu’il existerait ne serait-ce qu’un seul endroit dans le monde qui protège la liberté totale de communication (comme c’est le cas depuis peu de l’Islande), empêcher les citoyens et les entreprises du monde entier d’exporter dans ce lieu une communication désormais dématérialisée ?

Pour y parvenir, il faudra non seulement pouvoir contrôler tel ou tel réseau imaginaire, mais aussi réussir à interdire toute communication internationale… Mission impossible. Et puis, comment imaginer la fin des « paradis numériques » dans un monde qui n’a jamais réussi à obtenir celle des paradis fiscaux ?

Internet est supranational.
Il existera toujours des paradis numériques.
Donc l’information ne pourra jamais être contrôlée.

D’autant plus – et c’est la troisième raison majeure qui rend dangereuse toute tentative de contrôle des réseaux – qu’Internet est devenu désormais une source de croissance non négligeable. Une croissance qui dépend d’une législation pérenne et qui surtout va faire l’objet d’une concurrence effrénée entre les pays.

On n’imagine pas aujourd’hui une grande entreprise, telle que Google ou Facebook, avoir son siège social dans un pays dont la fiscalité n’est pas, disons, encourageante. Comment imaginer que demain une entreprise innovante, source d’emplois et d’impôts, se créera dans un pays dont la législation imposerait un contrôle trop strict de l’information diffusée ?

Tout contrôle nécessite une infrastructure plus chère, tant humaine que technique. Il va de soi qu’une entreprise capitaliste choisira plutôt, si elle a le choix, le pays d’accueil dont la législation numérique sera la plus laxiste, qui récupérera du coup les emplois et les impôts (et je ne dis pas que c’est bien : je dis juste que c’est dans ce monde là qu’on vit).

Et même avant d’en arriver là : imaginons qu’un pays impose le filtrage à la source de tout contenu illégal (en passant outre la difficulté technique inhérente). Quel entrepreneur de ce pays osera se lancer dans un nouveau projet novateur, sachant qu’il sera immédiatement copié par un concurrent vivant, lui, dans un paradis numérique et qui ne sera pas soumis aux mêmes contraintes ?

Internet est solide, c’est vrai, mais l’innovation reste fragile, et est souvent l’oeuvre de petites structures très réactives et pécuniairement défavorisées. Les lois votées à l’emporte-pièces sans tenir compte de cette fragilité-là sont autant de balles tirées dans le pied de la société toute entière.

La concurrence est mondialisée.
Une législation de contrôle coûte cher.
Donc les lois de contrôle d’Internet sont source de délocalisation.

Malgré tout il existe bel et bien des règles de vie supranationales et qui s’imposent à tout pays se voulant un tant soit peu démocratique. Mais si.

Je vais citer ici l’article 19 de la Déclaration Universelle des Droits de l’Homme. Lisez-la bien :

« Tout individu a droit à la liberté d’opinion et d’expression, ce qui implique le droit de ne pas être inquiété pour ses opinions et celui de chercher, de recevoir et de répandre, sans considérations de frontières, les informations et les idées par quelque moyen d’expression que ce soit ».

Elle a été rédigée en 1948. Bien avant Internet, même si à la lire on a l’impression qu’elle a été écrite spécialement pour lui. Car en effet, il n’existait pas grand chose, avant Internet, pour « recevoir et répandre sans considération de frontière les informations et les idées ». Il faut croire que ses rédacteurs étaient visionnaires…

Comment s’étonner, à la lecture de cet article, du nombre de censures que notre Conseil Constitutionnel a opposé aux diverses velléités de contrôle que le pouvoir a tenté d’imposer depuis 15 ans ?

Le droit de recevoir et diffuser de l’information est inaliénable.
Internet est à ce jour l’unique moyen d’exercer ce droit.
Donc tout contrôle d’Internet risque d’être contraire aux droits de l’homme.

Sauf à s’exonérer des grands principes fondamentaux, et donc à vivre dans une société totalitaire, le contrôle ou le filtrage d’Internet se heurtera toujours à la liberté d’expression. Les états peuvent l’accepter, et à l’instar de l’Islande décider d’en profiter, ou refuser de le voir et, à l’instar de la France, se heurter sans cesse à un mur en essayant encore et encore de réguler ce qui ne peut l’être.

Historiquement, techniquement, économiquement et moralement, Internet ne peut pas être contrôlé.

Autant s’y faire.

Notes

[1] Crédit photo : Evil Erin (Creative Commons By)

[2] J.C.R Licklider et Robert Taylor, The Computer as a Communication Device in Science and Technology, April 1968.




Le long chemin du Libre Accès au Savoir à l’Université

Liber - CC by-saLa question du libre accès au savoir en général et à l’université en particulier est un enjeu fondamental de nos sociétés contemporaines.

Nous en avions déjà parlé sur le Framablog en relayant une fort intéressante interview de Jean-Claude Guédon.

Aujourd’hui, alors que l’on dispose de tout l’arsenal technique et juridique nécessaire pour en assurer sa large diffusion, il est encore recouvert d’un voile. Un voile hérité du passé qui a ses raisons historiques mais qu’il convient désormais petit à petit de tenter de lever[1].

C’est tout l’objet de cette dense et instructive traduction qui s’intitule fort judicieusement « Découvrir le libre accès ».

Découvrir le libre accès

Uncovering open access

Michael Patrick Rutter et James Sellman – 9 novembre 2010 – OpenSource.com
(Traduction Framalang : Gagea, Zilor, Seb seb et Siltaar)

Pour le grand public, « faire de la science » ne concerne que la recherche. Mais à dire vrai, ce n’est qu’à moitié exact. Réfléchissez à l’expérience d’un obscur moine Augustin du XIXe siècle…

De 1856 à 1863, Gregor Mendel a cultivé et observé 29.000 plants de pois et a réussi à percer quelques-uns des secrets de l’hérédité, y compris les notions de traits dominants et récessifs.

En 1865, Mendel présente ses découvertes lors d’une conférence en deux parties, « Recherches sur des hybrides végétaux » devant la Société d’Histoire Naturelle de Brünn (aujourd’hui Brno, République tchèque). Il publie ses résultats un an plus tard dans les comptes-rendus de la société, dont on connaît 115 exemplaires ayant été distribués. Après cela, son travail minutieux a disparu — pratiquement sans laisser de traces — pendant 35 ans. À l’échelle de la recherche scientifique, un éon.

Du coup les biologistes avancent à grand-peine, recherchant vainement à expliquer l’hérédité à travers d’étranges théories sur les mélanges ou encore avec la notion sérieuse mais erronée de « pangenèse » de Darwin. Finalement, en 1900, le travail de Mendel est redécouvert et aide à lancer la science moderne de la génétique. Le destin des recherches de Mendel est un rappel brutal qu’outre la découverte, la science est fortement assujettit à la diffusion, c’est-à-dire à l’accès de ces découvertes.

Le libre accès vise, par la puissance d’Internet, à rendre la documentation universitaire disponible gratuitement au monde entier. Aucun mot de passe. Aucun frais d’abonnement. Et aujourd’hui, il est dans l’œil du cyclone de la publication scientifique — avec Harvard, et un innatendu semeur de discorde nommé « Stuart Shieber ‘81 », en plein cœur du débat.

Shieber, informaticien de l’école d’ingénieur et des sciences appliquées (SEAS) de Harvard et infatigable défenseur du libre accès, a mis en place un programme de libre accès à la connaissance que la faculté des arts et sciences de Harvard (FAS) a adopté unanimement en février 2008. Réfléchi, la voix douce, presque serein, on a de la peine à l’imaginer jouant le rôle du révolutionnaire.

Richard Poynder, astucieux observateur du paysage changeant du journalisme et de l’édition, a insinué sur son blog qu’il manquait à ce « modèle » pour le libre accès, le cran nécessaire pour mener le mouvement plus loin. Mais résolu, Shieber persévère.

Le cœur de sa proposition : « chaque membre d’une faculté accorde au président, et à ses collaborateurs, de l’université d’Harvard la permission de rendre disponible ses articles universitaires et d’y jouir des droits d’auteurs ». Ne vous laissez pas tromper par ce lieu commun : c’est une vraie bombe. Cela a fait la « une » et a agité Internet, salué par des titres tels que « audacieux et visionnaire » et même par « un coup de pied dans la fourmilière du monde académique ».

Tandis que la politique de libre accès d’autres universités se base sur l’aptitude individuelle des membres à choisir, celle d’Harvard consiste à rendre leur travail librement (et gratuitement) disponible par défaut, à moins que — pour une publication en particulier — un membre de l’université décide du contraire.

Selon Peter Suber, un fervent défenseur du libre accès et actuellement enseignant de passage à l’école de droits « Centre pour Internet et la Société » de Berkman, il s’agit de « la meilleure politique universitaire qui existe ». Un bureau nouvellement créé pour les communications universitaires (OSC), dirigé par Shieber, a été chargé de gérer cette politique, incluant l’archivage des publications dans un dépôt central, connu sous le nom de DASH, pour « accès numérique au savoir à Harvard » (NdT : Digital Access to Scholarship at Harvard).

Mais pourquoi tout ce ramdam ? Internet n’a t-il pas déjà mis les sphères du savoir à la portée de tous d’un simple clic de souris ? Paradoxalement rien n’est moins sûr. Shieber fait en effet remarquer que, contrairement à ce qui est communément admis, l’accès des académies à des informations universitaires pertinentes est en fait en train de diminuer. Le problème ne vient pas de la technologie utilisée pour diffuser le savoir mais plutôt de l’incapacité croissante des institutions et des individus à payer pour y accéder. À côté, la politique de Harvard est d’une limpide et élégante simplicité. Suber explique ainsi qu’« avec cette nouvelle politique, les membres de la faculté gardent certains des droits qu’ils avaient précédemment donnés aux éditeurs, et utilisent ces droits pour permettre le libre accès ».

Pour les traditionnels éditeurs académiques, c’était un coup de semonce sans précédent. De plus, le département d’éducation et le département de droit ont rapidement adoptés des politiques similaires. Et le 15 septembre, les unversités de Cornell, de Darmouth, du MIT et l’université de Californie de Berkeley ont toutes rejointes Harvard dans un accord général pour supporter la publication en libre accès, en fournissant un support administratif, technique et financier.

Le changement est dans l’air du temps, mais où cela nous mène t-il, et qu’est-ce que cela présage ? Pour comprendre la controverse sur le libre accès vous devez revenir en arrière et explorer la longue histoire de l’université, l’ascension de l’édition universitaire et les financements fédéraux de la recherche depuis la Seconde Guerre mondiale, en bifurquant également vers l’ascension d’Internet et le rôle changeant des bibliothèques. Vous rencontrerez même, au cours de ce voyage, la nature de l’homme (ou, au moins celle de l’université). C’est un parcours compliqué mais essentiel pour comprendre où nous en sommes… et ce vers quoi nous nous dirigeons.

Le caractère d’imprimerie mobile crée une brèche dans la tour d’ivoire

Avant les Lumières, l’université était une structure très différente des institutions d’aujourd’hui centrées sur la recherche. Les universités médiévales, telles que Oxford (vers 1167), avaient un accent essentiellement religieux, et pendant des siècles leurs efforts de diffusion ont eux aussi été motivés par la foi : Harvard, par exemple, a été fondée en 1636 principalement dans le but de former des ministres. Mais petit à petit, sous l’influence des principes humanistes qui ont émergé au cours de la Renaissance, l’université amorça une métamorphose en donnant finalement naissance à la structure de recherche que nous connaissons aujourd’hui. Et la publication est au cœur de cette transformation.

L’Oxford University Press (OUP) a été l’un des tout premiers éditeurs académiques modernes. Comme l’explique le site de l’OUP, il est apparu dans le cadre de « la révolution des technologies de l’information à la fin du XVe siècle, qui a commencé avec l’invention de l’imprimerie à partir des caractères mobiles ». Lettres de plomb, nichées dans des cassetins en bois, il y a quelque chose de séduisant à mettre en parallèle la révolution numérique et un ensemble de bouts de métal tâchés. Mais comparez la tâche ardue de la copie à la main et l’enluminure d’un manuscrit avec la facilité toute relative de mettre en place (et imprimer) un caractère, et d’un seul coup vous vous rendrez compte des progrès immenses qui ont été alors accomplis.

De plus, avec l’adoption généralisée de l’imprimerie moderne, les portes de l’académie se sont petit à petit ouvertes. Les universités ont commencé par publier des Bibles et d’autres travaux religieux mais rapidement l’étendue de leur activité à commencé à s’élargir, se diversifiant dans les dictionnaires, les biographies, la musique, et les journaux. Les universités ont appris que pour conserver le savoir de leur faculté, ils avaient besoin de le diffuser : le savoir et l’accès au savoir sont allés de pair. Par conséquent les universités se sont aussi tournées vers l’édition de contenus académiques, et vers le XVIIIe siècle, beaucoup ont publiés leurs propres revues de recherche.

Les éditeurs commerciaux avancent prudemment dans le paysage

En revanche, les éditeurs commerciaux firent leur entrée dans le paysage académique de manière plus progressive. La publication commerciale était déjà soumise à une grande compétition, et les éditeurs peu enclins à prendre des risques. Dans un essai perspicace sur la presse universitaire américaine, Peter Givler remarque que livrer la publication de « la recherche académique hautement spécialisée » aux lois du marché « reviendrait, en effet, à la condamner à languir sans public ». Mais, contrairement à d’autres, les éditeurs commerciaux, avaient cependant les moyens nécessaire à sa distribution.

Pourtant, malgré le développement des presses universitaires et le foisonnement de l’activité scientifique, les résultats des travaux de recherche continuèrent à être étonnamment inacessibles. Jusqu’au XIXe siècle, la plus grande partie de l’échange d’information scientifique avait lieu dans des cercles fermés — dans les salons victoriens d’organisations réservées aux membres, comme la Royal Society en Angleterre, ou dans les sociétés scientifiques locales d’histoire naturelle devenant de plus en plus nombreuses. Même si nombre de ces sociétés publiaient des Comptes-rendus, elles et leurs publications, limitèrent l’accès aux trouvailles scientifiques — comme dans le cas de Mendel et des 115 tirages connus des Comptes-rendus de la Société d’Histoire Naturelle de Brünn de 1866.

De tels effort reflètent au moins la prise de concience du besoin de diffuser les savoirs. Aux États-Unis, par exemple, l’Association américaine pour l’avancée de la science (AAAS) fut fondée en 1848. Et La Lawrence Scientific School (ancêtre de SEAS), à Harvard, fut créée entre 1846 et 1847. Dans une lettre à l’Université, Abbott Lawrence — dont les dons permirent la fondation de la nouvelle école — exprima son inquiétude quant au fait « que nous avons été plutôt négligents dans la culture et l’encouragement de la partie scientifique de notre économie nationale ». Les éditeurs, à quelques exceptions près, étaient de ceux qui délaissaient l’entreprise scientifique de l’État. Et à la fin du XIXe siècle, la publication universitaire commerciale commença à se rapprocher de son apparence actuelle. En 1869, par exemple, l’éditeur Alexander Macmillan créa la revue Nature en Angleterre (Celle-ci n’a essentiellement survécu pendant un moment que par un travail personnel passioné : selon le site internet de Nature, Macmillan « supporta une aventure à perte pendant trois décennies »).

Aux États-Unis, la revue Science Magazine (qui sera plus tard simplifiée en Science) joua un rôle semblable, en tant que journal de connaissance scientifique générale. Et, comme Nature, elle dût affronter des défis économiques. Du temps de Thomas Edison et Alexandre Graham Bell, le journal commença à être imprimé en 1880. Mais il survécut tout juste à une série de crises financières, avant d’atteindre un niveau de stabilité grâce à un partenariat avec la revue de l’AAAS alors naissante. Science et Nature élevèrent, et même libérèrent, la communication universitaire, offrant une large vue d’ensemble des découvertes à tous ceux acceptant de payer la cotisation, alors relativement faible. De plus, de nombreux anciens éditeurs universitaires devenus commerciaux, comme Macmillan, ont estimé que la diffusion du savoir pouvait être facteur de profit.

Mais quel est l’intérêt des efforts de publication de l’époque victorienne en ce qui concerne le savoir libre d’accès ? Les problématiques présentes à la naissance du savoir moderne et de la publication universitaire (comment diffuser et archiver le savoir et, tout aussi important, comment payer pour celà) sont toujours les mêmes. Ce sont les même défis que nous devons affronter aujourd’hui. Depuis les manuscrits enluminés à la main et aux bordures dorés, en passant par les caractères de plomb et les presses à vapeur, jusqu’au silicium, aux bits et aux octets, le problème a toujours été celui de l’accès : qui le possède, qu’est-ce qu’il coûte, et est-il suffisant ?

Les chercheurs et les éditeurs — un partenariat en péril

Durant la dernière moitié du XXe siècle, alors que l’effectif des entreprises scientifiques, des collèges et des universités allaient croissant, un partenariat durable a vu le jour entre les chercheurs et les éditeurs. Ironiquement, une grande partie du mérite en revient à la Seconde Guerre Mondiale. En effet La guerre a mis en évidence l’importance stratégique non seulement de la science mais de l’accès à l’information scientifique. Dès le départ, le président Franklin D. Roosevelt et le premier ministre Winston Churchill sont parvenus à un accord informel stipulant que les États-Unis et la Grande Bretagne devraient partager (sans frais) tout développement scientifique ayant une valeur militaire potentielle. Le gouvernement fédéral a aussi collaboré comme jamais il ne l’avait fait auparavant avec les universités et le secteur privé, surtout pour le projet Manhattan et la création de la bombe atomique, mais aussi dans l’organisation d’autres développements comme le radar, le sonar, le caoutchouc artificiel, le nylon, la fusée de proximité, et le napalm (conçu entre 1942 et 1943 par une équipe de Harvard dirigée par le professeur de chimie Louis F. Fieser). Cet engagement fédéral dans la recherche scientifique ne s’est pas arrêté la paix venue, bien au contraire il a continué à se développer.

C’est ainsi que Edwin Purcell, « Gerhard Gade University Professor » (NdT : Titres universitaires à Harvard), émérite, et co-lauréat du prix Nobel de physique en 1952, a contribué au développement des principes de la résonance magnétique nucléaire (RMN). Dans les décennies qui suivirent, les sciences appliquées ont continuées à fleurir. Ainsi à Harvard, Harold Thomas Jr., « Gordon McKay Professor » en génie civil et sanitaire, dirigea seul le fameux programme de l’eau de Harvard, tandis que Ivan Sutherland mena des recherches qui ont abouti à son fameux casque virtuel, une des premières tentatives de réalité virtuelle, sans oublier bien sûr que l’université est devenue un des premiers nœuds sur ARPANET, le précurseur d’Internet.

Profitant de l’activité bouillonante de la recherche, des économies d’échelle offertent par les avancées dans les techniques d’impression, et de leurs compétences rédactionnelles bien établies, les éditeurs commerciaux se ruèrent sur la science comme une entreprise viable et rentable. De nouveaux domaines fleurirent — l’informatique, les sciences cognitives, les neurosciences — chacun accompagné par les revues spécialisées dédiées. De bien des façons, les maisons d’édition (et spécialement les éditeurs de tels journaux) ont rejoint les universitaires en tant que partenaires dans l’aventure universitaire. Les membres de la faculté fournissaient le contenu ; les maisons d’édition sélectionnaient des groupes de relecteurs bénévoles, organisaient la promotion et la distribution, et aidaient à peaufiner et nettoyer les manuscrits. Et puisque, selon elles, les maisons d’édition universitaires aidaient les différents domaines de recherches à s’organiser et à prendre forme, elles demandaient aussi généralement que les auteurs cèdent tous leurs intérêts sur les droits d’auteur (dans la plupart des cas sans aucune contrepartie financière).

Le partenariat a alors été considéré comme analogue au rôle des musées d’art. Si les gens voulaient voir les tableaux, ils devaient payer pour entrer. Et si les artistes voulaient que d’autres voient leurs créations, ils devaient confier ce travail à la galerie ou au musée. Étant donné le petit nombre d’inscrits et la haute qualité de la valeur ajoutée du travail éditorial, le coût de l’accès semblait justifié. Parce qu’avant l’essor de l’édition instantanée en ligne, comment les universitaires pouvaient-ils diffuser leurs travaux d’une manière plus durable que la présentation orale ? Shieber explique que, spécialement dans les vingt dernières années, « la demande a été statique, et elles (les maisons d’édition) en ont clairement tiré un gros avantage ». Ce qui n’était pas un problème pour les chercheurs : ils « n’ont jamais vraiment connu les coûts directs » parce que les bibliothèques universitaires payaient l’addition.

Malheureusement, aussi bien pour les unversitaires que pour les maisons d’édition, la lune de miel a tourné court. Bien avant l’actuelle tempête économique, le modèle de tarification établi pour les publications universitaires a en effet commencé à se dégrader. Les maisons d’édition ont fait payer des frais d’abonnement toujours plus élevés (les abonnements institutionnels en ligne à des revues comme Brain Research — recherche sur le cerveau — peut maintenant coûter jusqu’à 20 000 $ à l’année). Les bibliothèques et les universités ont certes protesté contre l’augmentation des prix mais ont initialement rien fait pour réellement empêcher cette inflation. Alors que des organismes privés peuvent négocier de meilleurs accords avec les maisons d’édition, dans l’ensemble, les bibliothèques ont été perdantes dans l’histoire.

Par exemple, en 2007 l’Institut Max Planck a arrêté son abonnement au revues de Springer en signe de protestation du coût trop élevé. Mais un an plus tard l’Institut s’est réabonné après avoir négocié une période d’essai « expérimentale », un confus mélange de libre accès et de modèles d’abonnement avec Springer (ils se murmurent que se sont les chercheurs eux-mêmes qui souhaitaient continuer à accéder aux revues). En vertu de l’accord, tous les auteurs de Max Planck ont accédé à 1200 revues et ont vu les coûts supprimés par le programme « choix libre » de Springer « en échange du paiement d’émoluments (pour frais de traitement de l’article) ». À coup sûr un signe de progrés, mais un progrès limité puisque cantonné à Max Planck qui devait de plus encore payer une note considérable (les conditions financières n’ont pas été divulguées). Pour les autres institutions cela demeurait verrouillé.

En fait, des coûts prohibitifs d’abonnement et, plus récemment, des coupes dans leur propre budget ont contraint de nombreuses bibliothèques à faire des économies sur les abonnements de revues en ligne ou imprimées. Même pendant sa période faste, Harvard (qui entretient une des plus grandes bibliothèques au monde) n’a pas été capable de s’abonner à chaque revue. Aujourd’hui la situation est pire encore. Un des problèmes, explique Martha « Marce » Wooster, à la tête de la bibliothèque Gordon McKay du SEAS, vient du manque d’« algorithmes qu’un bibliothécaire peut utiliser pour déterminer quel journal garder ou supprimer », basés aussi bien sur le prix que sur le besoin d’accéder à ce journal. Dans certains cas, les maisons d’édition proposent dorénavant de multiples revues par lots, profitant de l’aubaine des portails en ligne. Vous pouvez encore vous abonner à des revues à l’unité mais les économies sur les coûts globaux par rapport à l’achat du lot entier sont limitées voire nulles. Le résultat est que — mis à part les échanges entre bibliothèques ou la correspondance directe avec les chercheurs — l’unique solution pour un universitaire d’accéder à certains résultats particulier est de payer le tarif en vigueur élevé fixé par la maison d’édition. Avec les restrictions budgétaires continues imposées aux bibliothèques, l’équation est devenu de plus en plus difficile pour le monde universitaire.

Repenser le modèle

Internet est bien sûr le dernier maillon dans la chaîne d’évènements qui menace le partenariat académico-commercial. Il n’y a rien d’étonnant à cela. Le Web a modifié drastiquement des pans entiers de notre activité, et l’université n’y a pas échappé.. À SEAS, par exemple, les cours CS 50 « Introduction à l’informatique I » et QR 48 « Les bits » sont disponibles en ligne (NdT : « Computer Science 50 » est un cours d’introduction à l’informatique de l’université de Harvard et QR 48 est un cours sur le raisonnement empirique et mathématique sur le sujet des « bits »). Et la série d’introduction aux Sciences de la vie se sert d’un support multimédia en lieu et place du bon vieux manuel papier. L’initiative MIT Opencoursware est un ambitieux programme pour rendre accessible, gratuitement et en ligne, une grande partie du contenu des cours du Massachusetts Institute of Technology (MIT). Mais étonnament, alors que l’on peut faire de plus en plus de choses en lignes (envoyer des cartes postales, gérer son compte banquaire, renouveler son permis de conduire, etc.), les connaissances produites par les centres de recherche tel Havard sont restées, en comparaison inaccessibles, enfermées dans une sorte de cellule virtuelle. Comment a-t-on pu laisser cela se produire ?

Avant son émergence en tant que centre d’achats ou de constitution de réseaux sociaux à part entière, Internet était utile aux chercheurs. Mais si le modèle commercial actuel de publication persiste (laissant les éditeurs seuls gardiens du savoir académique en ligne), Internet pourrait devenir un frein, plutôt qu’un catalyseur, à l’avancé du travail universitaire. « Si l’éditeur possède et contrôle les connaissances académiques », explique Shieber, « il n’y a aucun moyen de l’empêcher d’en restreindre l’accès et de faire payer pour cet accès ». Aux débuts d’internet, le coût de la numérisation des documents imprimés était loin d’être négligeable, et les éditeurs pouvaient justifier des tarifs d’abonnement en ligne élevés alors qu’ils déplaçaient le contenu du journal vers ce nouveau média incertain. Ce n’est plus le cas aujourd’hui.

Mais existe-t-il des alternatives viables ? Toute solution nécessitera de repenser le statu quo dans la publication académique. Une possibilité réside dans les journaux à libre accès, comme les publications de PLoS (Public Library of Science), fondée en 2000 par le lauréat du prix Nobel Harold Varmus. Dans les journaux de PLoS, les auteurs conservent tous les droits sur leurs travaux, et chacun peut télécharger et utiliser gratuitement l’information de PLoS, à condition de leur en attribuer le crédit et le mérite. Mais ces efforts restent éclipsés par les journaux payants nécessitant un abonnement, et la plupart des publications traditionnelles continuent à « compter davantage » du point de vue du statut académique. De plus, les entreprises de libre accès ne sont pas sans coûts : ces journaux ont tout de même besoin d’être soutenus et maintenus.

Dans le cas de nombreux journaux à accès libre, ces coûts sont transférés du lecteur vers l’auteur. On a ainsi vu un journal phare de PLoS demander à l’auteur autour de 3 000 $ pour la publication d’un article. Ceci rend les journaux à abonnements (qui ne font en général pas payer les auteurs pour la publication) bien plus attractifs pour de nombreux auteurs.

De plus, il est important de se rendre compte de la valeur ajoutée apportée par les éditeurs commerciaux. À l’âge de la publication instantanée, nous dit Shiever, « on a besoin de personnes qui font le travail que les éditeurs et les journaux fournissent actuellement ». Ceci comprend la gestion de la procédure d’évaluation par les pairs, le travail éditorial et de production, ainsi que la distribution et l’archivage du produit final. Tout aussi important, « il y a la création d’une identité de marque et l’imprimatur », qui accompagnent « plus ou moins consciemment » la publication dans un journal donné.

Le Web a rendu possible de « dissocier » ces tâches : l’évaluation par les pairs peut avoir lieu sur un forum en ligne ; le travail d’édition et de production peut être fait à peu près n’importe où. Mais ces tâches elles-mêmes (et leur coordination) restent essentielles, et elles ont un coût. Malheureusement, explique Wooster, la techologie du Web doit encore trouver pour la publication académique « une base économique qui ne soit pas dysfonctionnelle ». Bien que cela puisse paraître contre-intuitif, le passage du savoir papier au Web a conduit à une augmentation significative des prix (contrairement au passage de la musique des CDs aux MP3s), malgré l’élimination d’une multitude de coûts standards d’impression. Shieber pressent qu’il doit nécessairement y avoir un autre système, dans lequel le savoir finira par gagner.

L’homme qui possède un plan

Fortement incités à publier dans des revues commerciales, pourquoi ceux qui aspirent à devenir membre de la faculté choisiraient-ils le libre accès ? C’est là qu’intervient Shieber. Son plan est de rendre le libre accès viable, essentiellement, en nivelant le terrain de jeu de la publication universitaire. Selon Shieber, la seule chose nécessaire pour mettre le libre accès sur un pied d’égalité avec les solutions commerciales est que « ceux souscrivant aux services d’un éditeur proposant des journaux payants sur abonnement s’engagent également via un simple contrat à apporter leur soutien aux journaux en libre accès ».

Cet engagement, s’il est accepté par de nombreuses universités et organismes de financement, pourrait inciter les facultés à publier dans les journaux à libre accès. Assumer les frais de publication de libre accès est certainement un engagement coûteux à prendre pour une institution, mais cela pourrait sur le long terme être totalement compensé par la diminution des frais pour les journaux payants sur abonnement. De plus, le mouvement amorcé, les journaux à abonnement existants pourraient même se convertir doucement aux modèles de libre accès (si les bénéfices s’avéraient suffisament convaincants). Le contrat de Shieber a un autre avantage : le fait de payer pour publier rend les choses plus transparentes. Traditionnellement, explique Shieber, « les lecteurs d’articles universitaires ont été bien épargnés du coût de la lecture ». Si les universités étaient amenées à affronter les coûts réels, elles s’engageraient plus facilement à faire face au problème.

Pour Shieber, un tel contrat serait un moyen rationel, juste et économiquement viable de soutenir la publication académique. D’autres, plus radicaux, en sont moins convaincus. Il est naturel de se demander : « Pourquoi y aurait-il un quelconque problème ou la nécessité d’un contrat ? Pourquoi de nos jours quelqu’un devrait-il payer pour accéder au savoir ? ». Stevan Harnad, professeur de sciences cognitives à l’École d’électronique et d’informatique de l’université de Southampton (Royaume-Uni), et « archivangéliste » au célèbre franc parlé, est favorable au fait de donner aux universitaires le feu vert pour archiver gratuitement et immédiatement tous les articles qu’ils ont écrits. Il résume ses arguments dans cet haiku :

It’s the online age
You’re losing research impact…
Make it free online.

Que l’on pourrait traduire par :

Nous sommes à l’ère numérique
Votre recherche perd de son impact…
Publiez-là en ligne librement.

Principes opt-ins, définitions du droit d’auteur, fastidieuses négociations avec l’éditeurs pour baisser frais voire accorder le libre accès…, Harnad pense que tout ce qui nous détourne de cet objectif d’obtenir rapidement l’accès universel nous empêche d’aborder de front le vrai problème. Et dans ce cas, soutient Harnad, la communauté scientifique « se sera une nouvelle fois tiré une balle dans le pied ». Plutôt que replacer les chaises sur le pont du Titanic, dit-il, pourquoi ne pas faire quelque chose qui change vraiment la donne ? Le paradigme d’Harnad : l’auto-archivage en libre accès, les auteurs publiant leurs documents dans des archives digitales ouvertes. Selon lui, même les éditeurs bien intentionnés et les institutions cherchant à aider les universitaires empêchent ces derniers d’atteindre directement leur public.

Shieber répond à ces reproches comme le ferait un ingénieur. De nombreux aspects de l’édition commerciale fonctionnent bien, dit-il. Plutôt que de se battre contre le système dans sa globalité, notre but devrait être de l’installer sur une base saine et réaliste. « Tu peux être passionné par toutes sortes de choses », explique-t-il, « mais si elles ne reposent pas sur une économie, cela ne marchera pas ». Les notions telles que « on devrait simplement tout laisser tomber » ou « l’information veut être libre » ne sont pas de vrais solutions. Le modèle du contenu libre, même avec l’aide de la publicité, n’est probablement pas viable à court terme, sans même parler du long terme (l’industrie de la presse papier peut en témoigner). Même s’il loue les bonnes intentions des défenseurs du libre accès comme Harnard, Shieber nous avertit que la situation est loin d’être simple. « On se complaît un peu dans l’idée qu’une fois qu’on aura réglé le problème du libre accès, nos problèmes seront résolus », dit Shieber. La réalité, craint-il, ne sera pas si serviable.

Un vieux cas d’étude de l’American Physical Society (APS) souligne ce point. Dans un article paru dans la newsletter de l’APS de Novembre 1996, Paul Ginsparg (maintenant professeur de physique à Cornell) rermarquait :

Les maisons d’édition s’étaient elles-mêmes définies en termes de production et de distribution, rôles que nous considérons maintenant comme largement automatisés… « La » question fondamentale à ce moment là n’est plus de savoir si la littérature de la recherche scientifique migrera vers une diffusion complètement électronique, mais plutôt à quelle vitesse cette transition se fera maintenant que tous les outils nécessaires sont sur Internet.

Ginsparg a suggéré qu’une transition vers une diffusion électronique résolverait rapidement le problème d’accès. Mais plus d’une décennie plus tard, avec les revues scientifiques dûment installées sur Internet, le problème de l’accès continue à être délicat et non résolu. « Les gens sont des acteurs économiques », explique Shieber, « et cela signifie qu’ils travaillent dans leur propre intérêt, quelles que soient les contraintes auxquelles ils sont soumis ». Pour les maisons d’édition, posséder les droits d’auteur pour publier des articles et restreindre l’accès (à travers des cotisations élévées) augmente les probabilités de rendre les publications universitaires rentables. Mais qu’en est-il des universitaires ? Tandis qu’il est du plus grand intérêt des chercheurs de disposer de l’accès le plus large possible à leur travail, les récompenses (et l’habitude) du système existant exercent une force d’attraction puissante.

Shieber soutient qu’à moins que les avantages soient justes, autorisant les auteurs et les maisons d’édition à choisir parmi plusieurs plateformes d’édition sans pénalités, le savoir continuera à souffrir jusqu’à ce qu’une crise se produise. « Bien que vous ne puissiez pas séparer l’aspect économique des problèmes d’accès », dit-il, « les problèmes économiques sont clairement secondaires ». Une fois les aspects économiques réglés, les universités seront capable de se concentrer pour amener le savoir au niveau supérieur. Et c’est là, en discutant du rôle de l’université comme passerelle vers la connaissance, qu’il laisse clairement sa passion ressurgir. « L’université est sensée être engagée dans la production de connaissances pour le bien de la société », dit-il, « donc la société ne devrait-elle pas être capable d’en recevoir les bienfaits ? ».

Des bourses d’études comme bien(s) public(s)

Le choix de Shieber de se concentrer sur les aspects économiques et pratiques a indubitablement du mérite, et s’articule bien avec l’accent mis par la SEAS sur « ce qui marche » et « les applications pratiques ». Mais d’autres facteurs sont en jeux : le libre accès soulève des questions de principes, à la fois philosophiques et politiques. Sans le libre accès, comment le savoir peut-il promouvoir efficacement le bien public ? Pour certains — par exemple ceux qui trouvent difficile d’imaginer les mots « savoir » et « bien public » dans la même phrase — la limitation de l’accès à un article sur l’effet Casimir ou une nouvelle interprétation de l’Ulysse de James Joyce n’est pas vraiment une question de première importance. Ce ne sont que des considérations intellectuelles.

Dans le cas des sciences, de l’ingénierie et de la médecine, les gens comprennent en général que la recherche basique, apparement ésotérique, peut amener à de grandes améliorations dans nos vies : la résonnance magnétique nucléaire nous a conduit à l’imagerie par résonnance magnétique (IRM) améliorant les diagnostiques médicaux ; les technologies digitales et laser sont à l’origine des CD et des DVD ; et un melon cantaloup pourrissant dans un laboratoire de recherche de Peoria (Illinois) nous a fait découvrir la pénicilline. Wooster se demande si les bénéfices futurs pourraient être menacés par la rétention actuelle de l’information universitaire. « Si personne n’est au courant d’une découverte », dit-elle, « c’est un grand préjudice qui est fait au monde entier. Si l’intention des universités est vraiment de rendre le monde meilleur, nous devons y réfléchir sérieusement ».

Et il y a d’autres questions de principe en jeu. Comme le dit Wooster, « Cela a toujours été malsain que l’université fasse les recherches, rédige les articles et qu’enfin elle les offre — pour que nous soyions ensuite obligés de les racheter… N’est-on pas déjà sensé les posséder ? » D’autres utilisent un argument semblable concernant les contribuables : ils se voient refuser quelque chose qu’ils ont déjà payé. Après tout, les fonds fédéraux soutiennent une grande part de la recherche universitaire (en 2009, les fonds fédéraux ont financé environ 80% de toute la recherche du SEAS). Mais, à quelques exceptions près, les droits sur ces recherches à financement public — quand elles sont publiées dans une revue académique traditionnelle — sont transférés gratuitement à l’éditeur. Sans même se demander si le contribuable s’intéresse à, par exemple, la lecture des dernières avancées de la technologie des piles à combustible, Shieber et d’autres partisans du libre accès soutiennent qu’ils devraient pouvoir choisir : ce principe devrait toujours s’appliquer.

Ces considérations suggèrent un autre modèle valable pour le libre accès du savoir, indépendamment de l’auto-archivage et du contrat de Shieber. Le gouvernement fédéral pourrait s’en charger : après tout, l’enjeu n’est pas simplement le « bien public » mais aussi les biens publics. Étant donné qu’une grande partie de la recherche est financée publiquement, les citoyens (et leur gouvernement) sont concernés par les résultats (et l’accès à ces résultats). En d’autres termes, le partenariat chercheur-éditeur n’est pas bipartite — c’est une « route à 3 voies ». Peut-être les bourses fédérales de recherche pourraient-elles stipuler que les découvertes réalisées à partir de soutiens publics doivent être rendues disponibles gratuitement, soit par leur publication dans des journaux en libre accès, soit, si elles sont publiées dans des journaux à abonnement, en les rendant simultanément accessibles via une archive digitale gratuite. Parallèlrement, les bourses fédérales de recherche pourraient couvrir les coûts légitimes de publication. Le résultat, après quelques petits ajustements, pourrait réconcilier les intérêts de toutes les parties.

En fait, nous avons déjà un modèle qui fonctionne pour une bonne partie de cette approche, dans le domaine de la recherche médicale. La Bibliothèque Nationale de Médecine des États-Unis, faisant partie des Instituts Nationaux de la Santé (NIH, pour National Institutes of Health), gère PubMed, une vaste base donnée de citations et de résumés d’articles. Elle maintient aussi PubMed Central, une « archive numérique gratuite de ce qui s’est écrit en biomédecine et biologie ». En avril 2008, à la demande du Congrès, les NIH ont adopté une nouvelle politique d’accès public, ordonnant que tous les chercheurs financés par les NIH publient dans PubMed Central une copie de n’importe quel manuscrit révisé par des pairs et qui a été validé pour publication. Actuellement, cette politique ne prévoit pas de financement pour couvrir les coûts de publication, limitant quelque peu l’impact de la démarche.

Autres moyens d’ouvrir l’accès : des bibliothèques innovantes et des archives numériques

Bien évidemment il ne faut pas se contenter des acquis, et des questions restent ouvertes sur l’issue vraissemblable d’un engagement en faveur du libre accès. Cela conduira-t-il au déclin des maisons d’édition académiques et d’une partie de l’activité de l’édition commerciale ? Shieber affirme que son but (et celui du libre accès en général) n’a jamais été de « détruire les éditeurs ». Les éditeurs et la révision par les pairs sont toujours aussi indispensables, particulièrement dans le Far West sauvage du Web (où blog et article douteux de Wikipédia se côtoient, le tout relayé sans précaution par Twitter).

Pour sa part, Shieber minimise l’impact du débat actuel. « Un très faible pourcentage d’œuvres écrites tomberait dans le libre accès tel qu’il est actuellement en cours de discussion », dit-il. « Aujourd’hui, nous ne parlons que des ouvrages spécialisés en sciences évalués par les pairs ». Le débat ne concerne pas les livres, les éditoriaux, les contenus écrits par des journalistes, etc.. Même si demain la recherche scientifique passait entièrement au libre accès, les éditeurs ne seraient pas pour autant sans travail. En tout état de cause, il subsistera probablement un marché durable pour les versions imprimées des publications (Kindle n’a pas encore détrôné le livre chez Amazon).

Mais qu’en est-il de l’impact sur les bibliothèques ? Comme de plus en plus de collections se retrouvent en ligne, la fonction de stockage de la bibliothèque sera-t’elle diminuée ? Beaucoup de gens pensent que le passage aux revues électroniques et aux collections numériques constituerait une menace fatale pour les bibliothèques. Sur ce point, Wooster soulève des objections. Elle ne pense pas que les bibliothèques numériques seront aussi vitales que les dépôts de papier d’aujourd’hui. John Palfrey, professeur de droit « Henry N. Ess III » (NdT : Titre universitaire à Harvard), à la tête de la bibliothèque de la Faculté de droit de Harvard, et co-directeur du Berkman Center for Internet and Society, prévoit quant à lui l’émergence d’un tout nouveau type de bibliothécaire (illui préfère le terme « empiriste ») liée à la transformation des bibliothèques en centres d’information où les archives en libre auront un rôle prépondérant. Tout comme les éditeurs, les bibliothèques offrent des services qui continueront d’avoir de la valeur, même si les journaux se numérisent et les archives en libre accès se banalisent. Shieber est d’accord. « Les services de bibliothèques (consultation, enseignement, et les nouveaux services conçus pour rendre disponible les documents en libre accès) continueront tous à être nécessaires et seront incorporés dans le domaine de compétence de la bibliothèque », explique t-il. Et Wooster fait remarquer que le rôle de la bibliothèque en tant que lieu pour « un archivage de l’histoire » n’est pas prêt de changer de si tôt.

Progresser sur la question de l’accès peut aussi signifier revenir au rôle traditionnel de la presse universitaire comme éditrice et distributrice du savoir d’une institution donnée (Shieber reconnaît l’ironie d’avoir publié ses livres avec l’imprimerie du MIT plutôt qu’avec celle de l’université d’Harvard).

Les archives numériques universitaires représentent une autre possibilité pour le libre accès. De telles archives prennent déjà naissance, tel que vu dans le dépôt libre accès de DASH ou le projet catalyseur de l’école médicale de Harvard, qui est caractérisé par une base de données de mise en relation des personnes pour relier les chercheurs et la recherche (incluant des liens aux archives DASH) à travers toute l’université. Et quelques domaines (en physique, par exemple) ont depuis longtemps conservé des archives gratuites de pré-publication, par exemple arXiv.org, développé par Ginsparg au sein du département de physique de Cornell.

Mobiliser l’université de Harvard derrière le modèle du libre accès et développer une plateforme concrète pour son implémentation sont de sérieux défis. Shieber a d’ailleurs invité Suber un collègue expert du libre accès et membre non permanent du centre Berkman pour contribuer plus avant à promouvoir le processus. Shieber prévient qu’un changement vers le libre accès prendra du temps. Quand bien même que les problèmes conceptuels et économiques aient été résolus, il ne préconise pas de tout bouleverser d’un coup. Mais une fois le problème du libre accès devenu secondaire et les revendications des chercheurs et des éditeurs harmonisées de façon juste et équitable (et viable), alors, pense-t-il, les spécialistes, les universités, les éditeurs, et plus largement, le monde entier seront capable de se concentrer sur un excitant nouveau royaume de découverte. Et n’est-ce pas ce que nous désirons vraiment que la science et la recherche soient ?

Annexe : Pour aller plus loin

En savoir plus à propos du travail de Harvard sur le libre accès :

Cet article a été initialement publié dans la newsletter d’hiver 2010 de la SEAS de Harvard, et a ensuite été posté sur le site opensource.com avec la permission des auteurs, qui ont accepté de le publier pour le public sous la licence Creative Commons BY-SA.

Notes

[1] Crédit photo : Liber (Creative Commons By Sa)




De la confiance au sein d’une communauté

Notsogoodphotography - CC bySi j’ai demandé l’autorisation à son auteur d’exhumer et reproduire ici-même un de ses articles pourtant déjà vieux de presque dix ans, c’est parce qu’il touche à une notion simple mais essentielle : la confiance.

La grande chance, ou plutôt la grande force, du logiciel libre, et dans son sillage de toute la culture libre, c’est de bénéficier dès le départ d’un certain niveau de confiance.

Pourquoi ? Parce que la licence libre qui l’accompagne.

C’est cette mise sous licence libre qui non seulement donne son nom au logiciel libre mais qui, de par les garanties offertes, favorise l’émergence d’une communauté autour du projet et tisse des liens solides entres ses membres.

Cela ne constitue évidemment pas un gage absolu de succès (cf Comment détruire votre communauté en 10 leçons), mais c’est tout de même un sacré avantage lorsque l’on sait combien cette confiance peine à s’installer dans des structures plus « classiques ».

Le texte ci-dessous est de Jean-Yves Prax qui travaille à Polia Consulting, une société de conseil en Knowledge Management.

Il ne se focalise nullement sur le logiciel libre en tant que tel mais ne s’aventure pas non plus jusqu’à la relation amoureuse[1]. Il se limite ici « à une analyse de la confiance dans un environnement professionnel (même si cette limite ne supprime pas complètement les facteurs affectifs et moraux, loin s’en faut), et principalement dans le champ de l’action collective au sein d’une communauté : travail en équipe, partage de connaissance, mutualisation de compétence, décision collective, process… ».

Vous trouverez en bas de page une version PDF de l’article.

Le rôle de la confiance dans la performance collective

URL d’origine du document

”Texte de la conférence faite par Jean-Yves Prax pour l’ouverture du KMForum 2001, le mardi 25 septembre 2001, au Palais des Congrès, Porte Maillot, Paris.

La confiance est un facteur déterminant de la performance collective et en particulier dans le cas des communautés virtuelles ou/et d’équipes dont la production est à forte intensité immatérielle. Même si, d’expérience ou d’intuition, nous partageons tous cette conviction, les mécanismes de création de la confiance restent énigmatiques et peu maîtrisables : la confiance, qu’est-ce que c’est ? comment la créer ? A quelle rationalité obéit-elle ?

Analyser la confiance, c’est aborder l’un des aspects les plus délicat du fonctionnement d’une communauté.

La confiance, qu’est-ce que c’est ?

La littérature sur le sujet est abondante et les définitions très diverses et variées, par exemple :

  • La confiance analysée d’un point de vue rationnel, comme un choix raisonné, par exemple le ratio effort-bénéfice d’une action individuelle au sein d’un collectif ; on entend parler d’indice de confiance, de ce qui est maîtrisable ; la notion peut être utile en cas de délégation.
  • La confiance analysée d’un point de vue normatif, conforme à un label, une certification : par exemple, nous sommes capables de confier notre santé et notre vie à un médecin parfaitement inconnu au seul prétexte qu’il a obtenu un diplôme national, diplôme que nous ne vérifions même pas, alors que nous hésiterons à confier les clefs de notre véhicule à un laveur de voitures.
  • Une confiance par intuition, par croyance, qui ne suppose pas de véritable délibération critique, elle est affective, esthétique, c’est-à-dire purement émotionnelle et par conséquent tout à fait irrationnelle. Beaucoup de comportement racistes sont typiquement dans ce registre (la fameuse "note de sale gueule") mais si vous ne le croyez pas, essayez donc d’aller solliciter un emprunt à votre banquier en babouches !
  • La confiance vue d’un point de vue social, basé sur une sorte « d’engagement de moyens » issu d’un code partagé (souvent implicite) de devoirs réciproques, de valeurs morales et d’éthique. « Il n’a pas réussi, mais il a fait tout ce qu’il pouvait ».

La perspective rationnelle se définit comme « une attente sur les motivations d’autrui à agir conformément à ce qui était prévu dans une situation donnée ». Elle considère l’individu comme un acteur rationnel, prévisible, et sa rationalité est confortée par le fait que ses choix et ses actes sont gagnants, utiles. Cette définition de la confiance, largement présente dans le monde professionnel, a des avantages et des limites.

  • L’avantage majeur est qu’il n’y a pas confusion entre « confiance » et « affinité » ; une personne peut acheter un livre par amazon.com, car elle a confiance dans le système de paiement et de livraison, mais aucune affinité. Ne vous est-il jamais arrivé, impressionné par le professionnalisme d’un individu que vous n’aimez pas beaucoup, de dire « il est bon et je lui fais entièrement confiance, mais je ne passerais pas mes vacances avec lui ».
  • La limite réside dans la prévision de rationalité : un individu confronté à un système complexe : environnement incertain, jeu de contraintes, choix difficiles, n’agit pas toujours de la façon qui était prévue et n’obtient pas toujours les résultats escomptés. Les freins à l’innovation se cachent dans ce domaine : un individu sera freiné dans ses idées et initiatives dès le départ, non pas à cause d’une analyse du projet, mais tout simplement parce qu’il dérange l’ordre établi.

La théorie de la rationalité en économie voudrait que les choix individuels s’appuient sur des raisonnements utilitaires :

  • Si je préfère A à B et B à C, alors je préfère A à C ;
  • Toute décision est fondée sur un calcul coût-bénéfice, ou sur une analyse de risque.

Dans la vraie vie, cette rationalité n’existe pas ! En effectuant leurs choix les hommes n’obéissent pas aux lois bayésiennes de la décision :

  • ils accordent trop de poids à l’information qui leur est parvenue en dernier ;
  • ils ne sont pas sensibles à la taille de l’échantillon, c’est même souvent l’inverse[2],
  • ils réagissent plus à la forme qu’au fond.

La perspective sociale considère qu’un individu n’est pas évalué uniquement par ses résultats mais aussi en tant qu’acteur social ; il peut conforter les prévisions ou de les décevoir, à condition qu’il le fasse dans le respect de ses obligations morales et d’un certain nombre de codes.

Une intentionnalité limitée au champ d’interaction

Comme nous le constatons, le champ d’investigation est immense, mais on peut singulièrement le réduire si l’on accepte l’hypothèse d’une confiance limitée au domaine d’interaction ; je m’explique : lorsqu’on fait confiance à une autre personne, ce n’est pas dans l’absolu, c’est dans un domaine précis, qui est le champ d’interaction prévu ; ainsi une jeune adolescente qui accepte de sortir au cinéma avec son ami lui fait confiance par rapport à un certain nombre de critères ; ces critères ne sont pas les mêmes que ceux qui dicteront le choix du futur directeur général d’une firme internationale, ou encore d’un guide de haute montagne.

Nous nous limiterons ici à une analyse de la confiance dans un environnement professionnel (même si cette limite ne supprime pas complètement les facteurs affectifs et moraux, loin s’en faut), et principalement dans le champ de l’action collective au sein d’une communauté : travail en équipe, partage de connaissance, mutualisation de compétence, décision collective, process…

Si l’on prend soin de distinguer la confiance de l’affinité, alors on devine que, dans un groupe de travail ou une équipe, la confiance est en forte interaction avec la compétence : chaque membre fait confiance à un individu pour sa capacité à…

Alors la question devient : « comment créer dans une équipe les conditions de la confiance mutuelle ? »

Comment créer la confiance ?

L’approche de la compétence que propose R. Wittorski[3] nous renseigne sur le processus de création de confiance au sein d’un groupe ; selon lui, la compétence s’élabore à partir de cinq composantes :

La composante cognitive : elle est constituée de deux éléments : les représentations et les théories implicites (paradigmes) ; on distingue les représentations cognitives (savoirs et schèmes d’interprétation) et les représentations actives (construction par l’auteur du sens de la situation).

  • La composante affective : c’est l’un des moteurs de la compétence. Elle regroupe trois éléments : l’image de soi (valorisation de notre personne), l’investissement affectif dans l’action (plaisir de ce que l’on fait), l’engagement (motivation). Le premier élément suggère à quel point elle est influencée par l’environnement social immédiat : un jugement positif ou négatif agira directement sur l’image de soi et aura pour effet de renforcer ou casser la motivation (voir l’effet Pygmalion ci-dessous).
  • La composante sociale : elle représente la reconnaissance par l’environnement immédiat de la pratique de l’individu ou du groupe et aussi l’image que ces derniers se font de cette reconnaissance ; ce dernier point indique que la composante sociale comporte également le choix que l’acteur fera de « ce qui est montrable ». La stratégie du connaisseur n’est pas tant de connaître mais de faire savoir qu’il connaît.
  • La composante culturelle : elle représente l’influence de la culture sociale sur les compétences.
  • La composante praxéologique : elle renvoie à la pratique dont le produit fait l’objet d’une évaluation sociale ; il s’agit de la partie observable (évaluable) de la compétence.
L’effet Pygmalion

Nous opterons pour une approche mixte, à la fois rationnelle, sociale et affective de la confiance, c’est à dire l’ensemble des facteurs permettant la collaboration entre les membres d’une équipe, basées sur le respect mutuel, l’intégrité, l’empathie, la fiabilité. Les cinq composantes citées ci-dessus sont à la fois l’image de soi même, et l’image de soi vu à travers le regard des autres. Le groupe agit comme un miroir grossissant ; en psychologie, on appelle cela l’effet Pygmalion : "La prédiction faite par un individu A sur un individu B finit par se réaliser par un processus subtil et parfois inattendu de modification du comportement réel de B sous la pression des attentes implicites de A".

Il s’agit d’un mécanisme amplificateur en boucle : un jugement négatif de A casse la confiance de B en lui même, ce qui se voit et a pour effet de renforcer A dans son jugement négatif initial[4].

La confiance dans le partage de connaissances

Au cours de nos missions de Knowledge Management, nous avons pu interroger un certain nombre de professionnels de tous niveaux sur la question : « qu’est-ce qui favorise (ou empêche) le partage de connaissance dans un groupe de travail ? » Tous ont spontanément insisté sur le caractère primordial de la confiance dans une équipe et ils ont précisé les facteurs susceptibles de la créer :

1. Réciprocité (jeu gagnant-gagnant)

J’accepte de donner mes idées, mon ingéniosité, mon expérience au groupe, mais j’attends que les autres membres en fassent autant ; chacun veille à respecter un équilibre en faveur d’une performance collective. Ce mécanisme de surveillance exclut le « passager clandestin », c’est à dire celui qui à l’intention de recueillir les fruits du travail du groupe sans y avoir vraiment contribué.

2. Paternité (identité, reconnaissance)

J’accepte de donner une bonne idée à mon entreprise, et de voir cette dernière transformée en une innovation majeure ; mais je ne tolèrerais jamais de voir l’idée signée du nom de mon chef à la place du mien. Il s’agit d’un fort besoin de reconnaissance de la contribution d’un individu au sein d’un groupe.

3. Rétroaction (feed-back du système)

L’erreur est la première source d’apprentissage ; à condition d’avoir un feed-back du système.

L’enfant apprend par un processus répétitif de type essai-erreur-conséquence :

  • essai : il faut que l’organisation encourage les initiatives, les « stratégies tâtonnantes » afin de développer l’autonomie et la créativité ; comment un enfant apprendrait t’il à marcher s’il avait peur d’être ridicule ?
  • erreur : elle doit être documentée et communiquée (feed-back) ; la conséquence la plus immédiate sera d’éviter aux autres de la reproduire !
  • conséquence : c’est le point le plus fondamental ; un système est apprenant dans la mesure où il délivre à l’individu le feedback sur son action, ce qui lui permet immédiatement d’évaluer l’impact de son action sur le système. C’est ce qui pose problème dans les très grandes organisations : l’individu peut faire tout et son contraire, dans la mesure où il n’a jamais de réponse du système , il ne saura jamais évaluer le bien-fondé de ses actions et progresser.

Dans un groupe, l’erreur doit être admise, c’est un signe très fort de la confiance et du fonctionnement effectif du groupe. En revanche on ne devrait jamais laisser quelqu’un la dissimuler.

4. Sens (unité de langage, de valeurs)

Une connaissance strictement personnelle ne peut être partagée que par l’utilisation d’un code et d’une syntaxe connue d’un groupe social, qu’il soit verbal ou non verbal, alphabétique ou symbolique, technique ou politique En faisant partie de la mémoire collective, le langage fournit à chaque individu des possibilités de son propre développement tout en exerçant un fort contrôle social sur lui. Ainsi, le langage est à la fois individuel, communicationnel et communautaire.

Mais ce n’est pas tant un problème de traduction que de sens : dans une conversation, deux interlocuteurs peuvent arriver à partager des mêmes points-de-vue s’ils établissent un processus de coopération : écoute active, participation, questionnement, adaptation sémantique, feed-back, reformulation. En effet, si le mot, comme symbole collectif, appartient à la communauté linguistique et sémantique, le sens qu’il recouvre est purement individuel car il est intimement lié à l’expérience et à l’environnement cognitif dans lequel se place l’individu.

La confiance, une construction incrémentale

Les auteurs et nos expériences s’accordent sur la nature incrémentale du processus de construction de la confiance ; dans certains domaines commerciaux, par exemple, on dit « il faut 10 ans pour gagner la confiance d’un client, et 10 minutes pour la perdre ! ».

Cette notion est largement étayée par le modèle de Tuckman qui voit quatre état chronologiques (ontologiques) majeurs dans le développement d’un groupe : formation, turbulence, normalisation, performance[5].

La confiance se construit, puis se maintient ; alors qu’il est difficile de distinguer un processus standard de construction de la confiance, en revanche, il semble qu’un modèle en 5 composantes puisse rendre compte de son maintien : instantanée, calculée, prédictive, résultat, maintien.

La confiance instantanée

A l’instant même de la rencontre, un individu accorde à l’autre un « crédit de confiance » ; c’est un processus instantané mais limité, peu fondé ni étayé, donc fragile, sous haute surveillance ; une sorte de confiance sous caution. C’est ce qui permet à des gens qui sont parachutés dans des groupes temporaires de pouvoir travailler ensemble, par exemple dans les équipes de théâtre ou de production cinématographique, dans les équipages d’avion, dans les staffs médicaux, etc.

Cette confiance se base principalement sur deux facteurs :

  • On estime que les autres membres ont été sélectionnés par rapport à des critères de fiabilité, compétence, valeurs, etc. On a affaire à la notion de tiers-certificateur, dont on verra plus loin que le rôle peut être capital.
  • On suppose qu’il y a réciprocité : si je n’accorde pas ma confiance à l’autre, alors l’autre en fera autant et il nous sera impossible de construire la moindre relation.

Ce type d’équipe se met très vite au travail et devient performant sans passer par les longues et progressives étapes de maturation.

La confiance calculée

Cette étape est franchie lorsque les acteurs attendent qu’une collaboration apporte un certain bénéfice. La confiance trouve alors sa source dans la conformité ou non de l’exécution d’une tâche collaborative particulière ; par exemple, la confiance d’un client dans une entreprise générale qui construit sa maison peut être assortie de mécanismes de contrôle et de clauses de pénalités de façon à maîtriser des dérives ou des comportements opportunistes.

L’une des façons de créer un climat de confiance est de mettre en place des procédures, comme la définition des rôles et responsabilités, des mécanismes de reporting, etc.

La confiance prédictive

Dans le process prédictif, la confiance est largement basée sur le fait que les acteurs se connaissent bien : ils se basent sur le comportement passé pour prédire le comportement à venir. Les acteurs qui n’ont pas la possibilité d’avoir des relations ou expériences communes réclameront des séances d’entraînement, des réunions ou d’autres dispositifs leur permettant de mieux se connaître.

La confiance basée sur le résultat

Dans ce mécanisme, la confiance est basée sur la performance de l’autre. Au départ, cette confiance dépend des succès passés ; elle sera encore renforcée si l’autre accomplit sa tâche avec succès, et rompue si des problèmes sont rencontrés. Ce mécanisme est particulièrement important dans les communautés virtuelles où les acteurs ne se connaissent pas, ne peuvent pas voir comment les autres travaillent ; ils ne peuvent juger que sur le résultat : délai, qualité des produits

La confiance intensive

Finalement la confiance intensive suppose que les deux parties identifient et acceptant les objectifs, finalités et valeurs de l’autre.

La confiance dans les communautés virtuelles

Le texte ci-dessous est le résultat d’une expérience menée avec quatre groupes d’étudiants devant effectuer une travail commun à distance en utilisant des outils de groupware et de visioconférence.

L’expérience a montré que la confiance jouait un rôle primordial dans la qualité du travail collaboratif et que l’usage d’un outil présentait de nombreux risques de sérieusement l’entamer, voire la détruire. Un certain nombre de comportements ont été révélés comme porteurs de danger :

  • s’enflammer : s’énerver tout seul et se décharger dans un longue tirade écrite ;
  • poser des requêtes ou assigner des tâches irréalisables ;
  • ignorer les requêtes ; ne pas répondre à ses mails ;
  • dire du mal ou critiquer quelqu’un ;
  • ne pas remplir ses engagements.

Bien entendu on se doute que ce genre de comportement n’est pas fait pour améliorer la confiance, mais il se trouve que l’usage d’un outil les rend davantage possibles qu’une interaction physique. En effet, dans une conversation face-à-face, il se produit des sortes de micro-boucles qui ont la vertu de désamorcer des conflits par une meilleure compréhension des points-de-vue de chacun. La plupart des crises sociales sont des crises du langage et du sens.

Le tableau ci-dessous résume les facteurs qui renforcent ou au contraire diminuent l’établissement de la confiance dans une communauté.

La confiance est renforcée quand :

  • La communication est fréquente, les membres sont bien informés et partagent leurs compréhensions.
  • Les messages sont catégorisés ou formatés, ce qui permet aux récepteurs une économie de temps.
  • Les tâches, rôles et responsabilités sont bien définis, chaque membre connaît ses propres objectifs.
  • Les membres tiennent leurs délais et leurs échéances.
  • Il y a un esprit positif permanent, chaque membre reçoit des encouragements et un feed-back.
  • Les membres s’entraident mutuellement.
  • Les attentes personnelles et celles du groupe ont été clairement identifiées.
  • Les membres ont le même niveau d’engagement.

La confiance est affaiblie quand :

  • Il y a peu de communication, les idées ne sont pas partagées.
  • Les membres ne sont pas réactifs ; certains messages urgents restent sans réponse.
  • Les objectifs n’ont pas été clairement définis.
  • Les délais et livrables n’ont pas été clairement définis.
  • L’esprit n’est pas positif et il n’y a pas de feed-back ou celui ci est systématiquement négatif.
  • Les attentes personnelles et celles du groupe n’ont pas été identifiées.
  • Les membres cherchent plutôt à esquiver, à éviter de contribuer.
  • Les membres ne s’engagent pas vraiment.

Ces facteurs contribuent à une performance du groupe élevée ou faible, qui elle-même contribue par une boucle de retour à la motivation des acteurs pour coopérer. On peut parler d’une véritable spirale de la confiance.

La spirale de la confiance

A partir des différents éléments cités ci-dessus, on peut donc évoquer un processus cumulatif, une sorte de spirale, qui peut être positive ou négative :

  • au départ, un acteur va contribuer au groupe sur la base d’une « confiance instantanée », donc forcément limitée ;
  • en fonction de la contribution des autres, du côté positif du feed-back et éventuellement de la performance constatée, cet acteur sera incité à renforcer sa contribution.

En sens opposé, on peut vite imaginer comment se crée un « processus contre-productif » où la dimension sociale d’un groupe joue dans le sens contraire de la compétence individuelle et finit par démotiver complètement la personne. En d’autres termes, si on oppose une personne compétente à un système déficient, le système gagne à tous les coups.

La compétence individuelle, 6ème facteur de performance collective

Dans cet esprit, une étude nord-américaine a démontré que la compétence individuelle n’intervenait qu’en sixième position comme facteur de performance collective ; les spécifications des produits, le système organisationnel, les feed-back du système aux actions étant des préalables à l’efficacité collective :

  1. Spécifications claires (produit de sortie, standards )
  2. Support organisationnel (ressources, priorités, processus, rôles )
  3. Conséquences personnelles (reconnaissance des autres )
  4. Feedback du système (résultat d’une action)
  5. Savoir-être de l’individu (physique, mental, émotionnel)
  6. Compétence et savoir individuel

Cela tend à montrer que les dispositifs de formation professionnelle sont certes nécessaires, mais qu’il peuvent être très dispendieux s’ils ne s’inscrivent pas dans une démarche globale, incluant une refonte des organisations (modes de fonctionnement de l’équipe, management), du système d’évaluation et de reconnaissance (objectifs, réalisation, évaluation de la performance), des processus (modélisation des tâches et des compétences), des spécifications produits.

Les conventions du travail collaboratif

Revenons à nos équipes virtuelles ; il semblerait qu’un certain nombre de conventions ou protocole favorisent l’établissement d’un niveau de confiance suffisant pour un travail collaboratif efficace. Ces conventions se regroupent en cinq catégories :

  • Catégorie : Intégrité
    • Caractéristiques : honnêteté, éthique, loyauté, respect, fiabilité et engagement
    • Facteurs et comportements : être honnête, tenir ses engagements,être réactif, être droit et loyal, être fiable
  • Catégorie : Habilitation
    • Caractéritiques : savoirs, savoir-faire, compétences individuelles et collectives
    • Facteurs et comportements : mettre en application avec succès les savoirs, compétences, partager les expériences, les bonnes pratiques
  • Catégorie :Ouverture
    • Caractéristiques : volonté de partager des idées et des informations, intérêt aux autres, apprendre des erreurs
    • Facteurs et comportements : informer les autres,partager librement les idées et les informations, être curieux,donner un feed-back positif,reconnaître ses erreurs
  • Catégorie : Charisme
    • Caractéristiques :empathie, envie de bien faire, bonne volonté, générosité
    • Facteurs et comportements : s’entraider,être amical, être courtois,avoir de la considération,rester humble,savoir apprécier le travail des autres
  • Catégorie : Attentes
    • Caractéristiques : bénéfice potentiel, cohérence, évaluation
    • Facteurs et comportements : être à l’écoute des attentes, rechercher un consensus ou des compromis, rester cohérent sur les attentes

Ce qui est important dans cette énumération de facteurs, c’est qu’ils n’ont pas tous la même importance par rapport au processus cumulatif de construction de la confiance :

  • Certains sont mineurs, ils seront corrigés en temps réel : quelqu’un oublie de communiquer une information, le groupe lui fait remarquer, il s’en excuse ; c’est une mise au point nécessaire.
  • Certains sont « proportionnels » : tout le monde n’a pas le même charisme et cela n’empêche pas forcément un groupe de fonctionner.
  • Certains sont majeurs et définitifs : c’est notamment le cas des facteurs regroupés dans la catégorie « intégrité » ; une trahison sera perçue comme une atteinte définitive à la confiance.

Conclusion : le rôle de la confiance dans la connaissance collective

Une fois admis que la subjectivité, l’affectif, l’émotion, gouverne nos représentations individuelles, on conçoit que le processus de construction collective d’une représentation passe nécessairement par une étape de mise en commun des perceptions, de confrontation, de négociation et de délibération de ces différentes subjectivités. Ce processus nécessite des qualités humaines d’empathie, de « reliance  »[6] davantage que des capacités d’analyse.

En ce sens, l’organisation n’est pas tant un système de « traitement de l’information » mais bien de « création de connaissance collective ». C’est là que réside l’enjeu humain du Knowledge Management.

Du Knowledge Management au knowledge enabling

Partant de ces considérations sur la nature de la connaissance, profondément engrammée dans l’individu en tant que sujet, on peut en déduire qu’on ne manage pas la connaissance, comme on manage un objet ; le terme Knowledge Management, que j’utilise volontiers, est en fait un abus de langage ; tout au plus peut on manager les conditions dans lesquelles la connaissance peut se créer, se formaliser, s’échanger, se valider, etc. Les anglo-saxons parleraient de knowledge enabling.

Cela permet également d’introduire une précision fondamentale : le management de la connaissance collective est avant tout une problématique de flux ; ce qui est important c’est de manager les transitions entre tous les états de la connaissance : tacite, implicite, explicite, individuel, collectif, etc. Tous les outils du KM (socialisation, formalisation, médiatisation, pédagogie) doivent se focaliser sur l’optimisation de ces flux de transition.

Notes

[1] Crédit photo : Notsogoodphotography – CC by (Creative Commmons By)

[2] « Un mort c’est un drame, dix morts c’est un accident, mille morts c’est une statistique »

[3] R. Wittorski, De la fabrication des compétences, Education permanente, n°135, 1998-2

[4] Alain, dans Dieux déguisés, nous décrit magnifiquement l’effet Pygmalion : « J’ai souvent constaté, avec les enfants et avec les hommes aussi, que la nature humaine se façonne aisément d’après les jugements d’autrui, …Si vous marquez un galérien, vous lui donnez une sorte de droit sauvage. Dans les relations humaines, cela mène fort loin, le jugement appelant sa preuve, et la preuve fortifiant le jugement… La misanthropie ne mène à rien. Si vous vous défiez, vous serez volé. Si vous méprisez, vous serez haï. Les hommes se hâtent de ressembler au portrait que vous vous faites d’eux. Au reste essayez d’élever un enfant d’après l’idée, mille fois répétée à lui, qu’il est stupide et méchant; il sera tel… »

[5] Les termes originaux de Tuckman forming, storming, norming, performing sont assez difficiles à traduire. Beaucoup d’auteurs français traduisent notamment Storming par conflit ; je pense que, dans le mot anglais storming, comme par exemple dans brainstorming, il y a une connotation de chaos créatif, de nécessité de passer d’un état à un autre ; l’adolescence pourrait être une bonne métaphore. De même « Performing » doit être compris au sens de la « représentation d’un orchestre » où l’on entend une pâte musicale unique, au sein de laquelle il est impossible de dissocier un instrument.

[6] Le mot est d’Edgar Morin




Geektionnerd : Oracle rachète Sun

Oracle a racheté Sun en avril dernier, ce qui n’a pas été sans créer un certain émoi dans la communauté du libre.

Ainsi on pouvait lire sur LinuxFr : « L’accord cite principalement les deux principaux actifs logiciels de Sun : Java et Solaris. On peut se demander ce qu’il adviendra des produits libres de Sun (Java, MySQL, OpenOffice.org, VirtualBox, OpenSolaris, GlassFish, OpenSPARC, NetBeans, etc.) et surtout de leur politique globale vers le libre. »

PS : Notons que la situation n’était pas forcément rose non plus avant l’arrivée d’Oracle.

Geektionnerd - Simon Gee Giraudot - CC by-sa

Geektionnerd - Simon Gee Giraudot - CC by-sa

Geektionnerd - Simon Gee Giraudot - CC by-sa

Crédit : Simon Gee Giraudot (Creative Commons By-Sa)




Copyright Watch ou l’observatoire mondial et collaboratif du droit d’auteur

Copyright Watch - EFFHadopi aura non seulement contribué à intéresser un grand nombre de nos concitoyens sur un sujet autrefois chasse gardée des industries culturelles, mais elle aura également permis de mettre le focus sur la France (en refroidissant d’ailleurs peut-être certains autres gouvernements dans leur velléités d’en faire autant).

Or justement qu’en est-il exactement de la situation hors de nos frontières sur toutes ces questions autour d’un droit d’auteur[1] qui se trouve totalement bousculé par l’avènement des nouvelles technologies et pratiques en réseau qui en découlent ?

Force est de reconnaître qu’en dehors de notre propre pays et de celui, influence numérique oblige, des États-Unis, nous n’en avons bien souvent qu’une connaissance ponctuelle, partielle et parcellaire (même si des sites comme Numerama, FFII ou La Quadrature font de gros efforts pour nous tenir au courant, en particulier sur l’Europe).

C’est pourquoi la nouvelle initiative de l’Electronic Frontier Foundation est plus que bienvenue. Elle s’appelle Copyright Watch et vise à suivre et surveiller le droit d’auteur et ses évolutions dans chaque pays.

En effet, avoir ainsi à disposition eu un unique endroit des documents, liens et informations actualisées, indépendantes et localisées sur les législations en vigueur (ou en préparation) nous sera précieux pour étude, information, comparaison, action, etc.

Le projet débute à peine, il est pour ainsi en bêta actuellement. Le premier objectif étant de trouver des correspondants (NdT : des local copyright monitors) prêt à maintenir leurs informations nationales à jour. Une fois ceci réalisé nous serons alors en présence d’une ressource de référence nous permettant d’avoir une meilleure vue d’ensemble sur la situation internationale, pointant ici des lois liberticides et là des lois favorisant au contraire le partage et diffusion d’une culture des biens communs.

Une base de données d’autant plus bienvenue que tout le monde n’a pas forcément intérêt à ce que tout ceci soit facilement accessible 😉

Qu’est-ce que Copyright Watch ?

About Copyright Watch

Copyright Watch – Novembre 2009 – Traduction partielle de la page « About » du site
(Traduction Framalang : Siltaar et Goofy)

Avant, le détail des lois sur le droit d’auteur n’était important que pour une minorité travaillant dans les industries culturelles. Désormais, avec la croissance d’Internet, nous sommes tout concernés car nous sommes potentiellement tous des auteurs, éditeurs, et partageurs d’œuvres de création.

Notre rêve est ici de construire une ressource conviviale sur les lois nationales du droit d’auteur afin d’aider les citoyens du monde à entreprendre des recherches comparatives. Nous souhaitons en effet sensibiliser à l’importance d’un droit d’auteur équilibré dans la société de l’information, et attirer l’attention sur les points communs et les divergences dans l’approche législative des différents pays.

Nous avons aussi voulu créer un outil de partage d’information, où des correspondants locaux pourraient publier des informations à propos des amendements proposés sur leurs propres lois du droit d’auteur, et à comprendre les changements dans celles des autres.

Nous espérons que Copyright Watch sera une ressource maintenue et conduite par la communauté de l’accès au savoir (NdT : Access to Knowledge movement, c’est-à-dire nous tous si nous participons) et que ce système de veille sur le droit d’auteur dans chaque pays permettra de garder cette information pertinente et à jour.

Enfin, nous espérons que Copyright Watch aidera à documenter l’importance du droit d’auteur sur tous les aspects de la vie culturelle et des libertés fondamentales. Équilibrées et bien calibrées les lois sur le droit d’auteur sont extrêmement importantes dans notre société mondiale et mondialisée de l’information.

Le plus petit changement dans l’équilibre juridique entre les ayants droit et le public peut permettre ou détruire des modèles économiques, criminaliser ou libérer des comportements quotidiens, et transformer ou éradiquer de nouvelles technologies. Une loi qui est passée dans un pays peut rapidement être reprise par d’autres, par des accords commerciaux bilatéraux, des initiatives politiques régionales ou des traités internationaux.

Nous devons tous rester vigilants.

Notes

[1] Rappelons une nouvelle fois que le Copyright anglo-saxon n’est pas synonyme de Droit d’auteur (cf liens Wikipédia).




Nous y sommes, par Fred Vargas

Joiseyshowaa - CC by-saJe suis un heureux lecteur de Fred Vargas (m’est avis d’ailleurs qu’il doit se cacher quelques Jean-Baptiste Adamsberg dans la communauté du logiciel libre).

Elle a soutenu la liste Europe Écologie aux élections européennes de juin dernier, en signant sur le site de campagne un article que vous n’avez peut-être pas lu et que je souhaitais vous faire partager (à la manière de ces autres publications « hors sujet » du Framablog).

Origine de l’auteur oblige, on est plus ici dans la littérature que dans le politique. Mais sentez-vous vous aussi l’imminence et la nécessité de cette « Troisième Révolution » ? Et si oui, le mouvement du logiciel libre a-t-il quelque chose à y apporter ?

Dans la mesure où le site de campagne tout entier est placé sous licence Creative Commons By-Sa, on peut en déduire que l’article l’est également[1].

Nous y sommes

URL d’origine du document

Fred Vargas – 7 novembre 2008 – EuropeEcologie.fr

Nous y voilà, nous y sommes.

Depuis cinquante ans que cette tourmente menace dans les hauts-fourneaux de l’incurie de l’humanité, nous y sommes. Dans le mur, au bord du gouffre, comme seul l’homme sait le faire avec brio, qui ne perçoit la réalité que lorsqu’elle lui fait mal.

Telle notre bonne vieille cigale à qui nous prêtons nos qualités d’insouciance. Nous avons chanté, dansé. Quand je dis « nous », entendons un quart de l’humanité tandis que le reste était à la peine.

Nous avons construit la vie meilleure, nous avons jeté nos pesticides à l’eau, nos fumées dans l’air, nous avons conduit trois voitures, nous avons vidé les mines, nous avons mangé des fraises du bout monde, nous avons voyagé en tous sens, nous avons éclairé les nuits, nous avons chaussé des tennis qui clignotent quand on marche, nous avons grossi, nous avons mouillé le désert, acidifié la pluie, créé des clones, franchement on peut dire qu’on s’est bien amusés.

On a réussi des trucs carrément épatants, très difficiles, comme faire fondre la banquise, glisser des bestioles génétiquement modifiées sous la terre, déplacer le Gulf Stream, détruire un tiers des espèces vivantes, faire péter l’atome, enfoncer des déchets radioactifs dans le sol, ni vu ni connu. Franchement on s’est marrés. Franchement on a bien profité. Et on aimerait bien continuer, tant il va de soi qu’il est plus rigolo de sauter dans un avion avec des tennis lumineuses que de biner des pommes de terre. Certes.

Mais nous y sommes.

A la Troisième Révolution. Qui a ceci de très différent des deux premières (la Révolution néolithique et la Révolution industrielle, pour mémoire) qu’on ne l’a pas choisie.

« On est obligés de la faire, la Troisième Révolution ? » demanderont quelques esprits réticents et chagrins.

Oui. On n’a pas le choix, elle a déjà commencé, elle ne nous a pas demandé notre avis. C’est la mère Nature qui l’a décidé, après nous avoir aimablement laissés jouer avec elle depuis des décennies. La mère Nature, épuisée, souillée, exsangue, nous ferme les robinets. De pétrole, de gaz, d’uranium, d’air, d’eau.

Son ultimatum est clair et sans pitié : Sauvez-moi, ou crevez avec moi (à l’exception des fourmis et des araignées qui nous survivront, car très résistantes, et d’ailleurs peu portées sur la danse).

Sauvez-moi, ou crevez avec moi. Evidemment, dit comme ça, on comprend qu’on n’a pas le choix, on s’exécute illico et, même, si on a le temps, on s’excuse, affolés et honteux. D’aucuns, un brin rêveurs, tentent d’obtenir un délai, de s’amuser encore avec la croissance.

Peine perdue. Il y a du boulot, plus que l’humanité n’en eut jamais. Nettoyer le ciel, laver l’eau, décrasser la terre, abandonner sa voiture, figer le nucléaire, ramasser les ours blancs, éteindre en partant, veiller à la paix, contenir l’avidité, trouver des fraises à côté de chez soi, ne pas sortir la nuit pour les cueillir toutes, en laisser au voisin, relancer la marine à voile, laisser le charbon là où il est –attention, ne nous laissons pas tenter, laissons ce charbon tranquille- récupérer le crottin, pisser dans les champs (pour le phosphore, on n’en a plus, on a tout pris dans les mines, on s’est quand même bien marrés).

S’efforcer. Réfléchir, même. Et, sans vouloir offenser avec un terme tombé en désuétude, être solidaire.

Avec le voisin, avec l’Europe, avec le monde.

Colossal programme que celui de la Troisième Révolution. Pas d’échappatoire, allons-y. Encore qu’il faut noter que récupérer du crottin, et tous ceux qui l’ont fait le savent, est une activité foncièrement satisfaisante. Qui n’empêche en rien de danser le soir venu, ce n’est pas incompatible. A condition que la paix soit là, à condition que nous contenions le retour de la barbarie, une autre des grandes spécialités de l’homme, sa plus aboutie peut-être.

A ce prix, nous réussirons la Troisième révolution. A ce prix nous danserons, autrement sans doute, mais nous danserons encore.

Notes

[1] Crédit photo : Joiseyshowaa (Creative Commons By-Sa)




National Portrait Gallery vs Wikipédia ou la prise en étau et en otage de la Culture ?

Cliff1066 - CC byTous ceux qui ont eu un jour à jouer les touristes à Londres ont pu remarquer l’extrême qualité et la totale… gratuité des grands musées nationaux. Rien de tel pour présenter son patrimoine et diffuser la culture au plus grand nombre. Notons qu’à chaque fois vous êtes accueilli à l’entrée par de grandes urnes qui vous invitent à faire un don, signifiant par là-même qu’ils ne sont plus gratuits si jamais vous décidez d’y mettre votre contribution.

Parmi ces musées on trouve le National Portrait Gallery qui « abrite les portraits d’importants personnages historiques britanniques, sélectionnés non en fonction de leurs auteurs mais de la notoriété de la personne représentée. La collection comprend des peintures, mais aussi des photographies, des caricatures, des dessins et des sculptures. » (source Wikipédia).

Or la prestigieuse galerie vient tout récemment de s’illustrer en tentant de s’opposer à la mise en ligne sur Wikipédia de plus de trois mille reproductions photographiques d’œuvres de son catalogue tombées dans le domaine public. Le National Portrait Gallery (ou NPG) estime en effet que ces clichés haute-résolution lui appartiennent et ont été téléchargés sans autorisation sur Wikimedia Commons, la médiathèque des projets Wikimédia dont fait partie la fameuse encyclopédie. Et la vénérable institution va même jusqu’à menacer d’une action en justice !

Il est donc question, une fois de plus, de propriété intellectuelle mais aussi et surtout en filigrane de gros sous. Personne ne conteste que le National Portrait Gallery ait engagé des dépenses pour numériser son fond et qu’elle ait besoin d’argent pour fonctionner. Mais n’est-il pas pour le moins choquant de voir un telle institution culturelle, largement financée par l’État, refuser ainsi un accès public à son contenu, sachant qu’elle et Wikipédia ne sont pas loin de poursuivre au final les même nobles objectifs ?

C’est ce que nous rappelle l’un des administrateurs de Wikipédia dans un billet, traduit ci-dessous par nos soins, issu du blog de la Wikimedia Foundation. Billet qui se termine ainsi : « Quoi qu’il en soit, il est difficile de prouver que l’exclusion de contenus tombés dans le domaine public d’une encyclopédie libre à but non lucratif, serve l’intérêt général. »

Remarque : L’illustration[1] choisie pour cet article représente le moment, en janvier dernier, où le célèbre portrait d’Obama réalisé par l’artiste Shepard Fairey entre au National Portrait Gallery, non pas de Londres mais de Washington. Ce portrait a lui aussi fait l’objet d’une forte polémique puisqu’il s’est directement inspiré d’une image d’un photographe travaillant pour l’Association Press qui a elle aussi tenté de faire valoir ses droits (pour en savoir plus… Wikipédia bien sûr). Décidément on ne s’en sort pas ! Heureusement que le portrait s’appelle « Hope »…

Protection du domaine public et partage de notre héritage culturel

Protecting the public domain and sharing our cultural heritage

Erik Moeller – 16 juillet 2009 – Wikimedia Blog
(Traduction Framalang : Claude le Paih)

La semaine dernière, le National Portrait Gallery de Londres, Royaume Uni, a envoyé une lettre menaçante à un bénévole de Wikimédia concernant la mise en ligne de peintures du domaine public vers le dépôt de Wikimédia : Wikimédia Commons.

Le fait qu’une institution financée publiquement envoie une lettre de menace à un bénévole travaillant à l’amélioration d’une encyclopédie sans but lucratif, peut vous paraitre étrange. Après tout, la National Portrait Gallery fut fondée en 1856, avec l’intention déclarée d’utiliser des portraits « afin de promouvoir l’appréciation et la compréhension des hommes et femmes ayant fait, ou faisant, l’histoire et la culture britannique » (source) Il parait évident qu’un organisme public et une communauté de volontaires promouvant l’accès libre à l’éducation et la culture devraient être alliés plutôt qu’adversaires.

Cela parait particulièrement étrange dans le contexte des nombreux partenariats réussis entre la communauté Wikimédia et d’autres galeries, bibliothèques, archives et musées. Par exemple, deux archives allemandes, la Bundesarchiv et la Deutsche Fotothek, ont offert ensemble 350 000 images protégées par copyright sous une licence libre à Wikimédia Commons, le dépôt multimédia de la Fondation Wikimédia.

Ces donations photographiques furent le résultat heureux de négociations intelligentes entre Mathias Schindler, un bénévole de Wikimédia, et les représentants des archives. (Information sur la donation de la Bundearchiv ; Information sur la donation de la Fotothek).

Tout le monde est alors gagnant. Wikimédia aida les archives en travaillant à identifier les erreurs dans les descriptions des images offertes et en associant les sujets des photographies aux standards des métadatas. Wikipédia a contribué à faire mieux connaître ces archives. De même, les quelques trois cent millions de visiteurs mensuels de Wikipédia se sont vus offrir un accès libre à d’extraordinaires photographies de valeur historique, qu’ils n’auraient jamais pu voir autrement.

Autres exemples :

  • Au cours des derniers mois, des bénévoles de Wikimédia ont travaillé avec des institutions culturelles des États-Unis, du Royaume-Uni et des Pays-Bas afin de prendre des milliers de photographies de peintures et d’objets pour Wikimédia Commons. Ce projet est appelé « Wikipédia aime les arts ». Une nouvelle fois, tout le monde y gagne : les musées et galeries s’assurent une meilleure exposition de leur catalogue, Wikipédia améliore son service, et les gens du monde entier peuvent voir des trésors culturels auxquels ils n’auraient pas eu accès sinon. (voir la page anglaise de Wikipédia du projet et le portail néerlandais du projet).
  • Des bénévoles de Wikimédia travaillent individuellement, avec des musées et des archives, à la restauration numérique de vieilles images en enlevant des marques telles que taches ou rayures. Ce travail est minutieux et difficile mais le résultat est formidable : l’œuvre retrouve son éclat originel et une valeur informative pleinement restaurée. Le public peut de nouveau l’apprécier (le travail de restauration est coordonné grâce à la page « Potential restorations » et plusieurs exemples de restaurations peuvent être trouvés parmi les images de qualité de Wikimédia).

Trois bénévoles de Wikimédia ont résumé ces possibilités dans une lettre ouverte : Travailler avec, et non pas contre, les institutions culturelles. Les 6 et 7 Août, Wikimédia Australie organise une manifestation afin d’explorer les différents modèles de partenariats avec les galeries, bibliothèques, archives et musées (GLAM : Galleries, Libraries, Archives and Museums).

Pourquoi des bénévoles donnent-ils de leur temps à la photographie d’art, à la négociation de partenariat avec des institutions culturelles, à ce travail minutieux de restauration ? Parce que les volontaires de Wikipédia veulent rendre l’information (y compris des images d’importance informative et historique) librement disponible au monde entier. Les institutions culturelles ne devraient pas condamner les bénévoles de Wikimédia : elles devraient joindre leurs forces et participer à cette une mission.

Nous pensons qu’il existe pour Wikipédia de nombreuses et merveilleuses possibilités de collaborations avec les institutions culturelles afin d’éduquer, informer, éclairer et partager notre héritage culturel. Si vous souhaitez vous impliquer dans la discussion, nous vous invitons à rejoindre la liste de diffusion de Wikimédia Commons : la liste est lue par de nombreux bénévoles de Wikimédia, quelques volontaires liés aux comités de Wikimédias ainsi que des membres de la Fondation. Sinon, s’il existe un comité dans votre pays, vous pourriez vous mettre en contact directement avec eux. Vous pouvez également contacter directement la Wikimedia Foundation. N’hésitez pas à m’envoyer vos premières réflexions à erik(at)wikimedia(dot)org, je vous connecterai d’une manière appropriée.

La NPG (National Portrait Galery) est furieuse qu’un volontaire de Wikimédia ait mis en ligne sur Wikimédia Commons des photographies de peintures du domaine public lui appartenant. Au départ, la NPG a envoyé des lettres menaçantes à la Wikimedia Foundation, nous demandant de « détruire toutes les images » (contrairement aux déclarations publiques, ces lettres n’évoquaient pas un possible compromis. La NPG confond peut être sa correspondance et un échange de lettre en 2006 avec un bénévole de Wikimédia, (que l’utilisateur publie ici). La position de la NPG semble être que l’utilisateur a violé les lois sur le droit d’auteur en publiant ces images.

La NPG et Wikimédia s’accordent toutes deux sur le fait que les peintures représentées sur ces images sont dans le domaine public : beaucoup de ces portraits sont vieux de plusieurs centaines d’années, tous hors du droit d’auteur. Quoiqu’il en soit, la NPG prétend détenir un droit sur la reproduction de ces images (tout en contrôlant l’accès aux objets physiques). Autrement dit, la NPG pense que la reproduction fidèle d’une peinture appartenant au domaine public, sans ajout particulier, lui donne un nouveau droit complet sur la copie numérique, créant l’opportunité d’une valorisation monétaire de cette copie numérique pour plusieurs décennies. Pour ainsi dire, La NPG s’assure dans les faits le contrôle total de ces peintures du domaine public.

La Wikimedia Foundation n’a aucune raison de croire que l’utilisateur en question ait transgressé une loi applicable, et nous étudions les manières de l’aider au cas ou la NPG persisterait dans ses injonctions. Nous sommes ouvert à un compromis au sujet de ces images précises, mais il est peu probable que notre position sur le statut légal de ces images change. Notre position est partagée par des experts juridiques et par de nombreux membres de la communauté des galeries, bibliothèques, archives et musées. En 2003, Peter Hirtle, cinquante-huitième président de la Society of American Archivists (NdT : Société des Archivistes Américains), écrivit :

« La conclusion que nous devons en tirer est inéluctable. Les tentatives de monopolisation de notre patrimoine et d’exploitation commerciale de nos biens physiques appartenant au domaine public ne devraient pas réussir. De tels essais se moquent de l’équilibre des droits d’auteur entre les intérêts du créateur et du public. » (source)

Dans la communauté GLAM internationale, certains ont choisi l’approche opposée, et sont même allés plus loin en proposant que les institutions GLAM utilisent le marquage numérique et autres technologies de DRM (Digital Restrictions Management) afin de protéger leurs supposés droits sur des objets du domaine public et ainsi renforcer ces droits d’une manière agressive.

La Wikimedia Foundation comprend les contraintes budgétaires des institutions culturelles ayant pour but de préserver et maintenir leurs services au public. Mais si ces contraintes aboutissent à cadenasser et limiter sévèrement l’accès à leur contenu au lieu d’en favoriser la mise à disposition au plus grand nombre, cela nous amène à contester la mission de ces institutions éducatives. Quoi qu’il en soit, il est difficile de prouver que l’exclusion de contenus tombés dans le domaine public d’une encyclopédie libre à but non lucratif, serve l’intérêt général.

Erik Moeller
Deputy Director, Wikimedia Foundation

Notes

[1] Crédit photo : Cliff1066 (Creative Commons By)




Le socialisme nouveau est arrivé

Copyleft FlagLe socialisme est mort, vive le socialisme ? À l’instar de Is Google making us stupid? c’est une nouvelle traduction de poids que nous vous proposons aujourd’hui.

Un socialisme nouveau, revu et corrigé, est en train de prendre forme sur Internet. Telle est l’hypothèse de Kevin Kelly, célèbre éditorialiste du célèbre magazine Wired. Et l’on ne s’étonnera guère d’y voir le logiciel libre associé aux nombreux arguments qui étayent son propos.

Vous reconnaissez-vous dans ce « socialisme 2.0 » tel qu’il est présenté ici ? Peut-être oui, peut-être non. Mais il n’est jamais inutile de prendre un peu de recul et tenter de s’interroger sur ce monde qui s’accélère et va parfois plus vite que notre propre capacité à lui donner du sens.

Le nouveau Socialisme : La société collectiviste globale se met en ligne

The New Socialism: Global Collectivist Society Is Coming Online

Kevin Kelly – 22 mai 2009 – Wired
(Traduction Framalang : Poupoul2, Daria et Don Rico)

Bill Gates s’est un jour moqué des partisans de l’Open Source avec le pire épithète qu’un capitaliste puisse employer. Ces gens-là, a-t-il dit, sont « une nouvelle race de communistes », une force maléfique décidée à détruire l’incitation monopolistique qui soutient le Rêve Américain. Gates avait tort : les fanatiques de l’Open Source sont plus proches des libertariens que des communistes. Il y a pourtant une part de vérité dans son propos. La course effrénée à laquelle on se livre partout sur la planète pour connecter tout le monde avec tout le monde dessine doucement les contours d’une version revue et corrigée du socialisme.

Les aspects communautaires de la culture numérique ont des racines profondes et étendues. Wikipédia n’est qu’un remarquable exemple de collectivisme émergeant parmi d’autres, et pas seulement Wikipédia mais aussi toute le système des wikis. Ward Cunningham, qui inventa la première page web collaborative en 1994, a recensé récemment plus de cent cinquante moteurs de wiki différents, chacun d’entre eux équipant une myriade de sites. Wetpaint, lancé il y a tout juste trois ans, héberge aujourd’hui plus d’un million de pages qui sont autant de fruits d’un effort commun. L’adoption massive des licences de partage Creative Commons et l’ascension de l’omniprésent partage de fichiers sont deux pas de plus dans cette direction. Les sites collaboratifs tels que Digg, Stumbleupon, the Hype Machine ou Twine poussent comme des champignons et ajoutent encore du poids à ce fantastique bouleversement. Chaque jour nous arrive une nouvelle start-up annonçant une nouvelle méthode pour exploiter l’action communautaire. Ces changements sont le signe que l’on se dirige lentement mais sûrement vers une sorte de socialisme uniquement tourné vers le monde en réseau.

Mais on ne parle pas là du socialisme de votre grand-père. En fait, il existe une longue liste d’anciens mouvements qui n’ont rien à voir avec ce nouveau socialisme. Il ne s’agit pas de lutte des classes. Il ne s’agit pas d’anti-américanisme. Le socialisme numérique pourrait même être l’innovation américaine la plus récente. Alors que le socialisme du passé était une arme d’État, le socialisme numérique propose un socialisme sans État. Cette nouvelle variété de socialisme agit dans le monde de la culture et de l’économie, plutôt que dans celui de la politique… pour le moment.

Le communisme avec lequel Gates espérait salir les créateurs de Linux est né dans une période où les frontières étaient rigides, la communication centralisée, et l’industrie lourde et omniprésente. Ces contraintes ont donné naissance à une appropriation collective de la richesse qui remplaçait l’éclatant chaos du libre marché par des plans quinquennaux imposés par un politburo tout puissant.

Ce système d’exploitation politique a échoué, c’est le moins que l’on puisse dire. Cependant, contrairement aux vieilles souches du socialisme au drapeau rouge, le nouveau socialisme s’étend sur un Internet sans frontières, au travers d’une économie mondiale solidement intégrée. Il est conçu pour accroître l’autonomie individuelle et contrecarrer la centralisation. C’est la décentralisation à l’extrême.

Au lieu de cueillir dans des fermes collectives, nous récoltons dans des mondes collectifs. Plutôt que des usines d’État, nous avons des usines d’ordinateurs connectées à des coopératives virtuelles. On ne partage plus des forêts, des pelles ou des pioches, mais des applications, des scripts et des APIs. Au lieu de politburos sans visage, nous avons des méritocracies anonymes, où seul le résultat compte. Plus de production nationale, remplacée par la production des pairs. Finis les rationnements et subventions distribués par le gouvernement, place à l’abondance des biens gratuits.

Je reconnais que le terme socialisme fera forcément tiquer de nombreux lecteurs. Il porte en lui un énorme poids culturel, au même titre que d’autres termes associés tels que collectif, communautaire ou communal. J’utilise le mot socialisme parce que techniquement, c’est celui qui représente le mieux un ensemble de technologies dont l’efficience dépend des interactions sociales. L’action collective provient grosso modo de la richesse créée par les sites Web et les applications connectées à Internet lorsqu’ils exploitent du contenu fourni par les utilisateurs. Bien sûr, il existe un danger rhétorique à réunir autant de types d’organisation sous une bannière aussi provocatrice. Mais puisqu’il n’existe aucun terme qui soit vierge de toute connotation négative, autant donner une nouvelle chance à celui-là. Lorsque la multitude qui détient les moyens de production travaille pour atteindre un objectif commun et partage ses produits, quand elle contribue à l’effort sans toucher de salaire et en récolte les fruits sans bourse délier, il n’est pas déraisonnable de qualifier ce processus de socialisme.

À la fin des années 90, John Barlow, activiste, provocateur et hippie vieillissant, a désigné ce courant par le terme ironique de « point-communisme » (NdT : en référence au point, dot, des nom de domaines des sites Web comme framablog point org). Il le définissait comme une « main d’œuvre composée intégralement d’agents libres », « un don décentralisé ou une économie de troc où il n’existe pas de propriété et où l’architecture technologique définit l’espace politique ». En ce qui concerne la monnaie virtuelle, il avait raison. Mais il existe un aspect pour lequel le terme socialisme est inapproprié lorsqu’il s’agit de désigner ce qui est en train de se produire : il ne s’agit pas d’une idéologie. Il n’y a pas d’exigence de conviction explicite. C’est plutôt un éventail d’attitudes, de techniques et d’outils qui encouragent la collaboration, le partage, la mise en commun, la coordination, le pragmatisme, et une multitude de coopérations sociales nouvellement rendues possibles. C’est une frontière conceptuelle et un espace extrêmement fertile pour l’innovation.

Socialisme 2.0 - HistoriqueDans son livre publié en 2008, Here Comes Everybody (NdT : Voici venir chacun), le théoricien des médias Clay Chirky propose une hiérarchie utile pour classer ces nouveaux dispositifs. Des groupes de personnes commencent simplement par partager, puis ils progressent et passent à la coopération, à la collaboration et, pour finir, au collectivisme. À chaque étape, on constate un accroissement de la coordination. Une topographie du monde en ligne fait apparaître d’innombrables preuves de ce phénomène.

I. Le partage

Les masses connectées à l’Internet sont animées par une incroyable volonté de partage. Le nombre de photos personnelles postées sur Facebook ou MySpace est astronomique, et il y a fort à parier que l’écrasante majorité des photos prises avec un appareil photo numérique sont partagées d’une façon ou d’une autre. Sans parler des mises à jour du statut de son identité numérique, des indications géographiques, des bribes de réflexion que chacun publie çà et là. Ajoutez-y les six milliards de vidéos vues tous les mois sur Youtube pour les seuls États-Unis et les millions de récits issus de l’imagination de fans d’œuvres existantes. La liste des sites de partage est presque infinie : Yelp pour les critiques, Loopt pour la géolocalisation, Delicious pour les marque-pages.

Le partage est la forme de socialisme la plus tempérée, mais elle sert de fondation aux niveaux les plus élevés de l’engagement communautaire.

II. La coopération

Lorsque des particuliers travaillent ensemble à atteindre un objectif d’envergure, les résultats apparaissent au niveau du groupe. Les amateurs n’ont pas seulement partagé plus de trois milliards de photos sur Flickr, ils les ont aussi associées à des catégories ou des mots-clés ou les ont étiquetées (NdT : les tags). D’autres membres de la communauté regroupent les images dans des albums. L’usage des populaires licences Creative Commons aboutit à ce que, d’une façon communautaire, voire communiste, votre photo devienne ma photo. Tout le monde peut utiliser une photo, exactement comme un communiste pourrait utiliser la brouette de la communauté. Je n’ai pas besoin de prendre une nouvelle photo de la tour Eiffel, puisque la communauté peut m’en fournir une bien meilleure que la mienne.

Des milliers de sites d’agrégation emploient la même dynamique sociale pour un bénéfice triple. Premièrement, la technologie assiste directement les utilisateurs, en leur permettant d’étiqueter, marquer, noter et archiver du contenu pour leur propre usage. Deuxièmement, d’autres utilisateurs profitent des tags et des marque-pages des autres… Et tout ceci, au final, crée souvent une valeur ajoutée que seul le groupe dans son ensemble peut apporter. Par exemple, des photos d’un même endroit prises sous différents angles peuvent être assemblées pour former une reproduction du lieu en 3D stupéfiante. (Allez voir du côté de Photosynth de Microsoft). Curieusement, cette proposition va plus loin que la promesse socialiste du « chacun contribue selon ses moyens, chacun reçoit selon ses besoins », puisqu’elle améliore votre contribution et fournit plus que ce dont vous avez besoin.

Les agrégateurs communautaires arrivent à d’incroyables résultats. Des sites tels que Digg ou Reddit, qui permettent aux utilisateurs de voter pour les liens qu’ils souhaitent mettre en évidence, peuvent orienter le débat public autant que les journaux ou les chaînes de télévision (pour info Reddit appartient à la maison mère de Wired, Condé Nast). Ceux qui contribuent sérieusement à ces sites y consacrent plus d’énergie qu’ils ne pourront jamais en recevoir en retour, mais ils continuent en partie à cause du pouvoir culturel que représentent ces outils. L’influence d’un participant s’étend bien au-delà d’un simple vote, et l’influence collective de la communauté surpasse de loin le nombre de ses participants. C’est l’essence même des institutions sociales, l’ensemble dépasse la somme de ses composants. Le socialisme traditionnel visait à propulser cette dynamique par le biais de l’État. Désormais dissociée du gouvernement et accrochée à la matrice numérique mondiale, cette force insaisissable s’exerce à une échelle plus importante que jamais.

III. La collaboration

La collaboration organisée peut produire des résultats dépassant ceux d’une coopération improvisée. Les centaines de projets de logiciel Open Source, tel que le serveur Web Apache, en sont le parfait exemple. Dans ces aventures, des outils finement ciselés par la communauté génèrent des produits de haute qualité à partir du travail coordonné de milliers ou dizaines de milliers de membres. Contrairement à la coopération traditionnelle, la collaboration sur d’énormes projets complexes n’apporte aux participants que des bénéfices indirects, puisque chaque membre du groupe n’intervient que sur une petite partie du produit final. Un développeur motivé peut passer des mois à écrire le code d’une infime partie d’un logiciel dont l’état global est encore à des années-lumière de son objectif. En fait, du point de vue du marché libre, le rapport travail/récompense est tellement dérisoire (les membres du projet fournissent d’immenses quantités de travail à haute valeur ajoutée sans être payés) que ces efforts collaboratifs n’ont aucun sens au sein du capitalisme.

Pour ajouter à la dissonance économique, nous avons pris l’habitude de profiter du fruit de ces collaborations sans mettre la main à la poche. Plutôt que de l’argent, ceux qui participent à la production collaborative gagnent en crédit, statut, réputation, plaisir, satisfaction et expérience. En plus d’être gratuit, le produit peut être copié librement et servir de socle à d’autres produits. Les schémas alternatifs de gestion de la propriété intellectuelle, parmi lesquelles Creative Commons ou les licences GNU, ont été créés pour garantir ces libertés.

En soi, la collaboration n’a bien sûr rien de spécialement socialiste. Mais les outils collaboratifs en ligne facilitent un style communautaire de production qui exclut les investisseurs capitalistes et maintient la propriété dans les mains de ceux qui travaillent, voire dans celles des masses consommatrices.

IV Le collectivisme

Socialisme 2.0 - Ancien / NouveauAlors qu’une encyclopédie peut être rédigée de façon coopérative, nul n’est tenu pour responsable si la communauté ne parvient pas au consensus, et l’absence d’accord ne met pas en danger l’entreprise dans son ensemble. L’objectif d’un collectif est cependant de concevoir un système où des pairs autogérés prennent la responsabilité de processus critiques, et où des décisions difficiles, comme par exemple définir des priorités, sont prises par l’ensemble des acteurs. L’Histoire abonde de ces centaines de groupes collectivistes de petite taille qui ont essayé ce mode de fonctionnement. Les résultats se sont révélés peu encourageants (quand bien même on ne tienne pas compte de Jim Jones et de la « famille » de Charles Manson).

Or, une étude approfondie du noyau dirigeant de Wikipédia, Linux ou OpenOffice, par exemple, montre que ces projets sont plus éloignés de l’idéal collectiviste qu’on pourrait le croire vu de l’extérieur. Des millions de rédacteurs contribuent à Wikipédia, mais c’est un nombre plus restreint d’éditeurs (environ mille cinq cents) qui est responsable de la majorité de l’édition. Il en va de même pour les collectifs qui écrivent du code. Une myriade de contributions est gérée par un groupe plus réduit de coordinateurs. Comme Mitch Kapor, membre fondateur de la Mozilla Open Source Code Factory, le formule : « au cœur de toutes les anarchies qui marchent, il y a un réseau à l’ancienne ».

Ce n’est pas forcément une mauvaise chose. Certaines formes de collectivisme tirent avantage de la hiérarchie, alors que d’autres en souffrent. Des plateformes tels qu’Internet et Facebook, ou même la démocratie, qui servent de substrat à la production de biens ou à la fourniture de services, profitent de l’absence quasi totale de hiérarchie, laquelle réduit les obstacles à l’intégration et permet la répartition équitable des droits et responsabilités. Lorsque des acteurs puissants émergent, la structure dans son ensemble souffre. D’un autre côté, les organisations bâties pour créer des produits ont souvent besoin de dirigeants forts, et de hiérarchies organisées capable de se projeter dans l’avenir : l’un des niveaux se concentre sur les besoins immédiats, l’autre sur les cinq années à venir.

Par le passé, il était quasi impossible de construire une organisation qui exploitait la hiérarchie tout en maximisant le collectivisme. Désormais, les réseaux numériques fournissent l’infrastructure nécessaire. Le Net donne la possibilité aux organisations concentrées sur le produit de fonctionner collectivement, tout en empêchant la hiérarchie d’en prendre totalement le pouvoir. L’organisation qui conçoit MySQL, une base de données Open Source, n’est pas animée par un refus romantique de la hiérarchie, mais elle est bien plus collectiviste qu’Oracle. De la même manière, Wikipédia n’est pas un bastion d’égalité, mais elle est largement plus collectiviste que l’encyclopédie Britannica. Le cœur élitiste que nous trouvons au centre des collectifs en ligne est en fait un signe que le socialisme sans État peut fonctionner à grande échelle.

La plupart des occidentaux, moi y compris, ont été endoctrinés par l’idée que l’extension du pouvoir des individus réduit forcément le pouvoir de l’État, et vice versa. Pourtant, dans la pratique, la plupart des politiques socialisent certaines ressources et en individualisent d’autres. Les économies de marché ont pour la plupart socialisé l’éducation, et même les sociétés les plus socialisées autorisent une certaine forme de propriété privée.

Plutôt que de voir le socialisme technologique comme une sorte de compromis à somme nulle entre l’individualisme du marché libre et une autorité centralisée, on peut le considérer comme un système d’exploitation culturel qui élève en même temps l’individu et le groupe. Le but, largement désarticulé mais intuitivement compréhensible, de la technologie communautaire consiste à maximiser l’autonomie individuelle et le pouvoir de ceux qui travaillent ensemble. Ainsi, on peut voir le socialisme numérique comme une troisième voie rendant les vieux débats obsolètes.

Ce concept de troisième voie est également rapporté par Yochai Benkler, auteur de The Wealth of Networks (NdT : La richesse des réseaux), qui a probablement réfléchi plus que quiconque aux politiques des réseaux. Il affirme voir « l’émergence de la production sociale et de la production collective comme une alternative aux systèmes propriétaires et fermés, basés sur l’État ou le marché », notant que ces activités « peuvent accroître la créativité, la productivité et la liberté ». Le nouveau système d’exploitation, ce n’est ni le communisme classique et sa planification centralisée sans propriété privée, ni le chaos absolu du marché libre. C’est au contraire un espace de création émergeant, dans lequel la coordination publique décentralisée peut résoudre des problèmes et créer des richesses, là où ni le communisme ni le capitalisme purs et durs n’en sont capables.

Les systèmes hybrides qui mélangent les mécanismes marchands et non marchands ne sont pas nouveaux. Depuis des décennies, les chercheurs étudient les méthodes de production décentralisées et socialisées des coopératives du nord de l’Italie et du Pays Basque, dans lesquelles les employés sont les propriétaires, prennent les décisions, limitent la distribution des profits et sont indépendants du contrôle de l’État. Mais seule l’arrivée de la collaboration à bas prix, instantanée et omniprésente que permet Internet a rendu possible la migration du cœur de ces idées vers de nombreux nouveaux domaines telle que l’écriture de logiciels de pointe ou de livres de référence.

Le rêve, ce serait que cette troisième voie aille au-delà des expériences locales. Jusqu’où ? Ohloh, une entreprise qui analyse l’industrie de l’Open Source, a établi une liste d’environ deux cent cinquante mille personnes travaillant sur deux cent soixante-quinze mille projets. C’est à peu près la taille de General Motors et cela représente énormément de gens travaillant gratuitement, même si ce n’est pas à temps complet. Imaginez si tous les employés de General Motors n’étaient pas payés, tout en continuant à produire des automobiles !

Jusqu’à présent, les efforts les plus importants ont été ceux des projets Open Source, dont des projets comme Apache gèrent plusieurs centaines de contributeurs, environ la taille d’un village. Selon une étude récente, la version 9 de Fedora, sortie l’année dernière, représenterait soixante mille années-homme de travail. Nous avons ainsi la preuve que l’auto-assemblage et la dynamique du partage peuvent gouverner un projet à l’échelle d’une ville ou d’un village décentralisé.

Évidemment, le recensement total des participants au travail collectif en ligne va bien au-delà. YouTube revendique quelques trois cent cinquante millions de visiteurs mensuels. Presque dix millions d’utilisateurs enregistrés ont contribué à Wikipédia, cent soixante mille d’entre eux sont actifs. Plus de trente-cinq millions de personnes ont publié et étiqueté plus de trois milliards de photos et vidéos sur Flickr. Yahoo héberge près de huit millions de groupes sur tous les sujets possibles et imaginables. Google en compte près de quatre millions.

Ces chiffres ne représentent toujours pas l’équivalent d’une entière nation. Peut-être ces projets ne deviendront-ils jamais grand public (mais si Youtube n’est pas un phénomène grand public, qu’est-ce qui l’est ?). Pourtant, la population qui baigne dans les médias socialisés est indéniablement significative. Le nombre de personnes qui créent gratuitement, partagent gratuitement et utilisent gratuitement, qui sont membres de fermes logicielles collectives, qui travaillent sur des projets nécessitant des décisions collectives, ou qui expérimentent les bénéfices du socialisme décentralisé, ce nombre a atteint des millions et progresse en permanence. Des révolutions sont nées avec bien moins que cela.

On pourrait s’attendre à de la démagogie de la part de ceux qui construisent une alternative au capitalisme et au corporatisme. Mais les développeurs qui conçoivent des outils de partage ne se voient pas eux-mêmes comme des révolutionnaires. On n’est pas en train d’organiser de nouveaux partis politiques dans les salles de réunions, du moins pas aux États-Unis (en Suède, le Parti Pirate s’est formé sur une plateforme de partage, et il a remporté un piètre 0,63% des votes aux élections nationales de 2006).

En fait, les leaders du nouveau socialisme sont extrêmement pragmatiques. Une étude a été menée auprès de deux mille sept cent quatre-vingt-quatre développeurs Open Source afin d’analyser leurs motivations. La plus commune d’entre elles est « apprendre et développer de nouvelles compétences ». C’est une approche pratique. La vision académique de cette motivation pourrait être : « si je bosse sur du code libre, c’est surtout pour améliorer le logiciel ». En gros, la politique pour la politique n’est pas assez tangible.

Même ceux qui restent et ne participent pas au mouvement pourraient ne pas être politiquement insensibles à la marée montante du partage, de la coopération, de la collaboration et du collectivisme. Pour la première fois depuis des années, des pontes de la télévision et des grands magazines nationaux osent prononcer le mot tabou « socialisme », désormais reconnu comme une force qui compte dans la politique des États-Unis. À l’évidence, la tendance à la nationalisation de grosses portions de l’industrie, à l’établissement d’un système de santé public et à la création d’emplois avec l’argent du contribuable n’est pas dû en totalité au techno-socialisme. Ainsi les dernières élections ont démontré le pouvoir d’une base décentralisée et active sur le Web, dont le cœur bat au rythme de la collaboration numérique. Plus nous tirons les bénéfices d’une telle collaboration, plus nous nous ouvrons la porte à un avenir d’institutions socialistes au gouvernement. Le système coercitif et totalitaire de la Corée du Nord n’est plus, le futur est un modèle hybride qui s’inspire de Wikipédia et du socialisme modéré de la Suède.

Jusqu’où ce mouvement nous rapprochera-t-il d’une société non capitaliste, Open Source, à la productivité collaborative ? Chaque fois cette question apparue, la réponse a été : plus près que nous le pensons. Prenons Craigslist, par exemple. Ce ne sont que des petites annonces classées, n’est-ce pas ? Pourtant, ce site a démultiplié l’efficacité d’une sorte de troc communautaire pour toucher un public régional, puis l’a amélioré en intégrant des images et des mises à jour en temps réel, jusqu’à devenir soudain un trésor national. Fonctionnant sans financement ni contrôle public, connectant les citoyens entre eux sans intermédiaire, cette place de marché essentiellement gratuite produit du bien et du lien social avec une efficacité qui laisserait pantois n’importe quel gouvernement ou organisation traditionnelle. Bien sûr, elle ébranle le modèle économique des journaux, mais en même temps il devient indiscutable que le modèle de partage est une alternative viable aux entreprises à la recherche permanente de profits et aux institutions civiques financées par les impôts.

Qui aurait cru que des paysans précaires pourraient obtenir et rembourser des prêts de cent dollars accordés par de parfaits étrangers vivant à l’autre bout du monde ? C’est ce que réussit Kiva en fournissant des prêts de pair-à-pair. Tous les experts de santé publique ont déclaré sous le sceau de la confidentialité que le partage, ça convenait pour les photos, mais que personne ne partagerait son dossier médical. Pourtant, PatientsLikeMe, où les patients mettent en commun les résultats de leurs traitements pour échanger et mieux prendre soin d’eux-mêmes, a montré que l’action collective peut contredire les médecins et leurs craintes concernant la confidentialité.

L’habitude de plus en plus répandue qui consiste à partager ce que vous pensez (Twitter), ce que vous lisez (StumbleUpon), ce que vous gagnez (Wesabe), bref tout et n’importe quoi (le Web) est en train de prendre une place essentielle dans notre culture. En faire de même en créant des encyclopédies, des agences de presse, des archives vidéo, des forges logicielles, de façon collaborative, dans des groupes rassemblant des contributeurs du monde entier sans distinction de classe sociale, voilà ce qui fait du socialisme politique la prochaine étape logique.

Un phénomène similaire s’est produit avec les marchés libres du siècle dernier. Chaque jour, quelqu’un demandait : « Y a-t-il quelque chose que les marchés ne peuvent pas faire ? ». Et on établissait ainsi une liste de problèmes qui semblaient nécessiter une planification rationnelle ou un mode de gouvernance paternaliste en leur appliquant une logique de place de marché. Dans la plupart des cas, c’était la solution du marché qui fonctionnait le mieux, et de loin. Les gains de prospérité des décennies récentes ont été obtenus en appliquant les recettes du marché aux problèmes sociaux.

Nous essayons aujourd’hui d’en faire de même avec la technologie sociale collaborative, en appliquant le socialisme numérique à une liste de souhaits toujours plus grande (jusqu’aux problèmes que le marché libre n’a su résoudre) pour voir si cela fonctionne. Pour l’instant, les résultats ont été impressionnants. Partout, la puissance du partage, de la coopération, de la collaboration, de l’ouverture, de la transparence et de la gratuité s’est montrée plus pragmatique que nous autres capitalistes le pensions possible. À chaque nouvelle tentative, nous découvrons que le pouvoir du nouveau socialisme est plus grand que nous ne l’imaginions.

Nous sous-estimons la capacité de nos outils à remodeler nos esprits. Croyions-nous réellement que nous pourrions construire de manière collaborative et habiter des mondes virtuels à longueur de temps sans que notre perception de la réalité en soit affectée ? La force du socialisme en ligne s’accroît. Son dynamisme s’étend au-delà des électrons, peut-être même jusqu’aux élections.