L’avenir libre de Bernard Stiegler ou gratuit de Jacques Attali ?

Un titre un peu caricatural pour un billet qui met simplement en parallèle deux récentes et intéressantes interviews vidéos, la première de Jacques Attali, la seconde de Bernard Stiegler.

Choisis ton camp camarade ? Pas vraiment, parce que les deux intellectuels n’abordent pas exactement le même sujet, bien qu’il soit à chaque fois question de l’avenir de nos sociétés (on remarquera qu’ils citent tous deux Wikipédia mais pas avec le même dessein).

Jacques Attali

La gratuité – Dans le cade de l’émission Conversation d’avenirs sur Public Sénat
22 décembre 2009 – URL d’origine de la vidéo

Bernard Stiegler

Vers une économie de la contribution – En visite chez Siné-Hebdo
24 novembre 2009 – URL d’origine de la vidéo




Sébastien Broca : Du logiciel libre aux théories de l’intelligence collective

Woallance3 - CC byNotre énergie, enthousiasme et optimisme ne doivent pas nous faire oublier les deux principaux écueils qui menacent en permanence ce blog, et peut-être aussi par extension toute la dite « Communauté du Libre ».

Le premier est la tentation d’enjoliver la situation et d’alimenter ainsi une mythologie, voire même une idéologie. Du côté open source, on n’aura de cesse de venter la qualité des logiciels libres, les vertus d’une organisation en mode « bazar et les formidables opportunités économiques offertes par le service autour du logiciel libre. Tandis que du côté free software, on mettra l’accent sur une éthique et un ensemble de valeurs, ainsi synthétisés non sans emphase par Richard Stallman en ouverture de ses conférences : « Je puis résumer le logiciel libre en trois mots : liberté, égalité, fraternité ».

Le second écueil consiste à croire, ou feindre de croire, que le modèle proposé par les logiciels libres est reproductible en dehors de la sphère informatique, l’exemple emblématique étant la « culture libre », dont nous serions bien en peine d’en proposer une définition exacte. Certains vont même jusqu’à voir dans ce modèle une possible alternative globale pour nos sociétés, qualifiées, peut-être trop vite d’ailleurs, de sociétés de l’information.

C’est pourquoi nous avons lu avec beaucoup d’intérêt le long mais passionnant article de Sébastien Broca « Du logiciel libre aux théories de l’intelligence collective » (paru initialement dans la Revue tic&société – Société de l’information ? Vol. 2, N° 2, 2008). Article que nous avons reproduit ci-dessous d’abord parce qu’il n’a peut-être pas eu toute l’attention qu’il méritait mais aussi telle une invitation à débattre ensemble des arguments avancés dans les commentaires.

Sébastien Broca est allocataire de recherche au Cetcopra (Univerisité Paris 1) où il réalise un doctorat de sociologie. Il résume ainsi son propos :

Cet article interroge la manière dont le mouvement du logiciel libre se trouve constitué dans de nombreux discours en modèle d‘avant-garde de transformations sociales globales. Je montre ainsi comment l’on passe d’une pratique singulière, mise en œuvre par les communautés du libre, à des théories sociologiques, économiques ou philosophiques, qui s’en inspirent largement. Je m’appuie pour ce faire sur les ouvrages récents de Pekka Himanen, Yann Moulier Boutang, Antonio Negri et Michael Hardt. J’essaie ensuite de mettre en lumière certaines difficultés relatives aux démarches de ces auteurs : généralisation abusive à partir de l’exemple du logiciel libre, et oubli des spécificités des divers domaines de la vie sociale.

Le frontispice du Framablog est orné de la citation suivante : « …mais ce serait l’une des plus grandes opportunités manquées de notre époque si le logiciel libre ne libérait rien d’autre que du code »[1]. C’est une question ouverte dont nous sentons bien, même confusément, l’extraordinaire potentiel. Encore faudrait-il être capable de l’affiner régulièrement avec lucidité et ne pas emprunter certaines postures peut-être parfois trop simplistes eu égard à la complexité du monde bien réel qui nous entoure…

PS : Pour un meilleur confort vous pouvez également lire ou imprimer la version PDF de l’article.

Du logiciel libre aux théories de l’intelligence collective

URL d’origine du document

Sébastien Broca – Revue tic&société – Société de l’information ? Vol. 2, N° 2, 2008
Mis à jour le 7 mai 2009 – Licence Creative Commons By-Nc-Nd

Introduction

Depuis une quinzaine d’années, le mouvement du logiciel libre a connu un développement fulgurant, mettant fortement en question la prééminence des logiciels propriétaires développés par les grandes entreprises du secteur informatique. Dans le même temps, certains intellectuels ont érigé ces bouleversements en symboles de transformations sociales plus générales, attendues ou espérées. En témoignent les occurrences nombreuses des références à la « démocratie open source », à « l’économie open source », voire à la « société open source ». Cette tendance à faire du mouvement du logiciel libre un des laboratoires où se préparerait la société du futur semble devoir nous interpeller à plus d’un titre. Elle incite d’une part à s’interroger sur le bien-fondé d’une démarche intellectuelle prenant appui sur une pratique spécifique, pour fonder un discours théorique à valeur générale et/ou prospective. Elle invite d’autre part à mener une réflexion critique sur les nouvelles grilles d’analyse, censées rendre compte des spécificités de notre époque.

Nous commencerons ainsi par retracer brièvement l’histoire du mouvement du logiciel libre, et par en rappeler les enjeux. Nous essaierons ensuite de montrer comment, sous l’effet d’un double mouvement d’idéalisation des pratiques et de généralisation de leur portée, les communautés du libre se trouvent présentées, dans un certain nombre de discours contemporains, comme porteuses d’un véritable modèle social d’avant-garde. Nous nous efforcerons aussi d’interroger les limites de ces discours, qui tendent à observer notre époque à travers le prisme unique du développement de pratiques de collaboration horizontales médiatisées par Internet.

1. Histoire et enjeux du mouvement du logiciel libre

1.1. Une brève histoire du libre

Le mouvement du logiciel libre se comprend comme une réaction aux changements intervenus dans l’industrie informatique au tournant des années 1970-1980, au moment où apparaît l’ordinateur personnel. Jusqu’à cette date, les utilisateurs et les programmeurs sont souvent les mêmes personnes, et à quelques exceptions près, ils peuvent librement modifier les logiciels, quand bien même ceux-ci sont soumis au copyright. Comme l’explique Eben Moglen,

dans la pratique, les logiciels pour supercalculateurs étaient développés de manière coopérative par le constructeur de matériel dominant et par ses utilisateurs techniquement compétents (Moglen, 2001, p. 160).

La situation évolue au début des années 1980. De nombreuses sociétés informatiques décident alors d’imposer des logiciels propriétaires, de privatiser du code auparavant libre, et de soumettre leurs informaticiens à des clauses de confidentialité[2].

Pour mesurer ces bouleversements, il faut savoir qu’un logiciel se présente sous deux formes. La première, dite version exécutable ou compilée, est écrite en « binaire ». C’est celle qui est lue par l’ordinateur, et elle n’est pas compréhensible pour un humain. La deuxième en revanche – appelée code source – n’est pas fonctionnelle, mais peut être appréhendée comme du « commentaire ». Écrite dans un langage de programmation compréhensible, elle explique aux développeurs comment fonctionne le programme. L’accès au code source est donc indispensable à qui veut opérer des modifications sur un logiciel. Or, c’est précisément cet accès qui se trouve fortement restreint par le mouvement de privatisation survenu au début des années 1980, qui empêche donc la communauté des informaticiens de collaborer pour améliorer les programmes.

C’est dans ce contexte que Richard Stallman, alors informaticien au laboratoire d’intelligence artificielle du MIT (Massachusetts Institute of Technology), décide en 1983 d’entreprendre la programmation d’un système d’exploitation entièrement « libre ». Il nomme celui-ci GNU (GNU is Not Unix), marquant ainsi sa volonté de se démarquer des nouvelles pratiques de l’informatique commerciale et de retrouver l’esprit coopératif d’antan. En 1985, il crée la Free Software Foundation pour faciliter le financement et le développement du projet. Les principes du logiciel libre sont formalisés en janvier 1989 dans la licence publique générale (GPL – General Public License). Celle-ci garantit aux utilisateurs quatre « libertés » : liberté d’utiliser le logiciel, liberté de le copier, liberté de le modifier (ce qui implique l’accès au code source), et liberté de le distribuer (y compris dans des versions modifiées). Tout logiciel respectant l’ensemble de ces « libertés » peut dès lors être considéré comme un « logiciel libre »[3].

Au début des années 1990, le projet GNU a abouti à l’écriture d’un système d’exploitation presque complet. Presque, car le noyau du système[4] fait encore défaut. Intervient alors la deuxième grande figure de l’histoire du logiciel libre : Linus Torvalds. À cette époque, cet étudiant finlandais de l’université d’Helsinki cherche à écrire un noyau, selon la légende pour pouvoir utiliser sur son ordinateur personnel les programmes sur lesquels il travaille dans le cadre de ses études. Il a alors l’idée brillante de rendre disponible sur Internet son travail inachevé, et d’inciter les informaticiens qui le souhaitent à le compléter. Grâce aux listes de diffusion et aux forums électroniques, des centaines puis des milliers de programmeurs en viennent à unir leurs efforts pour développer ce noyau, entre-temps nommé Linux. Bientôt, la combinaison des logiciels GNU et du noyau Linux donne naissance à un système d’exploitation complet : GNU/Linux, plus couramment appelé Linux.

Celui-ci a aujourd’hui acquis une solide réputation de fiabilité, et est devenu le concurrent principal de Windows. Il est emblématique de la réussite du logiciel libre, dont témoignent également Firefox, Apache, Open Office, et bien d’autres. Au fil des ans, ces succès ont éveillé l’intérêt des géants du secteur informatique, et ont favorisé une pénétration croissante des logiques économiques dans le monde du libre. Un exemple significatif est celui d’IBM. Alors que l’entreprise est en difficulté, ses dirigeants décident en 1999 de rendre libres de grandes quantités de lignes de code propriétaires, et de mettre en place des équipes pour travailler sur les projets Apache et Linux. Ce soutien à des projets libres est une réussite, et il s’amplifie à partir de 2002. Les bénéfices qu’en retire IBM sont en effet multiples : économies substantielles[5], réorientation de son activité vers de nouvelles offres de service[6], amélioration de son image…

1.2. L’idéologie du Libre

L’influence croissante des grands groupes informatiques a suscité d’importantes réserves et révélé quelques fractures parmi les défenseurs du logiciel libre. En témoigne notamment la controverse ayant éclaté à la fin des années 1990, suite au lancement de l’Open Source Initiative. Cette organisation est créée en 1998 pour promouvoir un label dissident (OSI approved), censé être moins contraignant que la licence GPL, et donc plus attractif pour le monde des affaires. L’initiative est condamnée par Richard Stallman et la Free Software Foundation, bien que dans les faits,la différence entre les deux labels devienne assez rapidement de pure forme[7]. Le débat – parfois virulent – entre les deux parties met en lumière la coexistence au sein du monde du libre de deux « philosophies » assez nettement opposées. Pour les partisans de l’open source, les logiciels libres doivent êtres défendus pour l’unique raison qu’ils sont meilleurs que les logiciels propriétaires ! À l’inverse, pour les défenseurs du free software et son fondateur Richard Stallman, la performance technologique est une préoccupation secondaire par rapport au mouvement social que représente le logiciel libre, et aux principes qu’il défend.

Par-delà son contenu, la controverse entre open source et free software révèle l’importance des discours de positionnement idéologique dans le milieu du libre. Le mouvement du logiciel libre est ainsi indissociable des discours produits par ses acteurs pour légitimer et promouvoir leur pratique de la programmation informatique. Ce trait est particulièrement marquant, s’agissant de la question de l’organisation des communautés de développeurs. Celles-ci sont souvent opposées aux structures pyramidales dominantes dans les sphères économiques et politiques (grandes entreprises, partis politiques, etc.). Elles sont décrites comme mettant en œuvre une organisation horizontale, reposant sur le partage de l’information et la coopération directe entre participants. Seuls les individus affectueusement nommés « dictateurs bienveillants » sont censés y tenir un rôle hiérarchique. Il s’agit d’une ou plusieurs personnes qui, en fonction du mérite qui leur est reconnu par la communauté, assurent pour chaque projet une fonction de direction, de coordination, et de sélection des contributions. Au sein du projet Linux, Linus Torvalds dirige ainsi la cellule chargée de choisir et d’assembler les modifications apportées au noyau du code source. À cette restriction près, l’idéal véhiculé par les partisans du logiciel libre est bien celui d’une communauté d’égaux, reposant sur le partage, la collaboration, et le jugement par les pairs.

Cette image est toutefois un peu trop parfaite pour ne pas fournir un reflet quelque peu déformé de la réalité. Il faut ainsi prendre garde à ce que le discours des défenseurs du logiciel libre peut avoir de militant, voire d’idéologique. Certaines études de terrain semblent ainsi démontrer que les structures hiérarchiques sont souvent plus fortes que ce que les acteurs eux-mêmes veulent bien admettre. Dans un travail réalisé en 2004, Thomas Basset montre ainsi, en étudiant le développement de la suite logiciels VideoLAN[8], qu’il existe un décalage important entre le discours des participants au projet et la réalité des pratiques. Bien que les développeurs mettent en avant l’idéal d’un « libre échange du savoir entre personnes égales (…) hors de toute structure hiérarchique » (Basset, 2003, p. 28), l’observation du chercheur met en lumière l’existence d’une forte hiérarchie informelle. Au moment de l’étude, le projet VideoLAN repose ainsi sur une distribution du travail très inégalitaire, encore renforcée par des « manœuvres volontaires de rétention de l’information » (Basset, 2003, p. 52) en contradiction flagrante avec les discours tenus.

De façon générale, il faut avoir en tête que le mouvement du logiciel libre a non seulement produit des réalisations de tout premier ordre (Linux, Apache, etc.), mais aussi – et c’est là presque aussi important – un ensemble de discours mettant en avant certaines valeurs et certains modes de fonctionnement. Or, ces discours fonctionnent parfois comme une véritable idéologie, contribuant à voiler la réalité des pratiques. Par ailleurs, s’il est vrai que cette idéologie du libre n’est pas parfaitement homogène et cohérente (c’est ce qui apparaît notamment à travers la controverse entre free software et open source mentionnée plus haut), il s’en dégage néanmoins certaines constantes : méfiance envers la hiérarchie, valorisation du mérite individuel, promotion d’une éthique de la collaboration. On insistera ainsi sur le fait que la valorisation simultanée du mérite individuel et de la collaboration n’est contradictoire que superficiellement. Le mode d’organisation des communautés du libre est précisément censé permettre à chacun de concilier une grande autonomie dans son travail avec une inscription dans un projet collectif. En effet, une organisation horizontale apparaît par définition peu susceptible de soumettre les individus au groupe, en ce qu’elle refuse toute forme de hiérarchie et de contrôle centralisé. Dans le même temps, elle permet à un grand nombre de relations de coopération de se nouer, dans la mesure où tout le monde peut potentiellement être en contact avec tout le monde. Si l’on suit l’idéologie du libre, il faut donc dire que la communauté, pour autant qu’en soient bannies les rigidités hiérarchiques et qu’y soit favorisée la collaboration, se présente comme le terrain le plus propice à révéler le mérite individuel. Que les choses soient plus compliquées en pratique est une évidence qu’il faut garder en tête. Néanmoins, il n’est pas exagéré d’affirmer que le mouvement du logiciel libre véhicule in fine une certaine idée des structures les plus aptes à assurer le plein épanouissement de l’individu et de la collectivité, dans le domaine de la programmation informatique voire au-delà.

2. Le logiciel libre comme modèle social d’avant-garde

Je voudrais désormais pousser le raisonnement plus loin, et examiner la manière dont certains intellectuels n’étant pas directement impliqués dans le milieu du logiciel libre, se sont emparés de cette thématique pour fonder leurs analyses d’un certain nombre de transformations sociales en cours. Autrement dit, je voudrais considérer des discours qui vont au-delà de ce que j’ai nommé l’idéologie du logiciel libre, dans la mesure où ils se présentent comme porteurs d’une analyse de portée générale sur l’évolution de nos sociétés. Ces discours tendent ainsi à reprendre l’idéalisation du logiciel libre véhiculée par ses acteurs, tout en étendant la portée du modèle à d’autres activités sociales. Le logiciel libre devient de la sorte un socle sur lequel se trouve bâtie toute une construction intellectuelle. Je développerai trois exemples pour appuyer ce propos.

2.1. Pekka Himanen : la propagation de « l’éthique hacker »

Le philosophe finlandais Pekka Himanen a consacré à « l’éthique hacker » un ouvrage au retentissement important, paru en France en 2001 : L’Éthique hacker et l’esprit de l’ère de l’information[9]. Il y soutient queles pratiques et les valeurs du monde du logiciel libre ont donné naissance à « une nouvelle éthique du travail qui s’oppose à l’éthique protestante du travail telle que l’a définie Max Weber » (Himanen, 2001, p. 10). Cette nouvelle éthique se caractériserait par une relation au travail fondée sur la passion et l’intérêt personnel, et non sur le devoir moral et l’intérêt financier. Pour les hackers, le travail ne serait ainsi ni posé comme fin en soi indépendamment de son contenu, ni considéré comme simple moyen d’assurer sa subsistance ou sa richesse. L’important serait au contraire la satisfaction personnelle éprouvée dans la réalisation d’une tâche, devant être vécue comme intrinsèquement intéressante et gratifiante : « Les hackers font de la programmation parce que les défis qu’elle génère ont un intérêt intrinsèque pour eux » écrit ainsi P. Himanen (Ibid., p. 23). Il cite également Linus Torvalds, qui affirme que pour lui « Linux a largement été un hobby (mais un sérieux, le meilleur de tous) » (Ibid., p. 34).

Ce nouveau rapport au travail, qui repose sur une logique de développement de soi (Selbstentfaltung[10]), irait de pair avec un nouveau rapport au temps. Ainsi, pour les hackers, la distinction entre temps de travail et temps de loisir se trouverait brouillée, au profit d’un temps flexible où travail, hobbies, familles, collègues et amis se trouveraient sans cesse mélangés.

À la lumière de ces éléments, on peut mettre en doute la radicale nouveauté de cette « éthique hacker ». P. Himanen reconnaît du reste lui-même que les universitaires ou – d’une manière différente – les artistes, entretiennent depuis longtemps ce même rapport passionné à leur travail, et valorisent eux aussi une organisation relativement « libre » de leur temps. La véritable nouveauté résiderait en fait dans la manière dont ce rapport au travail serait en train de se répandre dans la société, à partir des milieux hacker.

(…) l’éthique hacker du travail se propage doucement vers d’autres secteurs, à l’image de l’éthique protestante qui, selon Weber, a fait son chemin en partant des entreprises créées par des Protestants pour finir par dominer l’esprit du capitalisme (Ibid., pp. 66-67).

Autrement dit, à la faveur du passage de la société industrielle à la « société en réseaux » (Castells, 1998)[11], le rapport au travail des hackers deviendrait viable pour de larges pans de la main d’œuvre. Leur éthique se substituerait ainsi progressivement à l’éthique protestante traditionnelle (ou à sa déclinaison contemporaine, érigeant l’argent en valeur suprême). Les hackers seraient finalement une sorte de groupe social d’avant-garde, et le mouvement du logiciel libre la matrice dont émergerait une nouvelle société. « Le modèle hacker ouvert pourrait se transformer en un modèle social » écrit P. Himanen (2001,p. 86).

Cette thèse n’est pas sans poser certaines difficultés. En effet, la possibilité de généraliser la relation au travail des hackers à d’autres groupes sociaux, et à d’autres secteurs économiques, est loin d’être évidente. Pekka Himanen s’expose ainsi au reproche d’ethnocentrisme, dans la mesure où tous les types d’emplois ne semblent pas susceptibles d’engendrer un rapport passionné au travail. Ne se rend-il pas coupable de généraliser une attitude, qui est en fait un privilège réservé à une partie infime de la population ? N’oublie-t-il pas un peu vite la très grande spécificité des hackers en tant que catégorie socioprofessionnelle, lorsqu’il affirme que leur éthique a une valeur quasi « universelle » (Ibid.,p. 26) ?

La thèse d’Himanen d’une propagation de l’éthique hacker dans l’ensemble du corps social apparaît relativement difficile à maintenir telle quelle. On peut alors choisir de la tirer du côté de l’utopie, c’est-à-dire d’un état idéal du social dans lequel le travail ne serait plus aliénation mais autodéploiement. Mais tel n’est certainement pas le propos de l’auteur, qui adopte dans son ouvrage une posture plutôt « sociologique ». Peut-être faut-il alors se résoudre à tirer de son ouvrage – et à l’encontre de ce qu’il écrit lui-même – une thèse plus « faible ». La mise en pratique de l’éthique hacker ne serait finalement possible que dans des secteurs très spécifiques, pour les professionnels de l’information, les artistes, ou les chercheurs. La généralisation à l’ensemble de la société de l’attitude au travail propre au milieu du logiciel libre apparaît en effet assez peu vraisemblable.

2.2 Yann Moulier Boutang : le logiciel libre comme modèle productif d’un nouveau capitalisme

L’exemple du logiciel libre est également tout à fait central dans la démarche de Yann Moulier Boutang, économiste et directeur de la revue Multitudes. Celui-ci a entrepris depuis quelques années, en collaboration étroite avec d’autres chercheurs (Antonella Corsani, Carlo Vercellone, Bernard Paulré…), de renouveler les cadres d’analyse de la science économique pour saisir les mutations contemporaines du capitalisme. Ce projet a donné naissance à l’hypothèse du « capitalisme cognitif ». Selon Yann Moulier Boutang, nous serions ainsi en train de sortir du capitalisme industriel pour entrer dans un nouveau type d’économie, « fondé sur l’accumulation du capital immatériel, la diffusion du savoir et le rôle moteur de l’économie de la connaissance » (Moulier Boutang, 2007, p. 85). Le capitalisme ne se nourrirait plus « du muscle consommé dans les machines marchant à la dissipation de l’énergie "carbo-fossile" » (Ibid., p. 65), mais de la « force cognitive collective » (Ibid., p. 65), ou encore de « l’intelligence collective » (Ibid., pp. 61-67). La source de la richesse résiderait donc aujourd’hui dans le travail social de communication et d’invention, ou encore dans la manipulation et la création de connaissances.

À mesure que les formes du travail et les sources de la richesse se modifieraient, le mode de production propre au capitalisme industriel entrerait en crise. Certes bien loin de disparaître complètement, il serait néanmoins délaissé dans les secteurs « avancés » de l’économie. En effet, l’adaptabilité, la flexibilité et la créativité permises par l’organisation en réseau, se révèleraient plus propres à révéler l’intelligence collective, que la rigidité de la one best way propre au taylorisme.

La thèse de Yann Moulier Boutang est ainsi qu’un nouveau mode de production émerge, qu’il définit comme « le travail de coopération des cerveaux réunis en réseau au moyen d’ordinateurs » (Ibid., p. 95). Point n’est besoin de trop de perspicacité pour s’apercevoir que cette description correspond parfaitement au modèle de fonctionnement des communautés du logiciel libre. Et pour cause ! Selon Yann Moulier Boutang, ces communautés sont l’exemple paradigmatique de ce nouveau mode de production propre au capitalisme cognitif. Ainsi, « le phénomène social et économique du libre » fournirait

un véritable modèle productif. Et ceci, tant sur le plan des forces sociales nouvelles que l’on peut repérer, sur celui de la division sociale du travail, que sur celui de la rationalité des agents économiques qui se trouve ainsi inventée, promue, des formes d’identité non pas au travail mais à un travail qui a changé fortement de contenu (Ibid., p. 125).

Yann Moulier Boutang accorde ainsi au logiciel libre une valeur d’exemplarité : ce qu’ont réussi à mettre en place quelques milliers de passionnés à travers le monde dans le domaine de la production informatique, serait un avant-goût d’un bouleversement global de l’organisation du travail. Suivant la voie tracée par les hackers, les forces productives deviendraient progressivement comparables à « l’activité collective cérébrale mobilisée en réseaux numériques interconnectés » (Ibid., p. 93).

Dans le même temps, le capitalisme cognitif deviendrait de plus en plus assimilable à une économie open source. En effet, dès lors que la richesse résiderait désormais dans l’ensemble du travail social de communication et d’invention, l’entreprise n’en serait plus l’unique productrice. Elle se devrait au contraire de capter une richesse antérieure, c’est-à-dire de valoriser ce qui émerge spontanément de l’ensemble des échanges sociaux.

L’intelligence entrepreneuriale consiste désormais à convertir la richesse déjà là dans l’espace virtuel du numérique en valeur économique (Ibid., p. 167).

Les entreprises auraient ainsi un intérêt profond à laisser se développer sans entraves la coopération en réseau, car celle-ci leur offrirait in fine les meilleures occasions de profit, en leur permettant de tirer profit d’une grande quantité de travail gratuit.

L’activité humaine innovante de la coopération des cerveaux à l’ère numérique produit dans la science, dans l’art, dans les formes collectives du lien social des gisements nouveaux et impressionnants d’externalités positives pour les entreprises, c’est-à-dire de travail gratuit incorporable dans de nouveaux dispositifs de captation et de mise en forme(Ibid., p. 122).

Comme l’aura déjà remarqué le lecteur attentif, ce nouveau business model correspond en tout point aux stratégies mises en œuvre par certaines grandes multinationales du secteur informatique pour tirer parti du logiciel libre. Ainsi, quand IBM profite du travail gratuit des communautés Linux ou Apache, et réoriente ainsi son activité vers une nouvelle offre de services (cf. supra), l’entreprise opère précisément ce que Yann Moulier Boutang décrit comme une captation de l’intelligence collective.

Le logiciel libre constitue donc pour Yann Moulier Boutang le phénomène économique et social, permettant d’analyser le capitalisme cognitif dans ses multiples facettes. Les communautés de développeurs du libre auraient ainsi « inventé » le mode de production caractéristique de ce nouveau régime économique, tandis que les entreprises ayant investi dans l’open source auraient développé son business model. La démarche théorique de Yann Moulier Boutang apparaît donc finalement très proche de celle de Pekka Himanen, dans la mesure où elle procède par généralisation à partir de l’exemple des communautés du logiciel libre, en tendant à faire de celles-ci des sortes d’avant-gardes. Elle s’expose de ce fait au même type de critique. Emporté par son admiration pour « la révolution californienne du capitalisme » (Ibid., p. 25), Moulier Boutang semble sous-estimer la spécificité du logiciel libre, et la difficulté à exporter ce modèle vers d’autres secteurs économiques. Fabien Granjon a ainsi noté que « les nouveaux aspects de production » sur lesquels les tenants de la thèse du « capitalisme cognitif » fondent leur théorie, « ne constituent que des sphères relativement restreintes de l’activité économique : ainsi en est-il du domaine du logiciel libre » (Granjon, 2008, p. 63). De manière analogue, Michel Husson a pointé la tendance de ceux qu’ils nomment les « cognitivistes » à « extrapoler des tendances partielles sans comprendre qu’elles ne peuvent se généraliser » (Husson, 2007, p. 139).

Il est intéressant de noter que Yann Moulier Boutang est conscient de s’exposer à de telles objections. Il tente d’y répondre, en proposant une analogie entre sa démarche et celle de Marx à l’aube de l’ère industrielle :

On s’intéresse en général à des observations empiriques sélectionnées dans un fatras rhapsodique d’informations multiples parce qu’on cherche les variables pertinentes qui commandent la tonalité d’ensemble ou permettent de prévoir des trajectoires d’évolution. Le grand trait de génie de Marx et Engels n’est pas d’avoir étudié la population laborieuse la plus nombreuse en Angleterre, (c’étaient les domestiques qui se comptaient par millions) mais les quelques 250 000 ouvriers des usines de Manchester (Moulier Boutang, 2007, p. 99).

L’argument est malicieux, et non dénué de pertinence. Toutefois, il ne suffit pas à effacer l’impression que la généralisation opérée par Moulier Boutang à partir du logiciel libre repose sur un pari. Celui d’affirmer que nos économies post-industrielles vont effectivement suivre la voie tracée par les expériences pionnières du logiciel libre. Or, s’il y a là un avenir possible, ce n’est certainement pas le seul ! La période actuelle paraît en effet trop incertaine, pour qu’on puisse écarter, par exemple, l’hypothèse du développement d’un « capitalisme gestionnaire d’effets de réseaux et de verrouillage » (Aigrain, 2007, p. 252), capitalisme qui serait bien entendu totalement contraire au modèle promu par les tenants du libre. Yann Moulier Boutang ne semble certes pas considérer ce scénario comme crédible, mais c’est là une position qui relève davantage de l’acte de foi que de la démonstration irréfutable. Ou, pour le dire de façon plus clémente : Yann Moulier Boutang assume les risques et les faiblesses de tout discours sur le social ne se contentant pas d’être descriptif, mais ayant une double visée de synthèse et de prospective. Sa démarche visant à faire du logiciel libre le modèle d’un nouveau capitalisme en gestation est donc nécessairement très perméable à la critique.

2.3. Michael Hardt et Antonio Negri : la démocratie comme « société open source ».

Ayant bénéficié d’un important succès commercial, les ouvrages Empire et Multitudes de Michael Hardt et Antonio Negri se présentent comme une tentative de rénover la philosophie politique critique, à l’heure de la mondialisation et des nouvelles technologies de l’information et de la communication. Ils sont notamment consacrés à la construction d’une théorie originale de la démocratie, inspirée en partie par le mouvement du logiciel libre. Avant d’aborder celle-ci en tant que telle, il faut préciser que les auteurs ancrent leur réflexion dans une analyse des transformations économiques contemporaines ; analyse tout à fait semblable à celle de Yann Moulier Boutang. Ils insistent ainsi sur la progression de la part du travail immatériel, et sur l’importance nouvelle de la coopération en réseau sur le modèle du logiciel libre.

L’originalité de leur propos se situe dans la thèse selon laquelle ces transformations économiques rejailliraient sur toutes les dimensions de la vie en société. C’est ce qu’ils appellent, en reprenant un terme forgé par Michel Foucault, la dimension biopolitique de la production.

Dans le cadre de ce travail immatériel, la production déborde hors des frontières traditionnelles de l’économie et se déverse directement dans le domaine culturel, social et politique. Elle crée non seulement des biens matériels, mais des relations sociales concrètes et des formes de vie. Nous appelons « biopolitique » cette forme de production, afin de souligner le caractère générique de ses produits et le fait qu’elle a directement prise sur l’ensemble de la vie sociale (Hardt et Negri, 2004, p. 121).

Ce caractère biopolitique de la production est, selon les auteurs, à l’origine d’une isomorphie croissante entre les structures économiques et les autres structures sociales, y compris politiques. Autrement dit, le développement de la forme réseau dans le cadre de la production immatérielle aurait pour corrélat la progression de cette même forme dans toutes les dimensions de la vie sociale. Ainsi Michael Hardt et Antonio Negri écrivent-ils notamment que

les institutions de la démocratie doivent aujourd’hui coïncider avec les réseaux communicatifs et collaboratifs qui ne cessent de produire et reproduire la vie sociale (Ibid., p. 400).

C’est dans ce cadre conceptuel qu’il faut comprendre le lien établi par les auteurs entre le mouvement du logiciel libre et la redéfinition de la démocratie qu’ils appellent de leurs voeux. On peut ainsi – moyennant une simplification acceptable – donner à leur raisonnement la forme d’un syllogisme : Structures économiques et structures politiques tendent à devenir semblables. Or, le logiciel libre est emblématique des nouvelles structures économiques. Donc, le logiciel libre devient emblématique des nouvelles structures politiques ! Michael Hardt et Antonio Negri écrivent ainsi :

On peut donc voir la démocratie de la multitude comme une société open source, c’est-à-dire une société dont le code source est révélé, permettant à tous de collaborer à la résolution de ses problèmes et de créer des programmes sociaux plus performants (Ibid., p. 385).

À travers l’expression de « société open source », Michael Hardt et Antonio Negri poussent la généralisation à partir du mouvement du logiciel libre à l’extrême. Ils accordent à celui-ci une place centrale dans la construction d’un nouveau modèle de société, susceptible de fournir une alternative crédible au libéralisme débridé et aux « vieilles » démocraties parlementaires. Hardt et Negri font ainsi du projet du logiciel libre l’horizon d’une certaine gauche radicale : la « société open source » et la « démocratie de la multitude » sont fondues en un seul et même objectif politique.

Évidemment, c’est là prêter énormément au mouvement du logiciel libre (ici confondu avec l’open source), et faire peu de cas des ambiguïtés politiques qu’il recèle. On remarquera ainsi que les grands principes du libre (libre partage de l’information, organisation horizontale, autonomie laissée à chacun) dessinent en fait un projet politique relativement modeste. Comme le remarque Patrice Riemens, nous sommes « très en deçà des exigences de justice, d’équité, d’égalité, d’émancipation » (Riemens, 2002, p. 185), qui animent la plupart des grands projets politiques de gauche. De surcroît, il paraît délicat – plus en tous les cas que Negri et Hardt ne le laissent supposer – de faire du libre un projet politique global. En effet, l’engagement social d’une majorité de hackers semble se limiter à un attachement à la disponibilité du code au sein du monde informatique. Il a d’ailleurs été remarqué que

l’étendue du spectre des opinions politiques entretenues par les hackers individuels (…) est surprenante, et totalement inimaginable dans quelque autre « mouvement social » (Ibid., p. 185).

Il semble donc que Michael Hardt et Antonio Negri accordent au logiciel libre une portée sociale et politique légèrement excessive. Ils participent en cela d’un mouvement plus général, qui a vu plusieurs intellectuels de gauche s’enthousiasmer pour le libre au cours des années 2000[12]. Il est toutefois possible de faire une lecture légèrement différente de la référence à l’open source chez Hardt et Negri. On émettra ainsi l’hypothèse que leur intérêt se situe à un niveau plus abstrait. Autrement dit, la portée politique effective du mouvement du logiciel libre les intéresse peut-être moins, que le fait qu’il fournisse un modèle inédit pour penser une nouvelle forme et un nouveau contenude la démocratie[13]. C’est donc à ce niveau, disons plus « théorique », que je voudrais situer ma dernière critique.

Pour l’énoncer succinctement, celle-ci consiste à dire que la mise en avant du modèle du libre pour (re)penser la question démocratique est porteuse d’une négation de la spécificité de la politique. Ainsi, si l’on prend au sérieux la référence à l’open source, la « démocratie de la multitude » aurait pour objet la production collaborative d’une forme d’expertise collective. Elle aurait à mettre en œuvre des processus d’agrégation de savoirs locaux. Elle se présenterait comme une sorte de gigantesque entreprise de débogage, ou comme un problem solving à grande échelle.

De telles idées ont certes des aspects séduisants, d’une part parce qu’elles semblent promettre une gestion politique plus efficace[14], d’autre part parce qu’elles renouent avec l’idéal d’une démocratie qui reposerait véritablement sur la participation effective de tous et bannirait le secret. Toutefois, l’analogie entre l’open source et la démocratie pose des difficultés majeures. Ainsi, dans le cas du logiciel libre, la finalité de la collaboration ne prête pas à discussion, puisqu’il s’agit tout simplement de produire le meilleur logiciel possible. Corrélativement, la réussite (ou l’échec) des diverses modifications souffre assez peu de contestation. Elle s’évalue aisément, puisqu’il suffit d’exécuter le code pour observer si la nouvelle mouture est plus rapide et plus complète que l’ancienne, si elle contient des bugs, etc. En matière de démocratie, les choses sont nettement plus compliquées. Ainsi, il y a rarement unanimité sur l’identification et la hiérarchisation des « problèmes » auxquels la collectivité se trouve confrontée. On peut même dire que la discussion sur les fins de l’action politique est inéliminable : celles-ci sont toujours objets de litige. Le fonctionnement démocratique ne peut par conséquent être réduit à la recherche collective des moyens les plus efficaces de résoudre des problèmes, qui seraient eux soustraits à toute forme de mise en question.

Tout régime politique ouvert ne cesse ainsi d’être confronté à des questions, que l’acquisition d’un savoir, quel qu’il soit, ne peut suffire à trancher. La démocratie ne saurait la plupart du temps se contenter d’une somme de connaissances objectives pour déterminer sa pratique. Elle vit au contraire de la confrontation d’une diversité d’engagements argumentés, mettant en jeu une pluralité de valeurs, d’intérêts ou de « choix de société ». Elle est indissociable d’un régime de rationalité particulier : l’échange d’opinions conclu par le vote à la majorité, et non pas la production collaborative de connaissances dont dériveraient mécaniquement les décisions.

La référence à une hypothétique « démocratie open source » importe donc indûment dans le champ politique la rationalité technique et scientifique, au détriment de la rationalité proprement politique. Autrement dit, elle néglige le rapport de la politique à l’opinion, considérée en tant que catégorie épistémologique. Ainsi, dans le recouvrement de la doxa par l’épistèmê,et dans le remplacement du débat contradictoire par la collaboration en réseau, ce serait bien l’essence des enjeux et des procédures démocratiques qui serait perdue.

Conclusion

Au terme de ce parcours, il apparaît que les pratiques mises en place par les communautés du logiciel libre sont sujettes à une double distorsion. Elles se trouvent tout d’abord fréquemment idéalisées par les acteurs du libre eux-mêmes, dont le discours militant a souvent pour effet de recouvrir les difficultés posées par la mise en application du modèle qu’ils défendent. Une deuxième distorsion est imputable à certains intellectuels qui, en conférant aux expériences du logiciel libre une portée social générale, minimisent la spécificité d’un mouvement dont les enjeux sont – avant tout, bien que non exclusivement – internes au secteur informatique[15].

Ces théories « inspirées » du logiciel libre présentent des similitudes frappantes. Par-delà leurs champs d’application privilégiés, elles s’accordent pour voir la spécificité de notre période dans le développement de nouvelles formes de collaboration « intelligentes » médiatisées par Internet. À les suivre, les changements que connaît notre époque – qu’il s’agisse des mutations des formes de socialité, des bouleversements économiques, ou encore des nouvelles formes de l’engagement politique – seraient directement imputables à la nouvelle configuration sociotechnique, permettant de « mettre en réseau les cerveaux ». Ces changements seraient révélateurs d’une période de transition, entre une société industrielle mourante, et une société de « l’intelligence collective » propulsée par les nouvelles formes d’échange et de production de connaissances.

Si ces théories saisissent indéniablement un trait marquant de notre époque, elles semblent néanmoins pêcher par un certain réductionnisme. Elles présentent en effet une tendance à ramener des phénomènes hétérogènes à une grille d’explication unique, faisant fi des spécificités des différents domaines de la vie sociale. Elles tendent parfois aussi à occulter des traits particulièrement frappants de notre époque : montée inouïe des inégalités, déséquilibres écologiques, etc. On pourra ainsi regretter que le discours sur le partage de l’information ne s’accompagne que trop rarement d’un discours sur le partage des richesses, ou des ressources naturelles.

Bibliographie
  • AIGRAIN P., 2007, « Capitalisme cognitif et politiques qualitatives après la révolution informationnelle » in MOULIER BOUTANG Y., 2007, Le capitalisme cognitif, Paris, Éditions Amsterdam.
  • BASSET T., 2003, Monographie d’un logiciel libre : VideoLAN, Mémoire de DEA, Institut d’Études Politiques de Paris, en ligne : http://www.framasoft.net/IMG/videolan.pdf (consulté le 19 novembre 2008).
  • CASTELLS M., 1998, L’ère de l’information, vol. 1 : La société en réseaux, Paris, Fayard.
  • GORZ A., 2003, L’immatériel, Paris, Galilée.
  • GRANJON F., 2008, « Les nouveaux résistants à l’ère du numérique. Entre utopie sociale et déterminisme technique », in PROULX S.et alii, 2008, L’action communautaire québecoise à l’ère du numérique, Montréal, Presses de l’Université du Québec, pp. 59-76.
  • HARDT M. et NEGRI A., 2004, Multitudes, Paris, La Découverte.
  • HIMANEN P., 2001, L’éthique hacker et l’esprit de l’ère de l’information, Paris, Exils.
  • HUSSON M., 2007, « Notes critiques sur le capitalisme cognitif », ContreTemps, n°18, pp. 138-141, en ligne : http://hussonet.free.fr/cognict.pdf (consulté le 10 novembre 2008).
  • MERTEN S., 2002, « Logiciel libre et éthique du développement de soi : entretien avec Joanne Richardson », Multitudes, n°8, pp. 188-199, en ligne : http://multitudes.samizdat.net/Logiciel-libre-et-ethique-du (consulté le 19 novembre 2008).
  • MOGLEN E., 2001, « L’anarchisme triomphant : le logiciel libre et la mort du copyright », Multitudes, n° 5, pp. 146-183, en ligne : http://multitudes.samizdat.net/L-anarchisme-triomphant (consulté le 19 novembre 2008).
  • MOULIER BOUTANG Y., 2007, Le capitalisme cognitif, Paris, Éditions Amsterdam.
  • RIEMENS P., 2002, « Quelques réflexions sur le concept de “culture hacker” », Multitudes, n° 8, pp. 181-187, en ligne : http://multitudes.samizdat.net/Quelques-reflexions-sur-le-concept (consulté le 19 novembre 2008).
  • TAPSCOTT D. et WILLIAMS A. D., 2007, Wikinomics, Paris, Pearson Education France.

Notes

[1] Crédit photo : Woallance3 (Creative Commons By)

[2] L’arrivée de nouveaux acteurs industriels est symbolique de ces bouleversements. Un exemple emblématique est la création de la société Sun en 1982 par d’anciens étudiants de Stanford et de Berkeley. Celle-ci privatise en effet de nombreux logiciels du monde Unix

[3] Le « logiciel libre » s’oppose ainsi au « logiciel propriétaire ». On insistera sur le fait que c’est bien cette opposition qui est pertinente, et non l’opposition entre logiciel libre et logiciel commercial. Comme le répète souvent Richard Stallman, « "free software is a matter of liberty, not price. To understand the concept, you should think of "free speech, not "free beer" » (http://www.gnu.org/philosophy/free-sw.html).

[4] Comme son nom l’indique, « le noyau d’un système d’exploitation est le cœur du système, qui s’occupe de fournir aux logiciels une interface pour utiliser le matériel ». Source : Wikipedia, http://fr.wikipedia.org/wiki/Noyau_Linux.

[5] IBM, qui investit 100 millions de dollars par an pour le développement de Linux, estime qu’il lui faudrait un investissement dix fois supérieur pour développer seul un système d’exploitation équivalent (Tapscott et Williams, 2007, pp. 93 et 97).

[6] Par exemple, la formation aux logiciels libres, ou l’installation et la personnalisation de systèmes libres.

[7] Aujourd’hui, il est ainsi bien difficile de trouver un projet open source qui ne soit pas free software, et inversement. Les deux dénominations sont d’ailleurs le plus souvent employées indifféremment dans les médias. Dans le présent article, nous utilisons l’expression « logiciel libre » de façon générique, pour désigner à la fois les projets labellisés free software et les projets open source.

[8] Le développement de la suite logiciels VideoLAN, dont est issu le célèbre lecteur vidéo VLC, a été initié en 1995 par des élèves de l’École Centrale Paris (ECP). Depuis 2001, il s’agit d’un projet libre réalisé sous licence GPL, mené conjointement par des élèves de l’ECP et par des développeurs extérieurs.

[9] Il convient de préciser que le terme « hacker » n’est pas employé par l’auteur en son sens médiatique de « pirate informatique », mais bien en son sens originel, c’est-à-dire comme désignant tous les véritables passionnés d’informatique, et en premier lieu les partisans du logiciel libre.

[10] Ce terme, parfois proposé pour rendre compte du rapport des développeurs à leur travail, semble assez pertinent, dans la mesure où il rend compte du fait que les motivations des hackers sont essentiellement personnelles, mais néanmoins nullement réductibles à un simple calcul économique (Merten, 2002).

[11] Pekka Himanen s’inspire largement des analyses de Manuel Castells, qui a développé dès 1996 l’idée selon laquelle un nouveau modèle social serait en train d’émerger à partir d’Internet et de la figure du réseau. M. Castells est par ailleurs l’auteur de l’« épilogue » de l’ouvrage de P. Himanen.

[12] Citons par exemple André Gorz, pour qui « la communauté virtuelle, virtuellement universelle des usagers-producteurs de logiciels et de réseaux libres, instaure des rapports sociaux qui ébauchent une négation pratique des rapports sociaux capitalistes »(Gorz, 2003, p. 93).

[13] Ce choix de lecture se trouve corroboré par le faible nombre d’éléments factuels sur le logiciel libre présents dans l’ouvrage de Michael Hardt et Antonio Negri.

[14] Si l’on accepte l’analogie entre société et logiciel, on peut effectivement penser qu’une « démocratie open source » résoudrait nos problèmes sociaux plus efficacement que nos démocraties parlementaires, de la même façon que les logiciels libres s’avèrent souvent plus performants que les logiciels propriétaires…

[15] Précisons que si nous avons – pour la clarté de l’exposé – distingué ces deux types de discours, cette séparation n’a bien entendu rien d’étanche. Ainsi, les intellectuels fondant leur démarche théorique sur l’exemple du logiciel libre sont imprégnés d’un certain discours militant. On peut aussi remarquer qu’il y a déjà dans l’idéologie du Libre une tendance à vouloir accentuer la portée sociale du « modèle ouvert », tendance que certains intellectuels s’empressent ensuite de reprendre et de développer.




Manifeste pour la récupération des biens communs

Alex Barth - CC byCela peut sembler parfois un peu naïf, utopique, ou ne dépassant pas, comme ici, le stade de la déclaration d’intention (le cul posé sur sa chaise). Mais il est indéniable que quelque chose se met doucement mais sûrement en place autour de la défense des biens communs (les commons en anglais). La crise, si il fallait lui trouver du positif, ayant contribué à favoriser les prises de conscience en accélérant le mouvement.

Comme pour l’édifiant reportage de Carole Poliquin, il y a une certaine cohérence à regrouper ainsi des éléments éparses à préserver et développer, dont on ne s’étonnera guère d’y trouver également le logiciel libre[1].

Manifeste

URL d’origine du document

La privatisation et la marchandisation des éléments vitaux pour l’humanité et pour la planète, sont plus fortes que jamais. Après l’exploitation des ressources naturelles et du travail humain, ce processus s’accélère et s’étend aux connaissances, aux cultures, à la santé, à l’éducation, aux communications, au patrimoine génétique, au vivant et à ses modifications. Le bien-être de tous et la préservation de la Terre sont sacrifiés au profit financier à court terme de quelques-uns.

Les conséquences de ce processus sont néfastes. Elles sont visibles et connues de tous : souffrance et mort de ceux qui ne peuvent accéder aux traitements brevetés et que la recherche orientée vers un profit commercial néglige, destruction de l’environnement et de la biodiversité, réchauffement climatique, dépendance alimentaire des habitants des pays pauvres, appauvrissement de la diversité culturelle, réduction de l’accès à la connaissance et à l’éducation par l’établissement du système de propriété intellectuelle sur la connaissance, impact néfaste de la culture consumériste.

Le Forum Social Mondial de 2009, à Belem, Pará, au Brésil, se déroule au moment particulier où la globalisation néo-libérale, dominée par des marchés financiers hors de tout contrôle public, échoue spectaculairement. Il se produit aussi au moment où émerge une prise de conscience qu’il y a des biens d’usage commun à tous les êtres humains, et à la nature elle-même, lesquels ne peuvent en aucun cas être privatisés ou considérés comme des marchandises.

Cette prise de conscience s’appuie sur une vision de la société qui place le respect des droits humains, la participation démocratique et la coopération au coeur de ses valeurs. Les initiatives alternatives se développent dans de nombreux domaines pour la défense de l’eau et des fleuves, de la terre, des semences, de la connaissance, de la science, des forêts, des mers, du vent, des monnaies, de la communication et des intercommunications, de la culture, de la musique et des autres arts, des technologies ouvertes et du logiciel libre, des services publics d’éducation, de santé, assainissement, de la biodiversité et des connaissances ancestrales.

Les signataires du présent Manifeste, lancé au Forum Social Mondial de 2009, appellent tous les citoyens du monde et leurs organisations à s’engager dans l’action pour la récupération et la mise en commun des biens de l’humanité et de la planète, présents et à venir, afin que leur gestion soit assumée dans une démarche participative et collaborative par les personnes et les communautés concernées et à l’échelle de l’humanité dans la perspective d’un monde soutenable.

Les signataires appellent tous les citoyens du monde et leurs organisations à approfondir la notion de biens communs, à partager leurs approches et leurs expériences pour la dé-privatisation et la dé-marchandisation des biens communs de l’humanité et de la planète, à articuler les luttes de leurs propres organisations, en renforçant mutuellement leurs campagnes et leurs initiatives.

Notes

[1] Crédit photo : Alex Barth (Creative Commons By)




De l’art libre et de la Culture Libre par Antoine Moreau

Philippe Jimenez - Licence Art LibreNous sommes toujours ravis d’accueillir en ces lieux la prose d’Antoine Moreau, précurseur et visionnaire de l’Art Libre, à moins que ce ne soit l’art libre.

Justement, le simple fait de mettre ou ne pas mettre de majuscules au concept procède déjà du choix voire du parti pris. Et si le parti est pris, il n’est plus libre (cette dernière phrase étant une tentative maladroite de « faire moi aussi mon Antoine Moreau », mais c’est impossible, il est unique !).

Une conférence donnée à la Biennale de Montréal le 3 mai dernier qui interroge les relations entre l’art et la culture libre[1], en soulignant l’importance du copyleft, cet étrange mais fondatrice « interdiction d’interdire ».

De l’art libre et de la Culture Libre.

URL d’origine du document

Antoine Moreau – 3 mai 2009 – Licence Art Libre

Introduction.

La rupture esthétique a ainsi installé une singulière forme d’efficacité : l’efficacité d’une déconnexion, d’une rupture du rapport entre les productions des savoir-faire artistiques et des fins sociales définies, entre des formes sensibles, les significations qu’on peut y lire et les effets qu’elles peuvent produire. On peut le dire autrement : l’efficacité d’un dissensus[2].

Si l’expérience esthétique touche à la politique, c’est qu’elle se définit aussi comme expérience de dissensus, opposée à l’adaptation mimétique ou éthique des productions artistiques à fins sociales[3].

Avec la venue de l’internet et la généralisation du numérique dans de nombreuses pratiques culturelles nous observons la mise en place d’un nouveau type de culture nommée « Culture Libre »[4] basée sur le partage et la diffusion des productions de l’esprit. « Libre » fait ici référence aux logiciels libres dont le code-source est ouvert. Ils sont définis par quatre libertés fondamentales : liberté d’exécuter le programme, d’en étudier le fonctionnement, de redistribuer des copies et d’améliorer le programme (et de publier ces améliorations).

La question des droits d’auteur est au cœur de cette nouvelle donne culturelle. Un juriste, Lawrence Lessig, en 2001, s’est inspiré des principes de création des logiciels libres pour rédiger des licences dites « libres »[5] pour les œuvres non logicielles. Mais on ne pourrait réduire l’intention d’ouvrir la création à des questions de droit et je vais essayer de vous montrer que c’est le processus de création artistique lui-même qui ouvre et libère la création.
Un an avant l’apparition des licences Creatives Commons, en janvier puis en mars 2000, j’organisais avec un groupe d’artistes[6] les Rencontres Copyleft Attitude. Elles ont donné naissance à la Licence Art Libre, rédigée en juillet 2000[7]. C’est une licence libre de type copyleft, inspirée de la General Public License[8] et recommandée par la Free Software Foundation en ces termes :

We don’t take the position that artistic or entertainment works must be free, but if you want to make one free, we recommend the Free Art License[9].

Voici un extrait du préambule de la Licence Art Libre :

Avec la Licence Art Libre, l’autorisation est donnée de copier, de diffuser et de transformer librement les oeuvres dans le respect des droits de l’auteur.
Loin d’ignorer ces droits, la Licence Art Libre les reconnaît et les protège. Elle en reformule l’exercice en permettant à tout un chacun de faire un usage créatif des productions de l’esprit quels que soient leur genre et leur forme d’expression. (…) L’intention est d’autoriser l’utilisation des ressources d’une oeuvre ; créer de nouvelles conditions de création pour amplifier les possibilités de création. La Licence Art Libre permet d’avoir jouissance des oeuvres tout en reconnaissant les droits et les responsabilités de chacun.
Elle s’appuie sur le droit français, est valable dans tous les pays ayant signé la Convention de Berne[10].

Cette initiative d’artistes, n’était pas tant motivée par des questions liées au droit d’auteur ou à l’informatique, que par le processus de création qu’ils éprouvaient dans leurs pratiques. Il s’agissait d’observer ce que le numérique et l’internet fait à la création pour en prendre acte et agir en conséquence. Agir en phase avec l’écosystème du net et du numérique qui ne fait, en fait, que confirmer nos pratiques artistiques ordinaires. Le logiciel libre ouvre tout simplement la voie pour formaliser nos intentions de créations libres.
Aujourd’hui, cette préoccupation artistique est devenue une occupation sociale, culturelle, politique et économique. En m’appuyant notamment sur les notions de « société close » et « société ouverte » développées par Bergson[11], je vais tenter de clarifier ce qui se joue entre la « culture libre » et l’« art libre ».
Tout d’abord essayons de comprendre ce que fait la Culture Libre à la Culture.

1. Ce que fait la Culture Libre à la Culture.

Si nous entendons par « Culture » ce qui « permet à l’homme non seulement de s’adapter à son milieu, mais aussi d’adapter celui-ci à lui-même, à ses besoins et à ses projets », alors la « Culture Libre » est une adaptation à cette nouvelle donne naturelle qu’est l’immatériel, mais également ce qui « rend possible la transformation de cette nature »[12] portée par le numérique.

Ce nouveau paradigme, nous devons reconnaître qu’il procède d’une nouvelle dogmatique[13]. Il s’agit, pour la Culture Libre, comme pour toute culture, d’instituer ce qui va faire tenir une société et ses sujets à l’intérieur de celle-ci. Cette nécessité institutionnelle est indéniable et la Biennale de Montréal consacrée à la Culture Libre en est le signe. Voyons maintenant ce que l’Art Libre fait à la Culture Libre.

2. Ce que fait l’Art Libre à la Culture Libre.

Distinguons la culture de l’art. Sans les opposer frontalement, il s’agit de ne pas les confondre, prendre acte du hiatus qu’il y a entre ces deux notions. Disons-le d’une formule simple, qui prend la lettre comme image : la culture est une police de caractères, l’art est du vent dans les glyphes[14]. Le sculpteur Carl André le dit autrement : « La culture, c’est ce que d’autres m’ont fait. L’art, c’est ce que je fais à d’autres[15]. »

Ce qui diffère l’art libre de la Culture Libre, c’est ce je-ne-sais-quoi et presque-rien[16] qui procède davantage de la sensibilité que du raisonnement. L’art libre est une trouée dans la Culture Libre. Car si toute culture peut être comparée à un édifice, l’art est alors une fenêtre ou une porte, toutes ouvertures, tout vide qui laisse passer l’air. L’air de rien, l’art est là dans le passage qui permet la respiration. Ce que fait l’art libre à la Culture Libre, c’est d’ouvrir ce qui s’offre à l’ouverture, de mettre en branle ce qui se met en mouvement, d’émanciper ce qui se libère. Car si la Culture Libre procède d’une intention de liberté, l’art libre procède d’une liberté libre, celle qu’exprime le poète aux semelles de vent lorsqu’il constate : « Que voulez-vous, je m’entête affreusement à adorer la liberté libre (…)[17]. »

La « liberté libre » c’est ce qui est imprenable, comme on le dit de la vue imprenable qui offre un paysage protégé des captations propriétaires. C’est ce que fait, précisément, le copyleft en interdisant la prise exclusive des œuvres ouvertes qui s’offrent au bien commun. C’est l’objet de la Licence Art Libre et la licence Creative Commons Attribution-Share Alike[18], licences copyleft pour ce qui concerne les créations hors logiciel.

L’art libre échappe donc très concrètement à l’appropriation exclusive. Comme tous langages, il traverse et nourrit les esprits pour à nouveau se transporter et ainsi de suite, sans cesse et sans fin, de façon à créer au passage, des objets tangibles, traces de langages. Mots, images, sons, gestes, etc. Ainsi, l’art, libre, se renouvelle et demeure vivant. Imprenable définitivement, il ne se prend et ne se comprend que momentanément dans le mouvement même de son apparition et de sa création. Et ce moment là est aussi un moment d’éternité. L’art libre, grâce au copyleft, ne peut pas être captif d’une emprise qui voudrait en arrêter le cours. C’est la raison pour laquelle, par ailleurs, même s’il produit des objets apparemment finis, l’art libre est davantage un mouvement gracieux qu’un objet quand bien même serait-il gratuit. Il ne s’agit pas de nier la production d’objets, mais d’observer l’opération qui se fait entre esprit et matière. Ceci est amplifié avec l’immatériel qui :

(…) trouve sa source dans la séparation du matériel et du logiciel. (…) Tout document informatiquement conservé n’existe que sous forme de bribes disjointes, qu’il peut être dupliqué et multiplié, retouché et transformé. Il ne s’agit pas de matière d’une chose, mais d’un état de la matière, celle des circuits. Il ne s’agit pas des circuits en tant que circuits mais de leur état physique. Il ne s’agit pas de matériel versus immatériel, mais d’état de la matière (…)[19].

En posant le copyleft comme principe conducteur, l’art libre[20] renoue avec ce qu’a toujours été l’art depuis la nuit des temps, avant même que soit reconnue son histoire : une mise en forme de ce que produit l’esprit, insoumise à la culture qui voudrait la comprendre et la dominer. Cet exercice invente des formes qui découvrent l’esprit humain au delà de l’imagination, au delà d’un projet, d’une projection calculée. Sans raison, si ce n’est celle qui excède le raisonnement calculateur. Car il s’agit d’être en présence de ce qui se donne, du don qui élève, sans penser au retour sur investissement. C’est en cela que l’art est une pratique libre par excellence qui émancipe y compris l’idée de liberté quand celle-ci devient un mot d’ordre, un absolu, un fétiche ou une qualité culturelle.
Pour paraphraser Adorno nous dirons alors que : l’art libre c’est ce qui résiste à son assimilation culturellement libre[21].

Mais l’art libre, en trouant la culture libre, en procédant par négativité, n’est pas pour autant iconoclaste et négateur. Il ne détruit pas son cadre d’exercice, il le travaille au corps, il en fait de la dentelle. Plus celle-ci est fine, plus elle est forte. L’art libre porte attention à ce qui fait tenir la fabrique de l’esprit humain : la culture aérée par l’art. Sans ce souci d’aération, c’est l’étouffement, c’est le renfermement. Y compris le renfermement « libre » d’une « Culture Libre ». C’est bien pourquoi l’initiative de Copyleft Attitude, qui a eu pour conséquence la rédaction de la Licence Art Libre, n’a pas été le fruit d’un raisonnement savant mais le passage à l’acte d’une intuition. Car si la Culture Libre est intelligente, on parle même d’intelligence collective, l’art libre, lui, est une pratique qui se passe sans trop de réflexion. C’est ce passage à l’acte qui ouvre et invente la vie et la création qui va avec.

Il est de l’essence du raisonnement de nous enfermer dans le cercle du donné. Mais l’action brise le cercle. Si vous n’aviez jamais vu un homme nager, vous me diriez peut-être que nager est chose impossible, attendu que, pour apprendre à nager, il faudrait commencer par se tenir sur l’eau, et par conséquent savoir nager déjà. Le raisonnement me clouera toujours, en effet, à la terre ferme. Mais si, tout bonnement, je me jette à l’eau sans avoir peur, je me soutiendrai d’abord sur l’eau tant bien que mal et en me débattant contre elle, et peu à peu je m’adapterai à ce nouveau milieu, j’apprendrai à nager (…) Il faut brusquer les choses, et, par un acte de volonté, pousser l’intelligence hors de chez elle[22].

Voyons maintenant de quelle nature est l’art libre en émettant l’hypothèse qu’il est une création qui tend à l’incréé.

3. L’art libre tend à l’incréé.

Décréation : faire passer du créé dans l’incréé.
Destruction : faire passer du créé dans le néant. Ersatz coupable de la décréation.
(…)
La création : le bien mis en morceaux et éparpillé à travers le mal.
Le mal est l’illimité, mais il n’est pas l’infini.
Seul l’infini limite l’illimité[23].

Nous le constatons, l’art libre est un art qui n’a pas forcément les qualités reconnues habituellement à la création artistique. Du fait de son ouverture, il prend aussi le risque d’une destruction. Mais, son mouvement procède d’une décréation qui ouvre sur l’incréé car, s’il œuvre, c’est en passant. Il peut-être passable et fort médiocre comme possiblement génial. Si nous essayons de trouver des repères dans l’histoire de l’art récente nous pourrions dire qu’il relève de l’art brut inventé par Dubuffet et du readymade de Duchamp. Art brut, parce qu’il est fait par « l’homme du commun à l’ouvrage »[24] sans trop de volonté artistique et readymade parce qu’il est déjà fait et qu’il suffit de l’observer avec des yeux d’artiste.

Quel est le plus difficile de tout ? Ce qui te paraît le plus facile : Voir avec tes yeux ce qui se trouve devant tes yeux[25].

Maintenant que nous avons posé l’art libre en rapport avec la Culture Libre, posons-nous la question :

4. Une Culture Libre est-elle possible, est-elle souhaitable ?

Non seulement la Culture Libre est possible mais elle est inévitable, car elle procède d’une logique (im)matérialiste propre à la numérisation de la culture mondiale via les pratiques qui vont avec et notamment via l’internet, mais pas seulement. Par contre, elle n’est souhaitable que si, et seulement si, elle comprend le mouvement imprenable d’une création qui tend à l’incréé. Sinon,

(…) se referme le cercle momentanément ouvert. Une partie du nouveau s’est coulé dans le moule de l’ancien ; l’aspiration individuelle est devenue pression sociale ; l’obligation couvre le tout[26].

Pour maintenir ce qui s’ouvre et ne pas voir refermer le cercle, l’institution du copyleft est nécessaire car il interdit de refermer ce qui a été ouvert. S’agirait-il finalement de modifier le Code de Propriété Intellectuelle de façon à ce que soit inclus, comme droit de l’auteur, la copie, la diffusion et la modification des œuvres sans autoriser la captation exclusive ? Une sorte de domaine public, mais qui reste ouvert et ne peut être refermé. Sans doute, cette piste est-elle à envisager[27].

5. L’art libre : de l’art tout simplement possible.

Et si c’était l’art, activité considérée comme dépassée[28], qui, avec le copyleft comme principe de création, demeurait toujours possible ? Possible car impossible à clore de façon définitive. Un possible toujours à faire, une impossible affaire dont on n’a pas fini de faire le tour. Car la « réelle présence »[29] de l’art (libre) ne se confond pas avec le présent de la Culture (Libre), même s’il peut y prendre part. L’art libre serait alors le fil conducteur ténu mais persistant de ce qu’une Culture Libre promet, mais sans pouvoir le faire tenir durablement : une société ouverte à tous et à chacun et qui ne se referme pas mais poursuit tout simplement son mouvement gracieux d’ouverture.

Ainsi, pour celui qui contemple l’univers avec des yeux d’artiste, c’est la grâce qui se lit à travers la beauté et c’est la bonté qui transparaît sous la grâce. Toute chose manifeste, dans le mouvement que sa forme enregistre, la générosité infinie d’un principe qui se donne[30].

« De l’art libre et de la Culture Libre », Antoine Moreau
Texte de la conférence donnée le 03 mai 2009 lors de la Biennale de Montréal
Copyleft : ce texte est libre, vous pouvez le copier, le diffuser et le modifier selon les termes de la Licence Art Libre

Notes

[1] Crédit photo : Philippe Jimenez (Licence Art Libre)

[2] Jacques Rancière, Le spectateur émancipé, La Fabrique éditions, Paris, 2008, p 66.

[3] Jacques Rancière, Idem, p 67.

[4] Lawrence Lessig Free Culture, how big media uses technology and the law to lock down culture and control creativity, Penguin USA, 2004, traduction française en téléchargement sur ReadWriteWeb.

[5] Les licences Creatives Commons, au nombre de 11 à l’origine, puis de 6 (sans compter les cas particuliers).

[6] Regroupés autour de la revue Allotopie (François Deck, Emmanuelle Gall, Antonio Gallego, Roberto Martinez).

[7] Par Mélanie Clément-Fontaine, David Geraud (juristes) et Isabelle Vodjdani, Antoine Moreau (artistes).

[8] GPL version 3. Traduction non officielle en français de la version 2.

[9] GNU Operating System, Licenses,

[10] Licence Art Libre.

[11] Henri Bergson, Les deux sources de la morale et de la religion, PUF, Quadrige, Paris, 1988.

[12] Denys Cuche, La notion de culture dans les sciences sociales, La découverte, Paris, 1996, 2001, 2004, p.3.

[13] « Dogmatique est le discours occupant la place mythique de la vérité et, de ce fait, servant de fondement aux images identificatoires, pour la société en tant que telle et pour tout sujet ressortissant de cette représentation. » Pierre Legendre, Leçons VI. Les enfants du Texte. Étude sur la fonction parentale des États, Fayard, 1992, p. 68.

[14] « Représentation graphique en variation d’un signe ou caractère typographique. » Wictionary.

[15] Carl André, cité par Boris Groys, Politique de l’immortalité, quatre entretiens avec Thomas Knoefel, Maren Sell Éditeurs, Paris, 2002-2005, p. 77.

[16] Vladimir Jankélevitch, Le Je-ne-sais-quoi et le Presque-rien 1/ La manière et l’occasion, Seuil, Essais, 1980.

[17] Arthur Rimbaud, Lettre à Georges Izambard – 2 novembre 1870.

[18] Attribution-Share Alike 3.0 Unported.

[19] C. Herrenschmidt, Les trois écritures. Langue, nombres, code, Gallimard, 2007, p. 453, 454.

[20] Ne mettons pas de majuscule pour signifier qu’il n’a rien de grandiose.

[21] Cité par Christiane Carlut : « Adorno définissait l’œuvre d’art en tant que résistance à son assimilation au culturel », Copyright \ Copywrong, Éditions MeMo, 2003, p. 18.

[22] Henri Bergson, L’évolution créatrice, PUF, Quadrige, 2006, p.193-195.

[23] Simone Weil, La pesanteur et la grâce, Plon, Agora, 1947 et 1988, p. 81 et p.130.

[24] Jean Dubuffet, L’homme du commun à l’ouvrage, Gallimard, Idées, 1973.

[25] Goethe, Xenien, cité par Pierre Hadot, Le voile d’Isis, Gallimard, Folio, p. 332.

[26] Henri Bergson. Les deux sources de la morale et de la religion, PUF, Quadrige, Paris, 1988, p. 284.

[27] À notre connaissance, cette piste a été envisagée par Mélanie Clément-Fontaine dans son article « Faut-il consacrer un statut légal de l’œuvre libre ? » PI, n° 26, janvier 2008.

[28] « L’art n’apporte plus aux besoins spirituels cette satisfaction que des époques et des nations du passé y ont cherchée et n’ont trouvé qu’en lui (…). L’art est et reste pour nous, quant à sa destination la plus haute, quelque chose de révolu. Il a, de ce fait, perdu aussi pour nous sa vérité et sa vie authentique. » Hegel, Cours d’esthétique, Tome 1, Aubier, Paris, 1995-1997, p. 17 & 18, cité par Bernard Bourgeois, Le vocabulaire de Hegel, Ellipses, Paris 2000, p. 12.

[29] Référence au livre de Georges Steiner, Réelles présences, les arts du sens, Gallimard Folio, 1994.

[30] Bergson, La pensée et le mouvement, PUF, 2003, p. 280 cité Pierre Hadot, op. cit., Gallimard, Folio, p. 296.




Appel pour le revenu de vie : soyons réalistes, demandons l’impossible !

Jam343 - CC byAyant un faible prononcé pour les projets utopiques, j’ai signé avec responsabilité et enthousiasme l’appel pour le revenu de vie, reproduit ci-dessous.

Ce revenu s’apparente peu ou prou à ce qu’on peut lire sur Wikipédia dans l’article Allocation universelle : « versement d’un revenu unique à tous les citoyens d’un pays, quels que soient leurs ressources, leur patrimoine, et leur statut professionnel, permettant à chaque individu de satisfaire ses besoins primaires (se nourrir, se loger, se vêtir, voire acquérir certains biens culturels de base), et laissant l’individu libre de mener ensuite sa vie comme il l’entend ».

En quoi cela concerne ce blog, les logiciels libres et leur état d’esprit ? A priori en rien, mais peut-être en ira-t-il autrement dans les commentaires.

Une hypothèse cependant : « la communauté du logiciel libre et des biens communs » ne se porterait pas plus mal si on assurait à certains de ses membres cet étrange revenu.

Ne ménageant pas mes efforts depuis plusieurs années pour le réseau Framasoft, j’ai été sensible à la distinction faite entre l’emploi et le travail. C’est vrai quoi, on n’entre pas dans le PIB mais ça bosse quand même ici, et pas qu’un peu 😉

Mention spéciale à ce passage : « Il est plus que jamais nécessaire que chacun puisse travailler, d’abord à prendre soin de lui-même, de ses parents, de ses enfants et de ses proches, travailler ensuite pour contribuer aux biens communs accessibles à tous (connaissances, arts, culture, logiciels, etc.), travailler enfin à inventer et à mettre en œuvre à toutes les échelles les moyens qui permettront de léguer une planète vivable aux générations futures. »

J’ai également été sensible au fait que le texte de cet appel ait élaboré à l’aide du logiciel libre co-ment de Philippe Aigrain, mais surtout qu’il ait été publié sous Licence Art Libre.

Le débat est bien entendu ouvert. Ainsi (encore Wikipédia) : « Sur un plan plus moral, cela pose le risque d’institutionnalisation d’une culture de paresse et la remise en cause de la valeur travail. Les opposants à l’allocation universelle arguent ainsi que chacun a le devoir de contribuer dans le cadre de ses possibilités et aptitudes personnelles au bien-être de la société, et voient dans l’allocation universelle, si elle est trop élevée, une exhortation à l’inactivité et à l’égoïsme. Certains libéraux jugent donc immoral le concept de revenu versé sans réciprocité. »

L’écueil sera d’autant plus susceptible d’être évité qu’il s’accompagnera d’une certaine éducation baignant dans une certaine culture[1]. Si on se laisse aller à offrir trop de « temps de cerveau disponible » en pensant que l’objectif à atteindre est « d’avoir une Rolex avant ses cinquante ans », on n’y arrivera sans doute pas.

Appel pour le revenu de vie

URL d’origine du document

Licence Art Libre

Au delà des clivages sociaux, des corporations, des écoles de pensée, nous, signataires du présent appel, voulons contribuer à provoquer dès maintenant une transformation réaliste et constructive de la société : celle du revenu de vie.

Qu’est-ce que le revenu de vie ?

L’idée est soutenue de longue date par de nombreuses personnalités, de tous horizons politiques, de toutes confessions et de toutes nationalités. Elle est connue sous des appellations diverses: allocation universelle, revenu d’existence, revenu citoyen, revenu universel, revenu social garanti, etc. (cf. Wikipédia)

Le revenu de vie ne doit pas être confondu avec le RMI, le RSA et autres allocations attribuées de manière conditionnelle. Le revenu de vie, lui, est automatique, inconditionnel et inaliénable. Il concerne tout le monde, riches ou pauvres. Il est attribué à chaque individu, de la naissance à la mort. Son montant est suffisant pour garantir à chacun une existence décente – quoi qu’il arrive -. Il est cumulable avec les autres revenus (salariés ou non). Il ne peut être saisi aux plus modestes, mais il entre dans l’assiette d’imposition des plus aisés.

Le revenu de vie ne rémunère pas l’emploi, mais le travail au sens large

Ni l’emploi salarié, ni les revenus du capital, ni les aides sociales classiques ne peuvent prétendre désormais garantir le droit à l’existence de chacun tel que défini à l’article III de la Déclaration Universelle des Droits de l’Homme. C’est un fait : en raison de l’informatisation et de l’automatisation de la production, le plein-emploi ne peut plus être atteint. Par contre le travail est toujours d’actualité, et sa tâche est immense.

Il est plus que jamais nécessaire que chacun puisse travailler, d’abord à prendre soin de lui-même, de ses parents, de ses enfants et de ses proches, travailler ensuite pour contribuer aux biens communs accessibles à tous (connaissances, arts, culture, logiciels, etc.), travailler enfin à inventer et à mettre en œuvre à toutes les échelles les moyens qui permettront de léguer une planète vivable aux générations futures.

Loin d’être un encouragement à la paresse, nous affirmons que le revenu de vie permettra à chacun, dans la mesure de ses capacités et de son désir, de s’engager de manière sereine, libre et responsable, dans des travaux essentiels pour l’intérêt général que les emplois traditionnels n’ont pas vocation à assumer.

Comment financer le revenu de vie ?

Il s’agit précisément d’engager pour le financement du revenu de vie tous les moyens alloués à l’entretien de la chimère du plein emploi. L’institution du revenu de vie implique pour les pays qui le mettront en place de revoir leur système fiscal et social, et probablement de reprendre un certain niveau de contrôle sur la création monétaire qu’ils avaient abandonné aux banques. Les calculs des économistes qui ont réfléchi en profondeur à cette question montrent que cela est parfaitement possible (cf. simulations).

Il n’est nul besoin d’attendre quelque cataclysme pour envisager cette profonde transformation. Cela peut se faire progressivement et sans dommage, à condition qu’il existe une prise de conscience et un engagement suffisamment massif. C’est à cet engagement que nous, signataires de cet appel, voulons amener.

Qu’avons-nous à perdre ?

L’illusion d’un emploi salarié et dûment rémunéré pour tous s’est volatilisé avec la crise. Avec cette disparition, va s’évanouir aussi pour beaucoup le réflexe de se définir en fonction de son activité professionnelle. Il ne faut pas le cacher, l’institution du revenu de vie amènera probablement à s’interroger plus encore, sur notre identité, notre rôle dans la société, notre aspiration à procréer en regard des problèmes de démographie, et sur la nature de ce que nous voulons transmettre à nos enfants.

L’institution du revenu de vie ne va pas sans mises en cause profondes de nombreuses habitudes. Nous pensons néanmoins que cette mutation des consciences et des comportements peut s’effectuer sans violence, et dans un esprit d’entraide mutuelle afin que se développe une nouvelle culture de la responsabilité.

Qu’avons-nous à gagner ?

L’institution du revenu de vie remet en cause le « travail » tel qu’il est compris usuellement, à savoir comme base du capital et des rapports sociaux. On le sait, la réduction du « travail » au seul « emploi » provoque automatiquement l’exclusion de ceux qui en sont privés, la peur du chômage chez les salariés, et le contrôle social des assistés. Cette confusion entre « travail » et « emploi » a un coût énorme pour la société aussi bien financièrement que socialement. Les pathologies sociales et psychiques qu’elle entraîne ne sont tout simplement plus soutenables.

Nous n’attendons pas du revenu de vie qu’il règle tous les maux, mais nous affirmons qu’il est absolument nécessaire pour surmonter la crise de confiance actuelle en réduisant le niveau intolérable, de pauvreté, d’exclusion et de peur.

Action

Au moment où les médias relayent quotidiennement les avis d’experts annonçant l’imminence de catastrophes provoquées par l’effondrement des économies, le réchauffement climatique ou les pandémies, nous affirmons qu’il existe un moyen efficace pour faire face collectivement et pour mobiliser les forces vives: c’est la voie du revenu de vie.

Nous citoyens signataire de cet appel, demandons, aux politiques de tous bords, aux syndicats et aux experts, en France et partout dans le monde, de prendre en compte cette voie dans les délais les plus brefs et d’engager avec nous cette grande transformation.

Signer l’appel

Notes

[1] Crédit photo : Jam343 (Creative Commons By)




Le mouvement du logiciel libre vu par Hervé Le Crosnier

Aussiegall - CC by« … mais ce serait peut-être l’une des plus grandes opportunités manquées de notre époque si le logiciel libre ne libérait rien d’autre que du code. »

Quand Hervé le Crosnier s’immisce sur le site de l’association Attac pour leur (et nous) parler du mouvement du logiciel libre, cela donne un article majeur qui vient parfaitement illustrer la citation mise en exergue sur ce blog, permettant de mesurer à l’instant t le chemin parcouru[1].

Extrait : « N’ayons pas peur de dire la même chose avec d’autres mots qui parleront peut-être plus clairement aux héritiers du mouvement social et ouvrier : le mouvement des logiciels libre a fait la révolution, créé de nouveaux espaces de liberté, assuré un basculement des pouvoirs et libéré plus largement autour de lui ce qui aurait pu devenir un ordre nouveau, balisé par les décisions de quelques entreprises. Comme toute révolution, elle est fragile, comporte des zones d’ombres, des « risques » de dérapages ou de récupération. Mais avant tout, comme les révolutions sociales, elle est un formidable espoir qui va ouvrir à la joie du monde non seulement les acteurs, mais tous les autres courants entraînés dans la dynamique… »

À lire, en évitant le « syndrome des textes longs à l’ère de la distraction permanente » (pour vous aider : version PDF de cet article), mais aussi et surtout à faire lire à votre entourage.

Leçons d’émancipation : l’exemple du mouvement des logiciels libres

URL d’origine du document

Hervé Le Crosnier – 24 avril 2009 – Attac
Licence Creative Commons By-Nc

Un mouvement ne parle que rarement de lui-même. Il agit, propose, théorise parfois sa propre pratique, mais ne se mêle qu’exceptionnellement de la descendance de son action dans les autres domaines, qu’ils soient analogues, tels ici les autres mouvement dans le cadre de la propriété immatérielle, ou qu’ils soient plus globalement anti-systémiques. Les incises sur le rôle politique du mouvement du logiciel libre dans la phase actuelle et sa puissance d’émancipation ne sont donc que mes propres interprétations… même si une large partie du mouvement en partage, si ce n’est l’expression, du moins le substrat. Mais d’autres, pourtant membres du même mouvement, et construisant eux aussi le bien commun du logiciel libre pourraient penser que leur motifs d’adhésion et leur objectifs restent largement différents, considérant l’élaboration de logiciels libres comme une autre approche de l’activité capitalistique et de marché, mais qui leur semble plus adaptée au travail immatériel. Approche « pragmatique » et approche « philosophique » ne sont pas incompatibles, c’est du moins la principale leçon politique que je pense tirer de ce mouvement et de son impact plus global sur toute la société. Car si un mouvement ne parle pas de lui-même, il « fait parler » et exprime autant qu’il ne s’exprime. Le mouvement des logiciels libres, et ses diverses tendances, est plus encore dans ce cas de figure, car son initiateur, Richard M. Stallman n’hésite pour sa part jamais à placer les fondements philosophiques au cœur de l’action du mouvement.

Introduction

Pour saisir la genèse du mouvement des logiciels libres, mais aussi son réel impact libérateur pour toute la société, il convient de revenir à la question même du logiciel. Le néophyte a souvent tendance à assimiler le logiciel aux outils de productivité, tels les traitements de texte ou les navigateurs. Mais il convient de comprendre que le logiciel intervient dès qu’une machine, un microprocesseur, sait « traiter l’information », i.e. transformer des signaux d’entrée (souris, clavier, réseau, mais aussi capteurs les plus divers) en signaux de sortie exploitables soit directement par les humains (écran, impression,…), soit utilisés en entrée par une autre machine de « traitement de l’information ».

Le logiciel est partout dans le monde informatique :

  • c’est l’outil essentiel d’accès aux connaissances et informations stockées dans les mémoires numériques
  • il est lui même une forme d’enregistrement de la connaissance et des modèles du monde produits par les informaticiens
  • enfin chaque logiciel est une brique nécessaire au fonctionnement des ordinateurs (système d’exploitation), des réseaux et de plus en plus de tous les appareils techniques qui incorporent une part de « traitement de l’information », depuis les machines-outils de l’industrie jusqu’aux outils communicants de « l’internet des objets ».

Le logiciel est donc tout à la fois un « produit » (un bien que l’on acquiert afin de lui faire tenir un rôle dans l’activité privée ou industrielle), un service (un système, certes automatisé, auquel un usager va faire remplir des tâches) et une méthode (une façon de représenter le monde et les actions possibles). Ce statut ubiquitaire du logiciel est essentiel pour comprendre certaines des revendications de liberté des acteurs du mouvement : il ne s’agit pas simplement d’un outil (un produit de type « machine-outil »), mais d’un système-monde dans lequel se glissent peu à peu la majeure partie des activités humaines, dans tous les domaines, de la production industrielle à la culture, de la communication à l’éducation,… André Gorz parle d’une « logiciarisation de toutes les activités humaines »[2].

La conception des logiciels s’en trouve affectée, ainsi que sa catégorisation qui lui dessine une place spécifique dans le cadre même du « marché ». Le logiciel est à la fois :

  • une œuvre de création : on peut réellement parler d’un « auteur » de logiciel, au moins collectif grâce au développement de techniques de partage de code et de maintenance (génie logiciel et programmation par objets). Chaque logiciel porte la trace des raisonnements de celui qui l’a programmé ;
  • un travail incrémental : un logiciel comporte des « bugs », qui ne peuvent être corrigés qu’au travers de l’expérience utilisateur, et un logiciel doit suivre l’évolution de son environnement informatique (les autres logiciels). Ceci implique la coopération comme base de la construction de logiciels fiables, évolutifs, et adaptables aux divers besoins ;
  • une production de connaissances (les « algorithmes ») qui pourraient devenir privatisées si les méthodes de raisonnement et les formes du calcul ne pouvaient être reprises par d’autres programmeurs (cette question est au coeur du refus par le mouvement des logiciels libres des brevets de logiciels et de méthodes).

Le développement de l’informatique, et l’extension du réseau et du numérique à tous les aspects de la production, de la consommation et des relations interpersonnelles (au niveau privé comme au niveau public) crée un véritable « écosystème », dans lequel :

  • chaque programme doit s’appuyer sur des couches « inférieures » (des applications déjà existantes jusqu’aux pilotes des machines électroniques dites « périphériques ») et rendre des informations à d’autres logiciels. La définition des « interfaces » entre programmes devient essentielle, et la normalisation de ces échanges une nécessité vitale.
  • les programmes peuvent lire ou écrire des données provenant d’autres programmes ou outils. C’est l’interopérabilité.

Que ces échanges soient « ouvert » ou « à discrétion d’un propriétaire » devient une question déterminante. Dans le premier cas, l’innovation s’appuie sur ce qui existe, et peut rester concurrentielle (nouveaux entrants, mais aussi nouvelles idées) ; dans le second, tout concours à la monopolisation (au sens de monopoles industriels, mais aussi de voie balisée limitant la créativité). D’autant qu’un « effet de réseau » (privilège au premier arrivé[3]) vient renforcer ce phénomène.

Tous ces points techniques forment un faisceau de contraintes et d’opportunités pour les industries du logiciel comme pour les programmeurs individuels :

  • la capacité à « rendre des services aux usagers » sans devoir maîtriser une chaîne complète. Ce qui entraîne la création d’un « marché du service » et la capacité de détournement social de tout système numérique : innovation ascendante, usage de masse, relations ambiguës entre les facilitateurs -producteurs de logiciels ouverts ou de services interopérables – et les usagers,… ;
  • la mise en place d’un espace d’investissement personnel pour les programmeurs (autoréalisation de soi, expression de la créativité, capacité à rendre des services associatifs et coopératifs). On rencontre ici un changement émancipateur plus général que Charles Leadbeater et l’institut Demos a nommé « the pro-am révolution »[4].

Le mouvement des logiciels libres

Les logiciels libres partent de cette intrication du logiciel, de la connaissance et du contenu : tout ce qui limite l’accès au code source des programmes va :

  • limiter la diffusion de la connaissance,
  • privatiser les contenus (avec les dangers que cela peut représenter pour les individus, mais aussi les structures publiques, des universités aux États)
  • brider la créativité

Le « code source » est la version lisible par un « homme de l’art » d’un logiciel. L’accès à ce code est un moyen de comprendre, d’apprendre, de modifier, de vérifier, de faire évoluer un logiciel. C’est de cette liberté là qu’il est question dans le mouvement des logiciels libres.

Il s’agit de construire la « liberté de coopérer » entre les programmeurs. Un logiciel libre respecte quatre libertés :

  • la liberté d’exécuter le programme, pour tous les usages (liberté 0.)
  • la liberté d’étudier le fonctionnement du programme, et de l’adapter à ses besoins (liberté 1) ; pour cela, l’accès au code source est nécessaire.
  • la liberté de redistribuer des copies, donc d’aider son voisin, (liberté 2).
  • la liberté d’améliorer le programme et de publier ses améliorations, pour en faire profiter toute la communauté (liberté 3) ; pour cela, l’accès au code source est nécessaire.

On notera que cet ensemble de « libertés » constitue une nouvelle « liberté de coopérer », et non un « droit » au sens où la responsabilité de la continuité de cette liberté reposerait sur des structures et des forces extérieures aux communautés concernées. C’est parce qu’ils ont besoin de coopérer pour libérer leur créativité (et aussi souvent pour gagner leur vie avec cette création de logiciel) que les développeurs ont installé, dans le champ de mines des entreprises du logiciel et de l’informatique, les espaces de liberté dont ils pouvaient avoir besoin. Le maintien de cet espace de liberté peut évidemment demander l’intervention de la « puissance publique » : procès, respect des contrats de licence, mais aussi financement de nouveaux logiciels libres ou amélioration/adaptation de logiciels libres existants, … Mais à tout moment, c’est la capacité à élargir et faire vivre les outils, méthodes, normes et réflexions par la communauté des développeurs du libre elle-même qui détermine l’espace de cette « liberté de coopérer ».

Une des conséquences, souvent marquante pour le grand public, au point d’occulter le reste, vient de la capacité de tout programmeur à reconstruire le programme fonctionnel (le logiciel « objet ») à partir du « code source »… Si le « code source » est accessible, pour toutes les raisons énumérées ci-dessus, il existera donc toujours une version « gratuite » du logiciel. Mais ce n’est qu’une conséquence : un logiciel libre peut être payant, c’est d’ailleurs souvent le cas : mais les copies seront à la discrétion de celui qui aura acheté un logiciel. S’il le souhaite, il peut redistribuer gratuitement. Le produit payant, s’il veut avoir une « raison d’être », y compris dans le modèle du marché, doit donc incorporer du service complémentaire. On passe d’un modèle « produit » à un modèle « service ».

La question économique pour la communauté des développeurs de logiciels libres, tourne alors autour du phénomène de « passager clandestin », celui qui va profiter des logiciels libres produits par d’autres, sans lui-même participer à l’évolution de l’écosystème. Pire, celui qui va privatiser la connaissance inscrite dans les logiciels libres. Par exemple, le système privé Mac OS X s’appuie sur l’Unix de Berkeley. Apple profite du choix des concepteurs de ce dernier, dans la pure tradition universitaire, de considérer leur logiciel comme une « connaissance » construite à l’Université et donc délivrée par elle pour tous les usages, sans règles et sans contraintes… une subtile question de gouvernance au sein du mouvement des logiciels libres, mais qui a des conséquences sociales d’ampleur… Dans la théorie des biens communs, la maintenance de la capacité des communautés à continuer d’accéder aux biens communs qu’elles ont produite est centrale.

Le « mouvement des logiciels libres » part de cette double contrainte :

  • favoriser la coopération autour du code informatique pour étendre l’écosystème
  • laisser fonctionner un « marché de l’informatique » (tout service mérite rétribution)

L’invention de la GPL (« General Public Licence »)[5] en 1989 par Richard Stallman et Eben Moglen va marquer un tournant :

  • auparavant le modèle « universitaire » produisait des biens de connaissance dont les usagers (étudiants, mais aussi industries) pouvaient disposer sans contraintes. Ceci permettait le développement de plusieurs produits construits sur les mêmes connaissances (vision positive), mais aussi la privatisation par les entreprises associées aux centres de recherche universitaires ou publics ;
  • écrite pour protéger une construction communautaire, celle du projet GNU (GNU’s Not Unix), la GPL produit une forme de gouvernance adaptée à un type de bien, à une série de règles et normes communautaires, et à un projet politique (représenté par la Free Software Foundation).

La GPL s’appuie sur le « droit d’auteur » pour compléter celui-ci par un « contrat privé » (une « licence ») qui autorise tout usage (donc offre les quatre libertés du logiciel libre), mais contraint celui qui s’appuie sur du code libre à rendre à la communauté les ajouts et corrections qu’il aura pu apporter. On parle d’une « licence virale » : tout logiciel qui utilise du logiciel libre doit lui aussi rester un logiciel libre.

Cette invention juridique est fondatrice, non seulement du mouvement des logiciels libres, et du maintien et extension de cet espace alternatif de liberté, mais aussi fondatrice pour d’autres mouvements qui vont exploiter la capacité des détenteurs de connaissance (ou les producteurs de culture) à décider volontairement de construire de nouveaux espaces de coopération et de liberté.

Un mouvement symbole

Le mouvement des logiciels libre représente une expérience sociale de grande ampleur, qui a profondément bouleversé le monde de l’informatique. Il suffit d’imaginer un monde dans lequel seul l’achat d’un logiciel permettait de tester des produits et services informatiques : dans ce monde il n’y aurait pas d’internet (les règles de l’organisme technique qui élabore les normes, l’IETF, imposent l’existence d’au moins un logiciel libre pour valider un protocole), pas d’échange de musique numérique, l’évolution des sites web serait soumise à la décision d’opportunité économique des géants oligopolistiques qui se seraient installés sur l’outil de communication, l’apprentissage des méthodes de développement informatique dans les universités seraient soumises à la « certification » de tel ou tel béhémot du logiciel ou des réseaux,…

N’ayons pas peur de dire la même chose avec d’autres mots qui parleront peut-être plus clairement aux héritiers du mouvement social et ouvrier : le mouvement des logiciels libre a fait la révolution, créé de nouveaux espaces de liberté, assuré un basculement des pouvoirs et libéré plus largement autour de lui ce qui aurait pu devenir un ordre nouveau, balisé par les décisions de quelques entreprises. Comme toute révolution, elle est fragile, comporte des zones d’ombres, des « risques » de dérapages ou de récupération. Mais avant tout, comme les révolutions sociales, elle est un formidable espoir qui va ouvrir à la joie du monde non seulement les acteurs, mais tous les autres courants entraînés dans la dynamique, comme nous le verrons plus loin.

Le mouvement des logiciels libres met en avant la notion de « biens communs » : créés par des communautés, protégés par ces communautés (licence GPL, activité de veille permanente pour éviter les intrusions logicielles[6]) et favorisant l’élargissement des communautés bénéficiaires. La gouvernance des biens communs, surtout quand ils sont dispersés à l’échelle du monde et de milliards d’usagers, est une question centrale pour la redéfinition de l’émancipation. Le mouvement des logiciels libres montre que cela est possible.

C’est un mouvement qui construit de « nouvelles alliances ». Les clivages face au logiciel libre ne recouvrent pas les clivages sociaux traditionnels. Par exemple, le souverainisme ne sait pas comment se situer face à des biens communs mondiaux : il n’y a plus de capacité à défendre des « industries nationales ». Seuls les services peuvent localiser l’énergie économique ouverte par de tels biens. Le mouvement des logiciels libres ne se définit pas en tant que tel « anti-capitaliste », car nombre d’entreprises, parmi les plus importantes et dominatrices (IBM en tête) ont compris que l’écosystème informatique ne pouvait fonctionner sans une innovation répartie, et donc des capacités d’accès et de création à partir des bases communes (le fonctionnement de l’internet et les normes d’interopérabilité). Il est plutôt « post-capitaliste », au sens où il s’inscrit dans le modèle général du « capitalisme cognitif »[7], qui est obligé de produire des externalités positives pour se développer.

Enfin, c’est un mouvement social qui s’est inscrit dès sa formation dans la sphère politique en produisant une utilisation juridique innovante (la GPL) comme moyen de constituer la communauté et protéger ses biens communs. Ce faisant, ce mouvement agit en « parasite » sur l’industrie qui le porte. On retrouve des éléments du socialisme du 19ème siècle : ne plus attendre pour organiser des « coopératives » et des « bourses du travail ». Une logique qui est aussi passée par l’expérience des mouvements dits alternatifs (« californiens ») : construire ici et maintenant le monde dans lequel nous avons envie de vivre.

Cette symbiose entre le mouvement, son radicalisme (c’est quand même un des rares mouvements sociaux qui a produit et gagné une révolution dans les trente dernières années) et les évolutions du capital montre qu’il existe une autre voie d’émancipation que « la prise du Palais d’Hiver », surtout dans un monde globalisé et multipolaire, dans lequel le « Quartier Général » n’existe plus[8].

Enfin, le mouvement des logiciels libres a construit une stratégie d’empowerment auprès de ses membres. La « communauté » protège ses membres. Il y a évidemment les règles juridiques de la GPL d’une part, mais pensons aussi à la capacité à « offrir » du code en coopération pour que chaque membre puisse s’appuyer sur un écosystème en élargissement permanent afin de trouver les outils dont il a besoin ou d’adapter les outils existants à ses besoins. C’est une des raisons de la force du mouvement : en rendant plus solides et confiants ses membres, il leur permet d’habiter la noosphère[9]. Cet empowerment doit beaucoup au mouvement féministe (même si paradoxalement il y a peu de femmes et qu’elles sont souvent traitées avec dédain parmi les activistes du logiciel libre). Comme dans l’empowerment du mouvement féministe, c’est la vie quotidienne et l’activité humaine créatrice qui est au coeur de la réflexion du mouvement social. La « concurrence » entre programmeurs libres se joue sur le terrain de « l’excellence » au sens des communautés scientifiques : il s’agit de donner du code « propre », de qualité, rendant les meilleurs services, autant que de permettre aux débutants de s’inscrire dans la logique globale, par leurs initiatives et activités particulières, sans la nécessité d’être un élément dans un « plan d’ensemble ». C’est un mouvement qui pratique l’auto-éducation de ses membres (nombreux tutoriels sur le web, ouverture des débats, usage des forums ouverts,…).

Enfin, même si de nombreuses structures associatives organisent et représentent le mouvement, la structuration de celui-ci comme mouvement social mondial est beaucoup plus floue. C’est au travers de l’usage des produits du mouvements que l’on devient « membre » du mouvement, et non au travers de la production d’un discours ou d’une activité de lobbyisme ou de conscientisation. On retrouve les formes d’adhésion « à la carte » des autres mouvements sociaux. On s’aperçoit aussi que les mouvements parlent toujours au delà des discours de leurs membres, individus ou organisations…

Extension : les nouveaux mouvements du numérique

Un autre élément essentiel pour comprendre l’importance et l’enjeu du mouvement des logiciels libre est de voir sa descendance dans d’autres mouvements liés à la sphère du numérique. Comme tout mouvement, les acteurs des logiciels libres ne sont pas tous conscients de l’étendu stratégique de leur actions. Nombre des membres se contentent des règles et normes « techniques » établies par le mouvement et se reconnaissent dans l’aspect pratique des résultats. Mais pourtant, les règles et les méthodes mise en place par le mouvement des logiciels libres se retrouvent dans d’autres sphères.

On parle d’une « société de la connaissance » ou « de l’information », ce qui est une expression ambiguë, qu’il conviendrait de mettre en perspective[10]. Mais pour résumée qu’elle soit, l’expression souligne que la propriété sur la connaissance, la capacité à mobiliser « l’intelligence collective » sont des questions organisatrices essentielles de l’économie du monde à venir. Et que ces questions renouvellent autant les formes de domination (par exemple la montée des grands « vecteurs »[11] sur l’internet, comme Google, Yahoo !, Orange, Adobe,… qui souvent s’appuient sur les logiciels libres) que les formes de l’émancipation, et la notion de contournement, de situation (au sens du situationisme) et de symbiose parasitique.

On voit donc apparaître de nouvelles lignes de faille dans les oppositions « de classe » liées au capitalisme mondialisé et technicisé. Et en conséquence de nouveaux regroupements des « résistants » ou des « innovateurs sociaux ». Plusieurs tentatives de théorisation de cette situation existent, depuis la théorie des Multitudes de Toni Negri et Michael Hardt[12], à celle de la Hacker Class de MacKenzie Wark[13], qui décrivent des facettes de ce monde nouveau qui émerge. Toutefois, ces interprétations ne savent pas encore répondre à deux questions centrales. D’abord celle dite traditionnellement des « alliances de classes », notamment la relation entre ces mouvements sociaux et les mouvement de libération issus de l’ère industrielle. Des « alliances » posées non en termes « tactiques » (unité de façade ou d’objectifs), mais bien en termes programmatiques (quelle société voulons-nous construire ? quelle utopie nous guide ? quelle articulation entre l’égalité – objectif social – et l’élitisme – au sens fort des communautés scientifiques ou des compagnons : être un « grand » dans son propre domaine de compétence – ?). Ensuite celle dite de la transition, particulièrement en ce qu’elle porte sur les relations entre les scènes alternatives et les scènes politiques. Le capitalisme, comme forme de sorcellerie[14], ne peut pas s’effondrer de lui-même sous le poids de ses contradictions internes. Le politique, avec toutes les transformations nécessaires des scènes où il se donne en spectacle (médias, élections, institutions,…), garde une place dans l’agencement global des divers dispositifs alternatifs – ou internalisés et récupérés – qui se mettent en place.

Ces questions peuvent avancer quand on regarde l’évolution du mouvement des logiciels libres, qui est né d’une innovation juridique (la GPL), et qui défend aujourd’hui son espace alternatif au travers de multiples actions contres les tentatives, souvent détournées et perverses, de mettre en place des enclosures sur le savoir et la culture. La place du mouvement des logiciels libres en France, avec notamment l’association April[15], au côté du mouvement spécialisé dit « La quadrature du net »[16], sur les dernières lois concernant la propriété immatérielle (lois dites DADVSI et HADOPI) en est un exemple. L’approche de la politique n’est plus « frontale », mais part de la défense des espaces de libertés, des « biens communs » créés, et leur reconnaissance comme forme essentielle de la vie collective. On retrouve les logiques du socialisme du XIXème siècle, des coopératives et de la Première Internationale.

Le mouvement des logiciels libres, s’il est le plus abouti et le plus puissant de ces nouveaux mouvements, n’est plus seul. C’est dans le domaine de la connaissance et de l’immatériel, dont la « propriété » que l’image de la GPL et des logiciels libres a connu une descendance abondante et pugnace. Les questions de la propriété sur la connaissance et de la construction, maintenance et gouvernance des biens communs créés par les communautés concernées sont deux éléments clés de ces nouveaux mouvements sociaux.

Quelques exemples :

  • le mouvement des créations ouvertes (Creative commons[17], Licence Art Libre,…) est construit autour de règles juridiques qui permettent aux auteurs d’autoriser des usages pour mieux faire circuler leurs idées, musiques, travaux divers. Ce mouvement emprunte directement à la « révolution douce » de la GPL pour son côté subversif, et à la fluidification du marché culturel comme conséquence de l’extension des communs de la culture. Une manière pragmatique de poser les problèmes qui évite l’enfermement dans des alternatives infernales[18].
  • le mouvement des malades qui veulent partager les connaissances avec leurs médecins. Avec une participation politique forte des malades de SIDA dans l’opposition aux ADPIC, qui s’est traduite par l’adoption des exceptions pour les médicaments dans les Accords de Doha[19]
  • le mouvement des chercheurs pour le libre-accès aux publications scientifiques et aux données scientifiques
  • le renouveau des mouvements paysans autour du refus de l’appropriation des semences par les trusts multinationaux (contre les OGM, pour le statut de bien communs des « semences fermières »[20] – un exemple symptomatique en est la réalisation d’un numéro de « Campagnes solidaires », journal de la Confédération Paysanne avec Richard Stallman)
  • le mouvement pour un nouveau mode de financement de la recherche pharmaceutique (notamment les propositions de James Love pour l’association KEI – Knowledge Ecology International[21]) et pour l’utilisation de nouveaux régimes de propriété afin de permettre le développement de médicaments adaptés aux « maladies négligées » (Médecins sans frontières, DNDi[22]…)
  • le mouvement mondial pour le libre-accès à la connaissance (a2k : access to knowledge) qui réunit des institutions (États, notamment pour l’Agenda du développement à l’OMPI, constitution du bloc des « like-minded countries »), des réseaux d’associations (IFLA, association internationale des bibliothécaires, Third World Network,…) ou des universitaires (il est intéressant de penser que ce mouvement a tenu sa première conférence mondiale à l’Université de Yale[23])
  • le mouvement OER (Open Educational Ressources[24]) qui réunit autant des grandes institutions (MIT, ParisTech) que des enseignants souhaitant partager leurs cours, avec le parrainage de l’UNESCO… et de HP !
  • le mouvement dit « société civile »[25] lors du SMSI (Sommet mondial sur la société de l’information, sous l’égide de l’ONU en 2003 et 2005) ou du Forum pour la Gouvernance de l’Internet, et tous les mouvement qui s’interrogent sur l’évolution des réseaux, combattent l’irénisme technologique autant que le refus passéiste des nouveaux modes de communication
  • les mouvements portant sur le « précariat intellectuel », depuis les intermittents du spectacle jusqu’à l’irruption d’une « hacker class » (MacKenzie Wark) pratiquant le piratage comme valeur de résistance
  • les mouvements de refus de la mainmise publicitaire sur l’espace mental collectif, qui organisent la dénonciation et le rejet de l’industrie de l’influence (Résistance à l’Agression publicitaire[26], AdBusters…)
  • le Forum Mondial Sciences & Démocratie[27], dont la première édition s’est tenue à Belèm en janvier 2009. Ce mouvement introduit la question des biens communs de la connaissance au coeur d’une nouvelle alliance entre les producteurs scientifiques et techniques et les mouvements sociaux.

Les formes de politisation au travers de l’empowerment des membres et des « usagers » de ces mouvements sont largement différentes de celles de la vague précédente des mouvements sociaux du vingtième siècle. La capacité de ces mouvements à s’inscrire directement dans la sphère politique est aussi une particularité. Il ne s’agit pas seulement de « faire pression » sur les décideurs politiques, mais d’imposer à la société politique la prise en compte de biens communs déjà établis et développés.

La problématique des biens communs n’a pas fini de produire une remise en mouvement de la conception d’une révolution émancipatrice, des rythmes de l’activité militante et de la relation entre les communautés de choix et les communautés de destin. Un élément moteur de la réflexion théorique en cours reste la dialectique entre l’empowerment individuel et coopératif/communautaire par la création et la maintenance de biens communs, et la défense des plus fragiles (financièrement, mais aussi juridiquement par des droits leur permettant une nouvelle gouvernance, l’accès à la connaissance ou de respect de leurs formes de connaissances, cf les mouvements « indigènes »[28]).

Car il faudra bien trouver des articulations théoriques, pratiques et politiques entre les diverses formes de résistance aux sociétés de contrôle, de militarisme, d’influence et de manipulation qui se mettent en place.

Pour cela, les pratiques, les réflexions et les succès sur le terrain du mouvement des logiciels libres sont à la fois un encouragement et une première pierre d’une réflexion par l’action. Ici et maintenant. En osant s’opposer aux nouveaux pouvoirs et aux franges les plus avancées des dominants.

Notes

[1] Crédit photo : Aussiegall (Creative Commons By)

[2] L’immatériel, André Gorz, Galilée, 2004

[3] Effet de réseau, Wikipédia http://fr.wikipedia.org/wiki/Effet_de_réseau

[4] The Pro-Am revolution, How enthusiasts are changing our economy and society, Charles Leadbeater, Paul Miller, Pamphlet, 24th November 2004 ISBN : 1841801364. http://www.demos.co.uk/publications/proameconomy

[5] http://www.gnu.org/licenses/licenses.fr.html

[6] C’est par exemple par ce type d’analyse des logiciels propriétaires que l’on a trouvé le « rootkit » (logiciel espion) installé par Sony à chaque fois qu’on lisait un CD de cette entreprise sur un ordinateur. Les logiciels libres, en permanence sous l’oeil des usagers et des membres de la communauté comportent beaucoup moins de failles et de risques d’infections par des virus ou autres « badware ».

[7] Le capitalisme cognitif : la nouvelle grande transformation, Yann Moulier-Boutang, Ed. Amsterdam, 2007

[8] Ces deux références renvoient à l’imagerie du mouvement communiste de libération (bien distinct du stalinisme de pouvoir). La prise du Palais d’Hiver de Saint Petersbourg signait le début de la révolution de 1917 et l’écroulement de la dictature tsariste ; le texte de Mao Zedong « Feu sur le Quartier général » était un appel à la révolte contre l’installation bureaucratique « par en haut », qui allait ouvrir la période dite de la « Révolution culturelle ». L’histoire a fini par avoir raison des mouvements de libération, ce qui n’enlève rien à leur force de contestation, mais montre que la vision d’un monde centralisé, avec des noeuds de pouvoir centraux à défaire, reste en deçà des formes exactes du pouvoir… et donc des besoins des révolutions émancipatrices.

[9] Homesteading the noosphere, Eric Raymond http://catb.org/ esr/writings/homesteading/homesteading/ Une traduction française est disponible dans le livre Libres enfants du numériques, Florent Latrive et Olivier Blondeau, Ed. De l’Eclat.

[10] Société de l’information/société de la connaissance, Sally Burch : In : Enjeux de Mots, sous la direction de Valérie Peugeot, Alain Ambrosi et Daniel Pimienta, C&F éditions, 2005. http://vecam.org/article516.html

[11] Tentative de définition du vectorialisme, In : Traitements et pratiques documentaires : vers un changement de paradigme ? Actes de la deuxième conférence Document numérique et Société, 2008 Sous la direction d’Evelyne Broudoux et Ghislaine Chartron. Ed. ADBS

[12] Multitude : Guerre et démocratie à l’âge de l’Empire, Michael Hardt et Antonio Negri, La découverte, 2004

[13] Un Manifeste Hacker : "a Hacker Manifesto", McKenzie Wark, Ed. Criticalsecret, 2006 (traduction française)

[14] La sorcellerie capitaliste : Pratiques de désenvoûtement, Philippe Pignarre et Isabelle Stengers, La Découverte, 2004

[15] http://april.org

[16] http://laquadrature.net

[17] http://fr.creativecommons.org

[18] Construire le libre-accès à la connaissance, Hervé Le Crosnier, In : Entre public et privé, les biens communs de l’information. Colloque, Université de Lyon 2, 20 octobre 2005 http://archives.univ-lyon2.fr/222/

[19] Sida : comment rattraper le temps perdu, Gernan Velasquez, In : Pouvoir Savoir : Le développement face aux biens communs de l’information et à la propriété intellectuelle, C&F éditions, 2005. http://vecam.org/article1035.html

[20] Les paysans sont-ils les protecteurs des semences locales, Guy Kastler, à paraître (version en ligne : http://vecam.org/article1075.html)

[21] Prizes to stimulate innovation, James Love, KEI International http://www.keionline.org/content/view/4/1/

[22] Relancer la recherche et développement de médicaments contre les maladies négligées, Bernard Pecoul et Jean-François Alesandrini In : Pouvoir Savoir, op. Cité. http://vecam.org/article1033.html

[23] Accès à la connaissance : Access to Knowledge, Compte-rendu de la conférence Access to knowledge qui s’est tenue à l’Université de Yale du 21 au 23 avril 2006, par Hervé Le Crosnier http://herve.cfeditions.org/a2k_yale/

[24] Cape Town Open Education Declaration : Unlocking the promise of open educational ressources, http://www.capetowndeclaration.org/read-the-declaration

[25] Relieurs, Première phase du Sommet mondial de la société de l’information – SMSI 2002/2003, Note de synthèse Octobre 2004 par Valérie Peugeot http://vecam.org/article364.html

[26] http://www.antipub.org

[27] http://fm-sciences.org

[28] Forum social mondial : un appel pour « bien vivre » plutôt que vivre mieux, Christophe Aguiton http://www.cetri.be/spip.php?article1037




Vivre sa vie ou l’enregistrer ? Telle est la question !

Put the camera down - SoupPour une fois ce n’est pas le couple Obama qui impressione sur la photo ci-contre[1]. Cliquez dessus pour voir… et vous constaterez peut-être avec moi que « quelque chose ne va pas ».

Qu’est-ce qui pousse tous ces gens à vivre les moments forts de leur vie à travers le prisme de leurs écrans ? Quelles conséquences cela peut-il bien avoir sur l’évènement fort en lui-même mais également à long terme sur la perception et les émotions de nos propres vies ? C’est le sujet du jour qui fait écho à l’émission radio Place de la Toile (France-Culture) du 23 janvier dernier intitulée Et si on se déconnectait ? dont je vous suggère la synthèse réalisée par Hubert Guillaud sur InternetActu.

Il est soudainement loin le temps où l’on se moquait gentiment des touristes japonais rivés à leur appareil photo…

La technologie, c’est formidable, mais n’en oublie-t-on pas de vivre ?

Technology is Great, but Are We Forgetting to Live?

Sarah Perez – 22 janvier 2009 – ReadWriteWeb
(Traduction Framalang : Don Rico et aKa)

Imaginez, vous êtes à un concert où votre groupe préféré monte sur scène pour la dernière fois. Ou bien vous assistez à la prestation de serment du Président Obama. Ou alors vous êtes simplement assis en famille devant le sapin de Noël, à regarder vos enfants ouvrir leurs cadeaux. Qu’êtes-vous en train de faire dans tous ces cas de figure ? Si vous êtes comme la plupart de nos contemporains, vous êtes sans doute en train de filmer la scène avec un gadget électronique d’un genre ou d’un autre, smartphone, appareil photo numérique ou camescope. Il se peut même que vous partagiez ce moment avec d’autres sur Twitter, Facebook ou FriendFeed.

Nos vies sur support numérique

Grâce à la technologie, nous pouvons graver pour toujours chaque moment de notre vie. Nous pouvons prendre des photos, y ajouter un commentaire et les partager aussitôt. Nous pouvons les archiver pour la postérité sur le Web intemporel. Et peut-être qu’un jour, nos arrière-arrière-petits-enfants retrouveront nos profils de réseaux sociaux dans les pages en cache d’Internet Archive et découvriront tout ce que nous avons voulu faire savoir au monde à notre sujet.

D’accord, c’est génial. C’est vraiment dingue. Mais qu’en est-il de nous, et du temps que nous avons passé à enregistrer ces moments ? Ne sommes-nous pas passés à côté de notre vie à trop vouloir la consigner ?

La technologie a accompli des tels progrès que l’utiliser n’exige presque plus aucun effort et nous l’intégrons dans notre vie comme jamais auparavant. Finie l’époque où l’ordinateur était une machine qui vous connectait à un réseau de pages au temps de chargement interminable. Non, le Web d’aujourd’hui, notre cerveau universel, tient dans la poche et est accessible de partout[2].

On peut aujourd’hui transférer nos photos (et même nos vidéos) directement de l’appareil au Web grâce à d’ingénieuses inventions telles que les cartes SD sans fil d’Eye-Fi, technologie qui fait de notre vie un flux constant d’informations destiné à remplir les pages omniprésentes d’une Toile en expansion permanente. Une Toile dont la création constitue peut-être le symbole des efforts fournis par l’humanité pour comprendre le concept de l’Univers, car de quelle manière décrira-t-on le Web de demain ? Comme une entité qui n’a ni début[3] ni fin, un dépôt d’archives en expansion continue recueillant la totalité de nos vies numériques.

On en oublie de vivre

Durant notre bref passage sur Terre, à force de vouloir consigner les moindres instants de notre vie, il se peut que nous en oubliions, de temps à autre en tout cas, comment vraiment profiter de la vie. Et pour profiter de la vie, n’en déplaise à certains, il faut se déconnecter, ranger son appareil photo, et pour une fois savourer l’instant.

Jane Maynard, de l’association Silicon Valley Moms (NdT : Mamans de la Silicon Valley), nous rappelle que de nos jours c’est un travers répandu qui ne concerne plus seulement les fous de technologie. Prenant l’exemple d’un concert où elle allait voir ses enfants jouer, elle décrit ce qui lui pose problème : « Les caméras. Je suis en face d’un dilemme. En voulant consigner les moments fabuleux que l’on vit, on néglige parfois la vraie vie. Comme lorsqu’on assiste au récital de piano de son enfant via l’écran LCD de son appareil et non directement. C’est un équilibre délicat à trouver auquel, j’en suis sûre, nous réfléchissons tous et sommes tous confrontés, surtout à notre époque du tout-numérique. Je me force parfois à ne pas sortir ma caméra, même si j’ai très envie d’enregistrer une scène, de façon à la vivre pleinement au moment où elle se produit. Ces moments-là, je ne les regrette jamais… mais ces considérations m’ont poussée à me poser des questions. Combien de fois me suis-je tellement focalisée sur l’idée de prendre la photo parfaite de mes enfants que j’en ai oublié complètement de profiter du moment présent ? »

Et si on se déconnectait ?

Définir ce qui mérite d’être enregistré et ou pas n’a rien de compliqué. Nous estimons automatiquement que ce sont les moments les plus importants, les plus sensationnels et les plus incroyables qu’il faut enregistrer. Mais ce sont pourtant ces moments-là qu’il vaut mieux savourer pleinement, en leur accordant notre entière attention.

Selon Martin Kelly, blogueur axé sur la religion, « à certains moments, il est bien plus important d’être présent que d’enregistrer quoi que soit ». (Il venait de s’étonner lui-même en regardant les photos floues qu’il avait estimé nécessaire de prendre lors d’un mariage, alors que la mariée s’avançait vers l’autel. Avec le recul, il s’agissait précisément du genre d’instant dont il aurait pu se passer de photographier.)

« Cessez de vouloir vivre votre vie par procuration. Vous êtes déjà là. Vous n’avez rien à prouver », déclare Kat Orphanides en regardant des spectateurs enregistrer un concert au lieu de profiter de la musique. En réalité, c’est plus facile à dire qu’à faire. Si vous avez déjà ressenti une sensation de manque technologique quand vous vous déconnectez du Web (comment ne pas envoyer un tweet pour raconter ce que je viens de voir ? Il faut absolument que je prenne ça en photo !), c’est que vous êtes à deux doigts de ne faire plus qu’un avec la machine. Il est peut-être temps de vous rappeler que vivre se suffit à soi-même… du moins parfois. Vous n’aurez peut-être pas d’archive des moments tous plus extraordinaires les uns que les autres que vous aurez vécu, mais votre vie n’en sera que plus satisfaisante.

Notes

[1] Crédit photo : Put the camera down and enjoy a moment for once

[2] Bien évidemment, ces constatations s’appliquent aux parties du monde où la technologie moderne, comme les smartphones et le haut-débit, sont banals. On n’a pas accès à ces machins partout dans les monde, je le sais.

[3] La toute première page Web se trouve ici, mais elle n’est désignée comme page « Web » que parce que des liens hypertextes la relient à d’autres pages à l’aide de balises html. Alors, était-ce vraiment la première ? Ou est-elle soudain apparue en même temps que les autres ? Est-ce vraiment le point d’origine du Web ?




Écrire à l’ère de la distraction permanente

Joi - CC byLe Framablog et ses traducteurs aiment bien de temps en temps sortir des sentiers battus du Libre pour modestement apporter quelques éléments de réflexion autour des changements comportementaux induits par les nouvelles technologies et le monde connecté.

Après Et si cela ne servait plus à rien de mémoriser et d’apprendre par coeur ? et Internet et Google vont-ils finir par nous abrutir ?, voici que nous vous proposons aujourd’hui un article de Cory Doctorow, que je tiens personnellement pour l’une des personnalités les plus intéressantes et influentes de la « culture libre », sur la difficulté non plus de lire mais d’écrire à l’aube de ce nouveau siècle.

En faire un peu tous les jours, savoir suspendre sa plume, ne pas effectuer de recherche, ne pas attendre les conditions parfaites, laisser tomber le traitement de texte, ne pas répondre aux sirènes des messageries instantanées (et autres réseaux sociaux), tels sont les conseils avisés de notre auteur[1] pour y remédier.

Que pensez-vous de ces quelques recommandations ? En apporteriez-vous d’autres ? Qu’est-ce qui nous permet d’échapper à la procrastination du travail rédactionnel qui s’éternise faute d’avoir su dire non aux sollicitations extérieures ? Les commentaires n’attendent que vous réponses… sauf si bien sûr, dans l’intervalle, vous avez le malheur de cliquer ailleurs 😉

Écrire à l’ère où tout est là pour nous distraire

Writing in the age of distraction

Cory Doctorow – 7 janvier 2008 – Locus Mag
(Traduction Framalang : Don Rico et Goofy)

Nous savons que nos lecteurs sont distraits, voire parfois submergés par les innombrables distractions qui se trouvent à portée de clic partout sur Internet, mais il va de soi que les rédacteurs sont tout autant confrontés à ce problème d’envergure, le monde foisonnant d’informations, de communication et de communautés tapis derrière notre écran, à portée des touches alt+tab de notre traitement de texte.

Le pire conseil sur l’écriture qu’on m’ait jamais donné était de me tenir à l’écart d’Internet, soi-disant que j’y perdrais du temps et que ça ne m’aiderait pas à écrire. C’était un conseil erroné du point de vue créatif, professionnel, artistique et personnel, mais je comprends bien ce qui avait incité cet écrivain à m’administrer une telle mise en garde. Régulièrement, quand je vois un site, un jeu ou un service nouveau, je ressens l’attraction irrésistible d’un trou noir de concentration : une activité chronophage prête à me prendre dans ses filets de distraction. Jeune papa impliqué qui écrit au moins un livre par an, une demi-douzaines d’articles par mois, au moins dix billets de blog par jour, auxquels s’ajoutent divers mini-romans, nouvelles et conférences, je suis bien placé pour savoir qu’on manque vite de temps et connaître les dangers de la distraction.

Mais l’Internet m’apporte beaucoup. Il nourrit ma créativité et mon esthétique, il me profite d’un point de vue professionnel et personnel, et pour chaque moment qu’il me vole, le plaisir que j’y prends me le rend au centuple. Je n’y renoncerai pas plus qu’à la littérature ou quelque autre vice délectable.

Je crois avoir réussi à trouver un équilibre grâce à quelques techniques simples que je perfectionne depuis des années. Il m’arrive toujours de me sentir lessivé et ivre d’infos, mais c’est rare. La plupart du temps, c’est moi qui ai la maîtrise de ma charge de travail et de ma muse. Voici comment je procède :

  • Des plages de travail courtes et régulières
    Lorsque je travaille à l’écriture d’une nouvelle ou d’un roman, je me fixe chaque jour un objectif modeste, en général une page ou deux, et je m’emploie à l’atteindre, ne faisant rien d’autre tant que je n’ai pas fini. Il n’est pas réaliste, ni souhaitable, de vouloir se couper du monde des heures durant, mais il est tout à fait possible de le faire pendant vingt minutes. En rédigeant une page par jour, je publie plus d’un livre par an, faites le calcul, et il est facile de trouver vingt minutes dans une journée, quelles que soient les circonstances. Vingt minutes, c’est un intervalle assez court pour être pris sur votre temps de sommeil ou votre pause déjeuner (même si cela ne doit pas devenir une habitude). Le secret, c’est de s’y astreindre tous les jours, week-end inclus, pour ne pas vous couper dans votre élan, et pour qu’entre deux séances de travail vos pensées puissent cheminer tranquillement jusqu’à la page du lendemain. Essayez de trouver un ou deux détails accrocheurs, ou un bon mot, à exploiter dans la page suivante, afin de savoir par où commencer lorsque vous vous installerez derrière votre clavier.
  • Ne vous arrêtez pas sur un travail fini
    Dès que vous atteignez votre objectif quotidien, arrêtez-vous. Même si vous êtes au beau milieu d’une phrase. Surtout si vous êtes au beau milieu d’une phrase, en fait. Ainsi, lorsque vous vous mettrez au travail le lendemain, vos cinq ou dix premiers mots seront déjà en place, ce qui vous donnera un petit coup de pouce pour vous lancer. Les tricoteuses laissent un bout de laine dépasser du dernier rang, afin de savoir où reprendre, une sorte de pense-bête. Les potiers, quant à eux, n’égalisent pas le pourtour de l’argile humide avant de la recouvrir de plastique pour la nuit, difficile de repartir sur une surface trop lisse.
  • N’effectuez aucune recherche
    Faire des recherches, ça n’est pas écrire, et vice-versa. Lorsque vous butez sur un point technique qu’une rapide recherche sur Google suffirait à éclaircir, abstenez-vous. Ne cédez pas à l’envie de chercher la longueur du pont de Brooklyn, le nombre d’habitants que compte de Rhode Island ou la distance qui sépare la Terre du Soleil. Ce serait alors la déconcentration assurée : une valse de clics sans fin qui transformerait vos vingt minutes de rédaction en une demi-journée à flâner sur le Web. Adoptez la méthode des journalistes (NdT : ces conseils s’adressent à des anglophones, pour le français il faudra bien sûr adapter) : tapez par exemple « TK » là où doit apparaître votre donnée, comme par exemple « Le pont de Brooklyn, d’un bout à l’autre de ses TK mètres, vacillait tel un cerf-volant." La graphie « TK » n’apparaissant que dans très peu de mots anglais (le seul sur lequel je sois tombé est « Atkins »), une recherche rapide de « TK » dans votre document suffira pour savoir si vous devez vérifier des détails techniques. Si vous en oubliez un, votre préparateur ou correcteur le repérera et vous le signalera.
  • Ne soyez pas trop à cheval sur vos conditions de travail
    N’écoutez pas ceux qui conseillent de créer l’atmosphère idéale pour attirer votre muse dans la pièce. Les bougies, la musique, le silence, le fauteuil confortable, la cigarette, attendre d’avoir couché les enfants… laissez tomber tout ça. Certes, il est agréable de se sentir à l’aise pour travailler, mais si vous vous persuadez que vous ne pouvez écrire que dans un monde parfait, vous vous retrouvez devant une double difficulté : trouver à la fois vingt minutes de libre et l’environnement idéal. Lorsque vous avez le temps, mettez-vous à votre clavier et écrivez. Vous pouvez bien tolérer le bruit/le silence/les enfants/l’inconfort/la faim pendant vingt minutes.
  • Éteignez votre traitement de texte
    Word, Google Docs et OpenOffice.org sont bardés d’une panoplie déconcertante de paramètres de mise en forme et de complétion automatique avec lesquelles vous pouvez passer votre temps à faire mumuse. Laissez tomber. Tout ça, c’est de la distraction, et ce qu’il faut absolument éviter, c’est que votre outil essaie de deviner ce que vous avez en tête, corrige votre orthographe, ou critique la construction de votre phrase, etc. Les programmeurs qui ont conçu votre traitement de texte passent leur journée à taper, tous les jours, et ils ont les moyens d’acheter ou de se procurer n’importe quel outil imaginable servant à entrer du texte dans un ordinateur. Et pourtant ils n’utilisent pas Word pour créer leur logiciel. Il se servent d’un éditeur de texte, comme vi, Emacs, TextPad, BBEdit, Gedit, et bien d’autres encore. Il s’agit là des outils les plus puissants, vénérables et fiables de l’histoire du logiciel (car ils sont au cœur de tous les autres logiciels), et ils ne comportent quasi aucune fonctionnalité susceptible de vous distraire ; en revanche, ils possèdent des fonctions chercher/remplacer très puissantes. Le plus gros avantage, c’est qu’un modeste fichier .txt peut être lu par presque toutes les applications présentes sur votre ordinateur, ou collé directement dans un courriel, sans risque de transmettre un virus.
  • Les outils de communication instantanée : à proscrire
    Ce qui nuit le plus à la concentration, c’est la présence sur votre ordinateur d’un écosystème d’applications intrusives : messagerie instantanée, alertes e-mail, alertes RSS, appels Skype, etc. Toute application exigeant que vous attendiez une réponse, même inconsciemment, accapare votre attention. Tout ce qui surgit sur votre écran pour vous annoncer un fait nouveau l’accapare aussi. Plus vous habituerez vos proches et amis à préférer les courriels, les forums et les technologies similaires qui vous permettent de choisir la plage de temps à consacrer à vos conversations au lieu d’exiger votre attention immédiatement, plus vous réussirez à vous ménager vos vingt minutes. En cas de besoin, vous pouvez prévoir une conversation, par VoIP, texte ou vidéo, mais laisser votre messagerie instantanée allumée revient à vous mettre au travail avec sur votre bureau un panneau géant DÉCONCENTREZ-MOI, du genre qui brille au point d’être visible du monde entier.

Je ne prétends pas être l’inventeur de ces techniques, mais grâce à elles je peux profiter pleinement du XXIème siècle.

Notes

[1] Crédit photo : Joi (Creative Commons By)




Internet et Google vont-ils finir par nous abrutir ?

Striatic - CC byVoici la traduction d’un article assez passionnant qui a connu un bel impact dans la sphère anglophone au moment de sa mise en ligne cet été. Son titre choc Is Google Making Us Stupid? est un peu trompeur car il s’agit bien moins de charger l’emblématique Google que de s’interroger sur les transformations profondes induites par internet et les nouvelles technologies, transformations qui peuvent aller jusqu’à modifier nos perceptions, nos modes de pensée, voire même notre cerveau.

Prenons le Framablog par exemple. Il possède, merci pour lui, d’assez bonnes statistiques d’audience globales, mais lorsque l’on se penche sur la moyenne du temps passé par page, c’est la grosse déprime car cela ne dépasse que trop rarement les deux minutes, intervalle qui ne vous permet généralement pas d’y parcourir les articles du début à la fin. En décidant d’en achever la lecture bien avant la conclusion, peut-on affirmer que plus de la moitié des visiteurs ne les trouvent pas intéressants ? C’est fort probable.

Mais il y a peut-être aussi une autre explication. Les articles de ce blog sont souvent relativement « longs » et par la-même nécessitent de trouver un minimum de temps disponible et de concentration. Ils nous demandent de fixer notre attention et d’interrompre notre surf internet en coupant momentanément le contact avec le flot continu d’informations dont nous sommes abreuvés.

Allons plus loin avec l’objet livre (que nous défendons d’ailleurs avec force et modestie sur Framabook). Lit-on moins de livres au fur et à mesure qu’Internet prend de plus en plus de place dans nos vies ? Et surtout les lit-on avec les mêmes facilités qu’auparavant ? Et qu’en est-il de la jeune génération ?[1]

Nicholas Carr, partant du constat qu’il n’a plus la même patience que par le passé vis-à-vis de la lecture « calme et profonde », revisite quelques dates marquantes de l’Histoire (le passage de l’oral à l’écrit, l’apparition de l’imprimerie, de la machine à écrire, du taylorisme…) pour nous inviter à une réflexion autour de l’influence des technologies et leurs systèmes sur rien moins que notre manière de penser et de percevoir le monde.

Vous vous sentez vous aussi atteint par le symptôme ? Ne vous laissez pas abattre ! Oubliez l’espace d’un instant SMS, MSN, Facebook, Twitter… et sérendipité, en réussissant l’exploit de parcourir ce billet jusqu’à son terme 😉

Est-ce que Google nous rend idiots ?

Is Google Making Us Stupid?

Nicholas Carr – juin 2008 – The Atlantic
(Traduction Framalang : Penguin, Olivier et Don Rico)

« Dave, arrête. Arrête, s’il te plaît. Arrête Dave. Vas-tu t’arrêter, Dave ? » Ainsi le super-ordinateur HAL suppliait l’implacable astronaute Dave Bowman dans une scène célèbre et singulièrement poignante à la fin du film de Stanley Kubrick 2001, l’odyssée de l’espace. Bowman, qui avait failli être envoyé à la mort, au fin fond de l’espace, par la machine détraquée, est en train de déconnecter calmement et froidement les circuits mémoires qui contrôlent son « cerveau » électronique. « Dave, mon esprit est en train de disparaître », dit HAL, désespérément. « Je le sens. Je le sens. »

Moi aussi, je le sens. Ces dernières années, j’ai eu la désagréable impression que quelqu’un, ou quelque chose, bricolait mon cerveau, en reconnectait les circuits neuronaux, reprogrammait ma mémoire. Mon esprit ne disparaît pas, je n’irai pas jusque là, mais il est en train de changer. Je ne pense plus de la même façon qu’avant. C’est quand je lis que ça devient le plus flagrant. Auparavant, me plonger dans un livre ou dans un long article ne me posait aucun problème. Mon esprit était happé par la narration ou par la construction de l’argumentation, et je passais des heures à me laisser porter par de longs morceaux de prose. Ce n’est plus que rarement le cas. Désormais, ma concentration commence à s’effilocher au bout de deux ou trois pages. Je m’agite, je perds le fil, je cherche autre chose à faire. J’ai l’impression d’être toujours en train de forcer mon cerveau rétif à revenir au texte. La lecture profonde, qui était auparavant naturelle, est devenue une lutte.

Je crois savoir ce qui se passe. Cela fait maintenant plus de dix ans que je passe énormément de temps sur la toile, à faire des recherches, à surfer et même parfois à apporter ma pierre aux immenses bases de données d’Internet. En tant qu’écrivain, j’ai reçu le Web comme une bénédiction. Les recherches, autrefois synonymes de journées entières au milieu des livres et magazines des bibliothèques, s’effectuent désormais en un instant. Quelques recherches sur Google, quelques clics de lien en lien et j’obtiens le fait révélateur ou la citation piquante que j’espérais. Même lorsque je ne travaille pas, il y a de grandes chances que je sois en pleine exploration du dédale rempli d’informations qu’est le Web ou en train de lire ou d’écrire des e-mails, de parcourir les titres de l’actualité et les derniers billets de mes blogs favoris, de regarder des vidéos et d’écouter des podcasts ou simplement de vagabonder d’un lien à un autre, puis à un autre encore. (À la différence des notes de bas de page, auxquelles on les apparente parfois, les liens hypertextes ne se contentent pas de faire référence à d’autres ouvrages ; ils vous attirent inexorablement vers ces nouveaux contenus.)

Pour moi, comme pour d’autres, le Net est devenu un media universel, le tuyau d’où provient la plupart des informations qui passent par mes yeux et mes oreilles. Les avantages sont nombreux d’avoir un accès immédiat à un magasin d’information d’une telle richesse, et ces avantages ont été largement décrits et applaudis comme il se doit. « Le souvenir parfait de la mémoire du silicium », a écrit Clive Thompson de Wired, “peut être une fantastique aubaine pour la réflexion.” Mais cette aubaine a un prix. Comme le théoricien des média Marshall McLuhan le faisait remarquer dans les années 60, les média ne sont pas uniquement un canal passif d’information. Ils fournissent les bases de la réflexion, mais ils modèlent également le processus de la pensée. Et il semble que le Net érode ma capacité de concentration et de réflexion. Mon esprit attend désormais les informations de la façon dont le Net les distribue : comme un flux de particules s’écoulant rapidement. Auparavant, j’étais un plongeur dans une mer de mots. Désormais, je fends la surface comme un pilote de jet-ski.

Je ne suis pas le seul. Lorsque j’évoque mes problèmes de lecture avec des amis et des connaissances, amateurs de littérature pour la plupart, ils me disent vivre la même expérience. Plus ils utilisent le Web, plus ils doivent se battre pour rester concentrés sur de longues pages d’écriture. Certains des bloggeurs que je lis ont également commencé à mentionner ce phénomène. Scott Karp, qui tient un blog sur les média en ligne, a récemment confessé qu’il avait complètement arrêté de lire des livres. « J’étais spécialisé en littérature à l’université et je passais mon temps à lire des livres », écrit-il. « Que s’est-il passé ? » Il essaie de deviner la réponse : « Peut-être que je ne lis plus que sur Internet, non pas parce que ma façon de lire a changé (c’est à dire parce que je rechercherais la facilité), mais plutôt parce que ma façon de PENSER a changé ? »

Bruce Friedman, qui bloggue régulièrement sur l’utilisation des ordinateurs en médecine, décrit également la façon dont Internet a transformé ses habitudes intellectuelles. « J’ai désormais perdu presque totalement la capacité de lire et d’absorber un long article, qu’il soit sur le Web ou imprimé », écrivait-il plus tôt cette année. Friedman, un pathologiste qui a longtemps été professeur l’école à de médecine du Michigan, a développé son commentaire lors d’une conversation téléphonique avec moi. Ses pensées, dit-il, ont acquis un style « staccato », à l’image de la façon dont il scanne rapidement de petits passages de texte provenant de multiples sources en ligne. « Je ne peux plus lire Guerre et Paix », admet-il. « J’ai perdu la capacité de le faire. Même un billet de blog de plus de trois ou quatre paragraphes est trop long pour que je l’absorbe. Je l’effleure à peine. »

Les anecdotes par elles-mêmes ne prouvent pas grand chose. Et nous attendons encore des expériences neurologiques et psychologiques sur le long terme, qui nous fourniraient une image définitive sur la façon dont Internet affecte nos capacités cognitives. Mais une étude publiée récemment sur les habitudes de recherches en ligne, conduite par des spécialistes de l’université de Londres, suggère que nous assistons peut-être à de profonds changements de notre façon de lire et de penser. Dans le cadre de ce programme de recherche de cinq ans, ils ont examiné des traces informatiques renseignant sur le comportement des visiteurs de deux sites populaires de recherche, l’un exploité par la bibliothèque britannique et l’autre par un consortium éducatif anglais, qui fournissent un accès à des articles de journaux, des livres électroniques et d’autres sources d’informations écrites. Ils ont découvert que les personnes utilisant ces sites présentaient « une forme d’activité d’écrémage », sautant d’une source à une autre et revenant rarement à une source qu’ils avaient déjà visitée. En règle générale, ils ne lisent pas plus d’une ou deux pages d’un article ou d’un livre avant de « bondir » vers un autre site. Parfois, ils sauvegardent un article long, mais il n’y a aucune preuve qu’ils y reviendront jamais et le liront réellement. Les auteurs de l’étude rapportent ceci :

Il est évident que les utilisateurs ne lisent pas en ligne dans le sens traditionnel. En effet, des signes montrent que de nouvelles formes de « lecture » apparaissent lorsque les utilisateurs « super-naviguent » horizontalement de par les titres, les contenus des pages et les résumés pour parvenir à des résultats rapides. Il semblerait presque qu’ils vont en ligne pour éviter de lire de manière traditionnelle.

Grâce à l’omniprésence du texte sur Internet, sans même parler de la popularité des textos sur les téléphones portables, nous lisons peut-être davantage aujourd’hui que dans les années 70 ou 80, lorsque la télévision était le média de choix. Mais il s’agit d’une façon différente de lire, qui cache une façon différente de penser, peut-être même un nouveau sens de l’identité. « Nous ne sommes pas seulement ce que nous lisons », dit Maryanne Wolf, psychologue du développement à l’université Tufts et l’auteur de « Proust et le Calamar : l’histoire et la science du cerveau qui lit. ». « Nous sommes définis par notre façon de lire. » Wolf s’inquiète que le style de lecture promu par le Net, un style qui place « l’efficacité » et « l’immédiateté » au-dessus de tout, puisse fragiliser notre capacité pour le style de lecture profonde qui a émergé avec une technologie plus ancienne, l’imprimerie, qui a permis de rendre banals les ouvrages longs et complexes. Lorsque nous lisons en ligne, dit-elle, nous avons tendance à devenir de « simples décodeurs de l’information ». Notre capacité à interpréter le texte, à réaliser les riches connexions mentales qui se produisent lorsque nous lisons profondément et sans distraction, reste largement inutilisée.

La lecture, explique Wolf, n’est pas une capacité instinctive de l’être humain. Elle n’est pas inscrite dans nos gènes de la même façon que le langage. Nous devons apprendre à nos esprits comment traduire les caractères symboliques que nous voyons dans un langage que nous comprenons. Et le médium ou toute autre technologie que nous utilisons pour apprendre et exercer la lecture joue un rôle important dans la façon dont les circuits neuronaux sont modelés dans nos cerveaux. Les expériences montrent que les lecteurs d’idéogrammes, comme les chinois, développent un circuit mental pour lire très différent des circuits trouvés parmi ceux qui utilisent un langage écrit employant un alphabet. Les variations s’étendent à travers de nombreuses régions du cerveau, incluant celles qui gouvernent des fonctions cognitives essentielles comme la mémoire et l’interprétation des stimuli visuels et auditifs. De la même façon, nous pouvons nous attendre à ce que les circuits tissés par notre utilisation du Net seront différents de ceux tissés par notre lecture des livres et d’autres ouvrages imprimés.

En 1882, Friedrich Nietzsche acheta une machine à écrire, une « Malling-Hansen Writing Ball » pour être précis. Sa vue était en train de baisser, et rester concentré longtemps sur une page était devenu exténuant et douloureux, source de maux de têtes fréquents et douloureux. Il fut forcé de moins écrire, et il eut peur de bientôt devoir abandonner. La machine à écrire l’a sauvé, au moins pour un temps. Une fois qu’il eut maîtrisé la frappe, il fut capable d’écrire les yeux fermés, utilisant uniquement le bout de ses doigts. Les mots pouvaient de nouveau couler de son esprit à la page.

Mais la machine eut un effet plus subtil sur son travail. Un des amis de Nietzsche, un compositeur, remarqua un changement dans son style d’écriture. Sa prose, déjà laconique, devint encore plus concise, plus télégraphique. « Peut-être que, grâce à ce nouvel instrument, tu vas même obtenir un nouveau langage », lui écrivit cet ami dans une lettre, notant que dans son propre travail ses « pensées sur la musique et le langage dépendaient souvent de la qualité de son stylo et du papier ».

« Tu as raison », répondit Nietzsche , « nos outils d’écriture participent à l’éclosion de nos pensées ». Sous l’emprise de la machine, écrit le spécialiste allemand des médias Friedrich A. Kittler, la prose de Nietzsche « est passée des arguments aux aphorismes, des pensées aux jeux de mots, de la rhétorique au style télégraphique ».

Le cerveau est malléable presque à l’infini. On a longtemps cru que notre réseau mental, les connexions denses qui se forment parmi nos cent milliards et quelques de neurones, sont largement établis au moment où nous atteignons l’âge adulte. Mais des chercheurs du cerveau ont découvert que ce n’était pas le cas. James Olds, professeur de neurosciences qui dirige l’institut Krasnow pour l’étude avancée à l’université George Mason, dit que même l’esprit adulte « est très plastique ». Les cellules nerveuses rompent régulièrement leurs anciennes connexions et en créent de nouvelles. « Le cerveau », selon Olds, « a la capacité de se reprogrammer lui-même à la volée, modifiant la façon dont il fonctionne. »

Lorsque nous utilisons ce que le sociologue Daniel Bell appelle nos « technologies intellectuelles », les outils qui étendent nos capacités mentales plutôt que physiques, nous empruntons inéluctablement les qualités de ces technologies. L’horloge mécanique, qui est devenu d’utilisation fréquente au 14ème siècle, fournit un exemple frappant. Dans « Technique et Civilisation », l’historien et critique culturel Lewis Mumford décrit comment l’horloge « a dissocié le temps des événements humains et a contribué à créer la croyance en un monde indépendant constitué de séquences mathématiquement mesurables ». La « structure abstraite du découpage du temps » est devenue « le point de référence à la fois pour l’action et les pensées ».

Le tic-tac systématique de l’horloge a contribué à créer l’esprit scientifique et l’homme scientifique. Mais il nous a également retiré quelque chose. Comme feu l’informaticien du MIT Joseph Weizenbaum l’a observé dans son livre de 1976, « Le pouvoir de l’ordinateur et la raison humaine : du jugement au calcul », la conception du monde qui a émergé de l’utilisation massive d’instruments de chronométrage « reste une version appauvrie de l’ancien monde, car il repose sur le rejet de ces expériences directes qui formaient la base de l’ancienne réalité, et la constituaient de fait. ». En décidant du moment auquel il faut manger, travailler, dormir et se lever, nous avons arrêté d’écouter nos sens et commencé à nous soumettre aux ordres de l’horloge.

Le processus d’adaptation aux nouvelles technologies intellectuelles est reflété dans les métaphores changeantes que nous utilisons pour nous expliquer à nous-mêmes. Quand l’horloge mécanique est arrivée, les gens ont commencé à penser que leur cerveau opérait « comme une horloge ». Aujourd’hui, à l’ère du logiciel, nous pensons qu’il fonctionne « comme un ordinateur ». Mais les changements, selon la neuroscience, dépassent la simple métaphore. Grâce à la plasticité de notre cerveau, l’adaptation se produit également au niveau biologique.

Internet promet d’avoir des effets particulièrement profonds sur la cognition. Dans un article publié en 1936, le mathématicien anglais Alan Turing a prouvé que l’ordinateur numérique, qui à l’époque n’existait que sous la forme d’une machine théorique, pouvait être programmé pour réaliser les fonctions de n’importe quel autre appareil traitant l’information. Et c’est ce à quoi nous assistons de nos jours. Internet, un système informatique d’une puissance inouïe, inclut la plupart de nos autres technologies intellectuelles. Il devient notre plan et notre horloge, notre imprimerie et notre machine à écrire, notre calculatrice et notre téléphone, notre radio et notre télévision.

Quand le Net absorbe un médium, ce médium est recréé à l’image du Net. Il injecte dans le contenu du médium des liens hypertextes, des pubs clignotantes et autres bidules numériques, et il entoure ce contenu avec le contenu de tous les autres média qu’il a absorbés. Un nouveau message e-mail, par exemple, peut annoncer son arrivée pendant que nous jetons un coup d’œil aux derniers titres sur le site d’un journal. Résultat : notre attention est dispersée et notre concentration devient diffuse.

L’influence du Net ne se limite pas aux bords de l’écran de l’ordinateur non plus. En même temps que l’esprit des gens devient sensible au patchwork disparate du médium Internet, les média traditionnels ont dû s’adapter aux nouvelles attentes de leur public. Les programmes de télévision ajoutent des textes défilants et des pubs qui surgissent, tandis que les magazines et les journaux réduisent la taille de leurs articles, ajoutent des résumés, et parsèment leurs pages de fragments d’information faciles à parcourir. Lorsque, au mois de mars de cette année, le New York Times a décidé de consacrer la deuxième et la troisième page de toutes ses éditions à des résumés d’articles, son directeur artistique, Tom Badkin, explique que les “raccourcis” donneront aux lecteurs pressés un « avant-goût » des nouvelles du jour, leur évitant la méthode « moins efficace » de tourner réellement les pages et de lire les articles. Les anciens média n’ont pas d’autre choix que de jouer suivant les règles du nouveau médium.

Jamais système de communication n’a joué autant de rôles différents dans nos vies, ou exercé une si grande influence sur nos pensées, que ne le fait Internet de nos jours. Pourtant, malgré tout ce qui a été écrit à propos du Net, on a très peu abordé la façon dont, exactement, il nous reprogramme. L’éthique intellectuelle du Net reste obscure.

À peu près au moment où Nietzsche commençait à utiliser sa machine à écrire, un jeune homme sérieux du nom de Frederick Winslow Taylor apporta un chronomètre dans l’aciérie Midvale de Philadelphie et entama une série d’expériences historique dont le but était d’améliorer l’efficacité des machinistes de l’usine. Avec l’accord des propriétaires de Midvale, il embaucha un groupe d’ouvriers, les fit travailler sur différentes machines de métallurgie, enregistra et chronométra chacun de leurs mouvements ainsi que les opérations des machines. En découpant chaque travail en une séquence de petites étapes unitaires et en testant les différentes façons de réaliser chacune d’entre elles, Taylor créa un ensemble d’instructions précises, un « algorithme », pourrions dire de nos jours, décrivant comment chaque ouvrier devait travailler. Les employés de Midvale se plaignirent de ce nouveau régime strict, affirmant que cela faisait d’eux quelque chose d’à peine mieux que des automates, mais la productivité de l’usine monta en flèche.

Plus de cent ans après l’invention de la machine à vapeur, la révolution industrielle avait finalement trouvé sa philosophie et son philosophe. La chorégraphie industrielle stricte de Taylor, son « système » comme il aimait l’appeler, fut adoptée par les fabricants dans tout le pays et, avec le temps, dans le monde entier. À la recherche de la vitesse, de l’efficacité et de la rentabilité maximales, les propriétaires d’usine utilisèrent les études sur le temps et le mouvement pour organiser leur production et configurer le travail de leurs ouvriers. Le but, comme Taylor le définissait dans son célèbre traité de 1911, « La direction des ateliers » (le titre original « The principles of scientific management » pourrait être traduit en français par « Les principes de l’organisation scientifique »), était d’identifier et d’adopter, pour chaque poste, la « meilleure méthode » de travail et ainsi réaliser « la substitution graduelle de la science à la méthode empirique dans les arts mécaniques ». Une fois que le système serait appliqué à tous les actes du travail manuel, garantissait Taylor à ses émules, cela amènerait un remodelage, non seulement de l’industrie, mais également de la société, créant une efficacité parfaite utopique. « Dans le passé, l’homme était la priorité », déclare-t-il, « dans le futur, la priorité, ce sera le système ».

Le système de Taylor, le taylorisme, est encore bien vivant ; il demeure l’éthique de la production industrielle. Et désormais, grâce au pouvoir grandissant que les ingénieurs informaticiens et les programmeurs de logiciel exercent sur nos vies intellectuelles, l’éthique de Taylor commence également à gouverner le royaume de l’esprit. Internet est une machine conçue pour la collecte automatique et efficace, la transmission et la manipulation des informations, et des légions de programmeurs veulent trouver « LA meilleure méthode », l’algorithme parfait, pour exécuter chaque geste mental de ce que nous pourrions décrire comme « le travail de la connaissance ».

Le siège de Google, à Mountain View, en Californie, le Googleplex, est la Haute Église d’Internet, et la religion pratiquée en ses murs est le taylorisme. Google, selon son directeur-général Eric Schmidt, est « une entreprise fondée autour de la science de la mesure » et il s’efforce de « tout systématiser » dans son fonctionnement. En s’appuyant sur les téra-octets de données comportementales qu’il collecte à travers son moteur de recherche et ses autres sites, il réalise des milliers d’expériences chaque jour, selon le Harvard Business Review, et il utilise les résultats pour peaufiner les algorithmes qui contrôlent de plus en plus la façon dont les gens trouvent l’information et en extraient le sens. Ce que Taylor a fait pour le travail manuel, Google le fait pour le travail de l’esprit.

Google a déclaré que sa mission était « d’organiser les informations du monde et de les rendre universellement accessibles et utiles ». Cette société essaie de développer « le moteur de recherche parfait », qu’elle définit comme un outil qui “comprendrait exactement ce que vous voulez dire et vous donnerait en retour exactement ce que vous désirez”. Selon la vision de Google, l’information est un produit comme un autre, une ressource utilitaire qui peut être exploitée et traitée avec une efficacité industrielle. Plus le nombre de morceaux d’information auxquels nous pouvons « accéder » est important, plus rapidement nous pouvons en extraire l’essence, et plus nous sommes productifs en tant que penseurs.

Où cela s’arrêtera-t-il ? Sergey Brin et Larry Page, les brillants jeunes gens qui ont fondé Google pendant leur doctorat en informatique à Stanford, parlent fréquemment de leur désir de transformer leur moteur de recherche en une intelligence artificielle, une machine comme HAL, qui pourrait être connectée directement à nos cerveaux. « Le moteur de recherche ultime est quelque chose d’aussi intelligent que les êtres humains, voire davantage », a déclaré Page lors d’une conférence il y a quelques années. « Pour nous, travailler sur les recherches est un moyen de travailler sur l’intelligence artificielle. » Dans un entretien de 2004 pour Newsweek, Brin affirmait : « Il est certain que si vous aviez toutes les informations du monde directement fixées à votre cerveau ou une intelligence artificielle qui serait plus intelligente que votre cerveau, vous vous en porteriez mieux. » L’année dernière, Page a dit lors d’une convention de scientifiques que Google « essayait vraiment de construire une intelligence artificielle et de le faire à grande échelle. »

Une telle ambition est naturelle, et même admirable, pour deux mathématiciens prodiges disposant d’immenses moyens financiers et d’une petite armée d’informaticiens sous leurs ordres. Google est une entreprise fondamentalement scientifique, motivée par le désir d’utiliser la technologie, comme l’exprime Eric Schmidt, « pour résoudre les problèmes qui n’ont jamais été résolus auparavant », et le frein principal à la réussite d’une telle entreprise reste l’intelligence artificielle. Pourquoi Brin et Page ne voudraient-ils pas être ceux qui vont parvenir à surmonter cette difficulté ?

Pourtant, leur hypothèse simpliste voulant que nous nous « porterions mieux » si nos cerveaux étaient assistés ou même remplacés par une intelligence artificielle, est inquiétante. Cela suggère que d’après eux l’intelligence résulte d’un processus mécanique, d’une suite d’étapes discrètes qui peuvent être isolés, mesurés et optimisés. Dans le monde de Google, le monde dans lequel nous entrons lorsque nous allons en ligne, il y a peu de place pour le flou de la réflexion. L’ambiguïté n’est pas un préliminaire à la réflexion mais un bogue à corriger. Le cerveau humain n’est qu’un ordinateur dépassé qui a besoin d’un processeur plus rapide et d’un plus gros disque dur.

L’idée que nos esprits doivent fonctionner comme des machines traitant des données à haute vitesse n’est pas seulement inscrite dans les rouages d’Internet, c’est également le business-model qui domine le réseau. Plus vous surfez rapidement sur le Web, plus vous cliquez sur des liens et visitez de pages, plus Google et les autres compagnies ont d’occasions de recueillir des informations sur vous et de vous nourrir avec de la publicité. La plupart des propriétaires de sites commerciaux ont un enjeu financier à collecter les miettes de données que nous laissons derrière nous lorsque nous voletons de lien en lien : plus y a de miettes, mieux c’est. Une lecture tranquille ou une réflexion lente et concentrée sont bien les dernières choses que ces compagnies désirent. C’est dans leur intérêt commercial de nous distraire.

Peut-être ne suis-je qu’un angoissé. Tout comme il y a une tendance à glorifier le progrès technologique, il existe la tendance inverse, celle de craindre le pire avec tout nouvel outil ou toute nouvelle machine. Dans le Phèdre de Platon, Socrate déplore le développement de l’écriture. Il avait peur que, comme les gens se reposaient de plus en plus sur les mots écrits comme un substitut à la connaissance qu’ils transportaient d’habitude dans leur tête, ils allaient, selon un des intervenants d’un dialogue, « arrêter de faire travailler leur mémoire et devenir oublieux. » Et puisqu’ils seraient capables de « recevoir une grande quantité d’informations sans instruction appropriée », ils risquaient de « croire posséder une grande connaissance, alors qu’ils seraient en fait largement ignorants ». Ils seraient « remplis de l’orgueil de la sagesse au lieu de la sagesse réelle ». Socrate n’avait pas tort, les nouvelles technologies ont souvent les effets qu’il redoutait, mais il manquait de vision à long terme. Il ne pouvait pas prévoir les nombreux moyens que l’écriture et la lecture allaient fournir pour diffuser l’information, impulsant des idées fraîches et élargissant la connaissance humaine (voire la sagesse).

L’arrivée de l’imprimerie de Gutenberg, au XVème siècle, déclencha une autre série de grincements de dents. L’humaniste italien Hieronimo Squarciafico s’inquiétait que la facilité à obtenir des livres conduise à la paresse intellectuelle, rende les hommes « moins studieux » et affaiblisse leur esprit. D’autres avançaient que des livres et journaux imprimés à moindre coût allaient saper l’autorité religieuse, rabaisser le travail des érudits et des scribes, et propager la sédition et la débauche. Comme le professeur de l’université de New York, Clay Shirky, le remarque, « la plupart des arguments contre l’imprimerie était corrects et même visionnaires. » Mais, encore une fois, les prophètes de l’apocalypse ne pouvaient imaginer la myriade de bienfaits que le texte imprimé allait amener.

Alors certes, vous pouvez vous montrer sceptique vis-à-vis de mon scepticisme. Ceux qui considèrent les détracteurs d’Internet comme des béotiens technophobes ou passéistes auront peut-être raison, et peut-être que de nos esprits hyperactifs, gavés de données surgira un âge d’or de la découverte intellectuelle et de la sagesse universelle. Là encore, le Net n’est pas l’alphabet, et même s’il remplacera peut-être l’imprimerie, il produira quelque chose de complètement différent. Le type de lecture profonde qu’une suite de pages imprimées stimule est précieux, non seulement pour la connaissance que nous obtenons des mots de l’auteur, mais aussi pour les vibrations intellectuelles que ces mots déclenchent dans nos esprits. Dans les espaces de calme ouverts par la lecture soutenue et sans distraction d’un livre, ou d’ailleurs par n’importe quel autre acte de contemplation, nous faisons nos propres associations, construisons nos propres inférences et analogies, nourrissons nos propres idées. La lecture profonde, comme le défend Maryanne Wolf, est indissociable de la pensée profonde.

Si nous perdons ces endroits calmes ou si nous les remplissons avec du « contenu », nous allons sacrifier quelque chose d’important non seulement pour nous même, mais également pour notre culture. Dans un essai récent, l’auteur dramatique Richard Foreman décrit de façon éloquente ce qui est en jeu :

Je suis issu d’une tradition culturelle occidentale, pour laquelle l’idéal (mon idéal) était la structure complexe, dense et « bâtie telle une cathédrale » de la personnalité hautement éduquée et logique, un homme ou une femme qui transporte en soi-même une version unique et construite personnellement de l’héritage tout entier de l’occident. Mais maintenant je vois en nous tous (y compris en moi-même) le remplacement de cette densité interne complexe par une nouvelle sorte d’auto-évolution sous la pression de la surcharge d’information et la technologie de « l’instantanément disponible ».

À mesure que nous nous vidons de notre « répertoire interne issu de notre héritage dense », conclut Foreman, nous risquons de nous transformer en « crêpe humaine », étalée comme un pâte large et fine à mesure que nous nous connectons à ce vaste réseau d’information accessible en pressant simplement sur une touche.”

Cette scène de 2001 : l’odyssée de l’espace me hante. Ce qui la rend si poignante, et si bizarre, c’est la réponse pleine d’émotion de l’ordinateur lors du démontage de son esprit : son désespoir à mesure que ses circuits s’éteignent les uns après les autres, sa supplication enfantine face à l’astronaute, “Je le sens, je le sens. J’ai peur.”, ainsi que sa transformation et son retour final à ce que nous pourrions appeler un état d’innocence. L’épanchement des sentiments de HAL contraste avec l’absence d’émotion qui caractérise les personnages humains dans le film, lesquels s’occupent de leur boulot avec une efficacité robotique. Leurs pensées et leurs actions semblent scénarisées, comme s’ils suivaient les étapes d’un algorithme. Dans le monde de 2001, les hommes sont devenus si semblables aux machines que le personnage le plus humain se trouve être une machine. C’est l’essence de la sombre prophétie de Kubrick : à mesure que nous nous servons des ordinateurs comme intermédiaires de notre compréhension du monde, c’est notre propre intelligence qui devient semblable à l’intelligence artificielle.

Notes

[1] Crédit photo : Striatic (Creative Commons By)




Et si cela ne servait plus à rien de mémoriser et d’apprendre par coeur ?

Jesse Gardner - CC by-saIl arrive que Framalang s’aventure parfois parfois en dehors des sentiers battus du logiciel libre, en particulier lorsqu’il s’agit d’éducation (comme ce fut par exemple le cas pour notre traduction tentant de comprendre le fameux système finlandais).

Aujourd’hui nous mettons un peu les pieds dans le plat en interrogeant la pertinence d’un des socles de l’éducation du millénaire précédent, à savoir la mémorisation et le « par cœur ». Est-ce que le numérique, et son accès immédiat à des informations telles que celles de Wikipédia (via nos appareils nomades connectés en permanence), change la donne ? Telle est la question.

Une question qui rejoint le débat sur la capacité de concentration déclinante des élèves de la nouvelle génération[1] alors que s’élèvent leurs capacités de sélection et de prise de décision rapide dans un univers saturé d’informations[2].

Éducation 2.0 : la fin du par cœur ?

Education 2.0: Never Memorize Again?

Sarah Perez – 2 décembre 2008 – ReadWriteWeb
(Traduction Framalang : Don Rico, Penguin et Olivier)

Apprendre par cœur est une perte de temps lorsqu’on n’est qu’à quelques clics de Google. Telle est la conviction de Don Tapscott, auteur de Wikinomics et Growing Up Digital, deux livres à grand succès. Tapscott, que beaucoup considèrent comme un commentateur influent de notre ère de l’Internet, pense que le temps de l’apprentissage par la mémorisation des faits et des chiffres touche à sa fin. Il estime que l’on devrait plutôt enseigner aux écoliers et aux étudiants à fournir une réflexion créative et à mieux comprendre les connaissances disponibles en ligne.

Apprendre par cœur ? Une perte de temps

D’après Tapscott, l’existence des Google, Wikipédia et autres bibliothèques en ligne induit que l’apprentissage par cœur n’est plus un élément nécessaire de l’éducation. « Le puits de science, ce n’est plus l’enseignant, c’est Internet », a déclaré Tapscott dans un entretien donné au Times. « Les enfants doivent certes apprendre l’histoire pour comprendre le monde et savoir pourquoi les choses sont comme elles sont. En revanche, inutile de connaître toutes les dates sur le bout des doigts. Il leur suffira de savoir ce qu’a été la bataille d’Hastings sans forcément devoir retenir qu’elle a eu lieu en en 1066[3]. Ça, ils peuvent le chercher et le situer sur l’échelle de l’Histoire en un clic sur Google, » a-t-il expliqué.

Il estime que cette méthode d’apprentissage n’a rien d’anti-pédagogique, puisque les renseignements que nous devons tous digérer nous parviennent à une cadence étourdissante. « Les enfants vont devoir réinventer leurs bases de connaissances de nombreuses fois, » poursuit-il. « Pour eux, mémoriser des faits et des chiffres est donc une perte de temps. »

Aux yeux des générations précédentes, qui ont grandi en devant apprendre par cœur dates historiques et formules mathématiques, l’idée que la mémorisation ne fasse pas partie de l’expérience de l’apprentissage est assez choquante. Allons, il est indispensable de savoir exactement en quelle année un évènement s’est produit… n’est-ce pas ? À moins qu’il soit plus utile de n’en avoir qu’une idée approximative de façon à se concentrer davantage sur une meilleure compréhension de son contexte et de son sens ?

Un cerveau câblé

Les écoliers d’aujourd’hui grandissent dans un monde où, par leur capacité à faire plusieurs choses en même temps, ils sont totalement plongés dans l’univers numérique. Ils envoient des textos et surfent sur Internet tout en écoutant de la musique et en mettant à jour leur page Facebook. Cette « attention partielle permanente » et ses effets sur notre cerveau est un sujet qui fait actuellement largement débat dans les milieux pédagogiques. Sommes-nous en train de perdre notre capacité de concentration ou notre cerveau s’adapte-il à un afflux continu de stimuli ?

Un nouvel ouvrage traitant de ce sujet, « iBrain: Surviving the Technological Alteration of the Modern Mind, »[4] émet l’hypothèse que cette exposition au Web a des conséquences sur la façon dont le cerveau forge les chemins neuronaux. Câbler ainsi notre cerveau accroît notre capacité à trier les informations, à prendre des décisions rapides et à séparer le bon grain de l’ivraie numérique, mais en revanche, nous perdons de notre aptitude à nous concentrer de façon soutenue, à déchiffrer le langage corporel et à nous faire des amis dans le monde réel.

Si notre cerveau est réellement en train de modifier son câblage, la logique ne voudrait-elle pas que nous adaptions aussi notre façon d’enseigner aux élèves ? À vrai dire, ceux qui le pensent ne sont pas légion. La plupart des pédagogues, tel Richard Cairns, proviseur du Brighton College, un des meilleurs établissements privés d’Angleterre, estiment que posséder des bases de connaissances solides est essentiel. « Il est important que les enfants apprennent les faits. Si l’on ne peut puiser dans aucune réserve de connaissances, difficile de participer à un débat ou de prendre une décision éclairée, » affirme-t-il.

Et vous, qu’en pensez-vous ?

Notes

[1] On pourra lire à ce sujet les deux ouvrages de Bernard Stiegler : Prendre soin, de la jeunesse et des générations et La Télécratie contre la démocratie.

[2] Crédit photo : Jesse Gardner (Creative Commons By-Sa)

[3] La bataille d’Hastings est une date très importante dans l’histoire de l’Angleterre, puisque c’est celle du début de l’invasion de l’île par Guillaume le Conquérant. Un équivalent français pourrait être la prise de la Bastille.

[4] « iCerveau : survivre à l’altération de l’esprit moderne par la technologie. »