Un autre monde musical est possible nous dit Trent Reznor

On peut voir le document que nous vous présentons aujourd’hui comme la majeure contribution du Framablog au débat actuel sur le trop fameux projet de loi « Création et Internet », qui porte si mal son nom. Nous sommes en effet fiers de vous proposer la traduction (sous-titrage et transcription écrite ci-dessous) d’une conférence qui apporte comme un grand bol d’oxygène à la période tendue et crispée que nous sommes en train de traverser.

Oui, avec du talent et de l’imagination, on peut (économiquement) réussir dans la musique en dehors des circuits traditionnels (comprendre avant tout les Majors du disque) en utilisant à plein les extraordinaires potentialités d’Internet pour se mettre directement en relation avec son public.

C’est ce que démontre le parcours de l’artiste Trent Reznor, chanteur des Nine Inch Nails, brillamment analysé ici par Mike Masnick, dont le blog décrypte les tendances des nouveaux médias sociaux.

Cette conférence d’une quinzaine de minutes a été donnée en janvier dernier au MIDEM 2009 de Cannes. L’étrange équation énoncée, « CwF + RtB = $$$ », tient de la formule magique mais elle est pourtant simple à comprendre pourvu qu’on accepte la nouvelle donne et surtout les nouvelles règles du jeu.

N’ayez pas peur, disait l’autre. Nous ne sommes plus ici dans le monde des « pirates » à éradiquer mais dans celui, passionnant, de ceux qui ouvrent la voie d’un nouveau paradigme…

—> La vidéo au format webm

Trent Reznor et l’équation pour de futurs modèles économiques de la musique

Trent Reznor And The Formula For Future Music Business Models

Mike Masnick – 17 janvier 2008 – TechDirt
(Traduction Framalang : Don Rico, Joan, Yostral)

Je suis Mike Masnick, mon entreprise s’appelle Floor64. Voici notre site web : nous avons diverses activités, travaillons avec différentes entreprises, les aidons à comprendre les tendances des nouveaux médias sociaux et à établir un lien avec les communautés auxquelles elles s’adressent.

On me connaît surtout, quand on me connaît, pour TechDirt, le blog que nous publions sur Floor64. Voilà à quoi ça ressemble. Sur ce blog, j’aborde très souvent le sujet de l’industrie musicale et de l’industrie du disque, et j’ai notamment beaucoup écrit sur les initiatives de Trent Reznor et les modèles économiques qu’il applique et expérimente depuis quelque temps. Ces billets sont bien sûr à l’origine de cette intervention : « Pourquoi Trent Reznor et Nine Inch Nails représentent l’avenir de l’industrie musicale ».

Nous sommes un peu en retard car nous devions commencer à 11h45. Chez moi, en Californie, il est 2h45 du matin. Je souffre du décalage horaire, comme d’autres ici je pense, alors pour qu’on reste éveillés, je vais faire défiler que 280 diapos au cours de cette intervention, car je pense qu’en gardant un rythme soutenu on ne s’endormira pas trop vite. Mais pendant ces 280 diapos je vais quand même aborder quelques points importants sur les actions de Trent Reznor et expliquer pourquoi les modèles économiques qu’il expérimente représentent vraiment l’avenir de la musique.

Sans plus attendre, rentrons dans le vif du sujet.

Chapitre 1

Que ce soit volontaire ou pas, je n’en sais d’ailleurs rien, il semblerait que Trent Reznor ait découvert le secret d’un modèle économique efficace pour la musique. Ça commence par quelque chose de très simple : CwF, qui signifie « Créer un lien avec les fans ». Ajoutez-y une pincée de RtB : « Une Raison d’acheter ». Associez les deux, et vous obtenez un modèle économique. Ça parait très simple, et beaucoup pensent que ça n’a rien de sorcier. Mais le plus stupéfiant, c’est la difficulté qu’ont d’autres à combiner ces deux ingrédients afin de gagner de l’argent, alors que Trent Reznor, lui, s’en est sorti à merveille, à de nombreuses reprises, et de nombreuses façons.

Tout a commencé quand il était encore signé chez une major. Il a appliqué ce modèle de façon très intéressante sur l’album Year Zero, en 2007. Avant la sortie de l’album, il a établi un lien avec ses fans en organisant une sorte de chasse au trésor, ou un jeu de réalité virtuelle. Voici le dos du t-shirt qu’il portait pendant la tournée de 2007. Certaines lettres des noms de ville sont en surbrillance : en les isolant puis en les remettant dans l’ordre, on obtient la phrase « I am trying to believe ». Certains ont été assez futés pour assembler la phrase et y ajouter un « point com ». Puis ils sont allés sur le site « Iamtryingtobelieve.com » et se sont retrouvés dans un jeu de réalité virtuelle, qui était assez marrant. Voici qui a apporté un gros plus à l’expérience générale pour les fans et permis d’établir avec eux un lien qui allait au-delà de la seule musique.

Du coup, les fans étaient plus impliqués, motivés et impatients. Il est allé plus loin encore : vous approuverez ou pas, tout dépend de l’endroit où vous êtes assis dans la salle. Ça a mis en rogne la maison de disque de Reznor, parce qu’il s’est amusé à mettre de nouveaux morceaux sur des clés USB qu’il abandonnait ensuite par-terre dans les toilettes à chaque concert qu’il donnait. Les fans trouvaient ces clés USB dans les différentes salles de concert, les ramenaient chez eux, les branchaient sur leur ordinateur et y trouvaient de nouveaux morceaux de Nine Inch Nails, et bien sûr ils les partageaient.

De cette façon, le groupe a impliqué les fans, les a motivés et les a mis dans tous leurs états. Les seuls à ne pas avoir été ravis, c’était la RIAA, qui a envoyé des messages d’avertissement pour de la musique que Trent Reznor lui-même distribuait gratis. Ça, ce n’est pas un moyen d’établir un lien avec les fans, mais plutôt de se les mettre à dos.

Trent Reznor continuait donc à donner aux gens des raisons d’acheter alors qu’il refilait lui-même sa musique. Quand l’album est sorti, le CD changeait de couleur. On le mettait dans le lecteur, et en chauffant la couleur du disque changeait. C’est gadget, mais c’était assez sympa et ça donnait aux fans une raison d’acheter le CD, parce qu’on ne peut pas reproduire ça avec un MP3.

C’était un exemple simple datant de l’époque où il était encore sous contrat avec une major, mais passons au…

Chapitre 2

Après cet album, il n’avait plus de maison de disque, et a préféré voler de ses propres ailes, s’aventurant alors sur les terres soi-disant dévastées de l’industrie musicale d’aujourd’hui. Pourtant ça ne lui a pas posé problème, car il savait qu’en créant un lien avec les fans et en leur donnant une raison d’acheter il pouvait créer un modèle économique efficace. Il a donc commencé par l’album Ghosts I-IV, et il a créé des liens avec ses fans en leur offrant plusieurs choix, au lieu d’essayer de leur imposer une façon unique d’interagir avec sa musique. On avait différentes options, et il leur a donné une raison d’acheter en proposant une offre améliorée.

Je vais rapidement énumérer ces options. À la base, il y avait un téléchargement gratuit. L’album comptait 36 morceaux. On pouvait télécharger gratuitement les 9 premiers, et les 36 étaient sous licence Creative Commons, donc il était possible de les partager légalement. Bref, quand on voulait les télécharger gratuitement sur le site de NIN, on n’avait que les neuf premiers. Pour 5 dollars, on recevait les 36 morceaux et un fichier PDF de 40 pages. 5$ pour 36 morceaux, c’est beaucoup moins cher que le modèle d’iTunes à 1$ par chanson. Pour 10$, vous receviez une boîte avec deux CDs et un livret de 16 pages. 10 $ pour une boîte de 2 Cds, c’est pas mal. Mais ça, beaucoup d’autres le font, tout le monde applique ce principe de musique offerte et de vente de CDs à prix raisonnable sur le site.

Ce qui est intéressant, c’est ce qu’il a proposé en plus. Là, on commence par un coffret édition deluxe à 75 dollars, qui contenait tout un tas de choses. C’était une sorte de coffret, mais centré sur ce seul album et qui contenait un dvd et un disque blu-ray, un beau livret, le tout fourni dans une boîte sympa. 75$, bonne affaire pour des fans qui veulent vraiment soutenir Reznor. Mais le plus intéressant, c’était le coffret ultra deluxe édition limitée à 300 $.

Comme on le voit sur ce site, tous ont été vendus. Il y a tout un tas de suppléments dans ce coffret. Voici à quoi ça ressemblait.

Là encore, on trouve le contenu du coffret de base, plus d’autres trucs. Mais ce qui est vraiment important, c’est qu’il n’a été tiré qu’à 2500 exemplaires, et que tous étaient dédicacés par Trent Reznor. Le tout coûtait 300$, mais c’était exceptionnel, unique, et ça ajoutait de la valeur à la musique. Les 2500 ont été vendus, ce qui n’a rien d’étonnant. Mais ce qui est impressionnant, c’est la vitesse à laquelle ils sont partis. Moins de 30 heures. Faites le calcul : ça donne 750 000 dollars en 30 heures pour de la musique qu’il donnait gratuitement.

Rien que la première semaine, si l’on inclut les autres offres, ils ont encaissé 1,6 million de dollars, là encore pour de la musique qu’ils distribuaient gratuitement, sans label, mais c’était vraiment une façon de créer un lien avec les fans, de leur donner une raison d’acheter, et de trouver un modèle économique efficace. Même si c’était gratuit et qu’on pouvait tout télécharger légalement une fois les morceaux mis en ligne sur des sites de Torrent ou de partage de fichiers, voici ce qu’a publié Amazon la semaine dernière : la liste de leurs meilleures ventes d’albums au téléchargement en 2008, où Ghosts I-IV arrive en tête.

Donc, voici un album gratuit qui en une seule semaine a rapporté 1,6 million de dollars, et qui a continué à bien se vendre sur Amazon tout le reste de l’année. On se rend bien compte qu’ici, la question ce n’est pas le prix. Le fait que l’album soit disponible gratuitement ne signifie pas la fin du modèle économique, il n’y a pas lieu de s’inquiéter. Tant que l’on crée un lien avec les fans et qu’on leur donne une raison d’acheter, il y a de l’argent à se faire.

Chapitre 3

Dans cette série d’expériences, deux mois seulement après Ghosts I-IV est sorti The Slip, et cette fois-ci c’était complètement gratuit, il suffisait de donner son adresse e-mail et on pouvait le télécharger en entier. Un lien de plus avec les fans. Les téléchargements étaient de qualité, on avait le choix entre des versions MP3 ou lossless. Pas du tout le principe « on vous file gratis la version merdique, passez à la caisse pour une meilleure version ». Encore une fois, il a essayé d’innover pour créer un lien plus fort avec les fans.

Voici les données de TopSpin, qui fournissait l’infrastructure pour les téléchargements, et qui a créé ces cartes sympas sur Google Earth pour qu’on voit d’où tous les autres téléchargeaient. Pas forcément utile, mais c’était chouette, et ça contribuait à construire la communauté, à créer un lien avec les fans. En parallèle, le jour de la sortie de The Slip, ils ont publié la liste des concerts pour la tournée 2008. On pouvait donc télécharger la musique, l’écouter, et aussitôt acheter des places.

Bien entendu, Reznor et NIN on toujours veillé à ce qu’il y ait une raison d’acheter des billets : ils ne donnent pas de simples concerts, mais offrent un spectacle complet. Ils jouaient devant un grand écran et amenaient plein d’idées afin d’en faire une expérience passionnante pour les fans, et les fans en redemandent. Ils sont emballés à l’idée d’aller à ces concerts, et pas seulement parce qu’ils vont voir Trent Reznor jouer. Bien sûr, Reznor n’en faisait pas profiter que NIN. Il y avait des premières parties sur la tournée, et il a enregistré un disque samplé, téléchargeable gratuitement lui aussi, avec des fichiers de bonne qualité de morceaux des différents groupes qui jouaient en première partie, permettant ainsi aux fans de créer un lien et leur donnant des raisons d’acheter des places de concerts pour aller voir ces groupes s’ils leur plaisaient.

Là encore, même si l’album était gratuit, il a donné d’autres raisons d’acheter en pressant l’album sur CD et vinyl, avec un tas de contenu supplémentaire dans une édition limitée et numérotée. On en revient au procédé de Ghosts I-IV, avec des tas de suppléments. J’insiste sur ce point parce que c’est vraiment important.

Chapitre 4

On n’a parlé que de sortie d’album, mais ces règles ne s’appliquent pas seulement quand on sort un album. Il faut créer un lien avec les fans tout le temps, sans discontinuer. Voici le site Web de Reznor, où il a mis en place des tas d’idées intéressantes, et je vais passer vite dessus parce qu’il y a beaucoup de choses, mais le lien se crée en permanence. Quand on se connecte, on voit les nouveautés, et puis on trouve les fonctions habituelles : de la musique à écouter, des outils communautaires comme les forums, les tchats. Mais il y a aussi des éléments moins évidents. Par exemple ce flux de photos, qui proviennent de Flickr. Ces photos ne sont pas toutes des clichés du groupe prises par des pros, mais ceux que les fans mettent sur Flickr sont regroupés sur le site. Ainsi on peut voir ce que les autres voyaient aux concerts où vous êtes allés, ou à ceux que vous avez manqué.

Il offre aussi des fonds d’écran que l’on peut télécharger, sous licence Creative Commons. On peut les retoucher, et d’ailleurs vous remarquerez que les images d’illustration que j’utilise sont justement tirées de ces fonds d’écran, légèrement modifiés pour que ça rentre sur les diapos. Dans le même esprit que les photos Flickr, il y a les vidéos. En gros, les fans filment des vidéos avec leur téléphone mobile, les mettent en ligne sur YouTube, et elles sont toutes regroupées sur le site. Pas de problème de procès, pas d’avertissements, pas de réclamations de la part de YouTube, les vidéos servent juste à créer du lien avec les fans, à leur donner une raison d’acheter.

Sur le site, on peut aussi télécharger des fichiers bruts, et NIN encourage les fans à les remixer, à les écouter, à les noter, à les échanger, ce qui implique vraiment les fans.

Autres idées amusantes : des concours, par exemple des tickets cachés qu’il faut trouver sur le site, des coordonnées indiquant l’emplacement de places gratuites pour un concert que NIN donnait dans un tunnel d’égout à Los Angeles. Il a mis sur son site une enquête de 10 pages à remplir, ce qui a permis d’élaborer un profil complet de ses fans. Mais le plus intéressant, c’est le courriel qu’il a envoyé, assez long comme vous le voyez, qui a montré que Reznor est proche de ses fans, ce qui hélas est rare dans l’industrie musicale.

À suivre

Passons au dernier chapitre. Je l’intitule « À suivre » plutôt que « Dernier chapitre », parce que c’est loin d’être fini. Reznor continue en permanence à expérimenter de nouvelles idées. Pas plus tard que la semaine dernière, j’ai dû compléter cette intervention, en espérant qu’il allait calmer le rythme de ses expérimentations, parce que ça commençait à être dur de maintenir cette présentation à jour. Il a publié un billet sur son blog expliquant sur le ton de la plaisanterie avoir été contacté par un mystérieux groupe d’agitateurs qui avaient filmé trois concerts et mis en ligne les rushes, des rushes en haute définition. Il y en a pour 450 gigas de rushes. La plupart des disques durs n’ont pas une telle capacité, et ça m’étonnerait que beaucoup d’entre vous ici aient 450 Go sur votre portable. Et puis il y a les fournisseurs comme ComCast qui limitent la bande passante à 250 Go par mois, voire TimeWarner qui descend encore plus bas, à 5 Go par mois. Et voilà Reznor qui refile 450 Go de vidéo HD et déclare : « Je suis sûr que des fans entreprenants vont nous mitonner un truc sympa ». Ça c’est vraiment un super moyen de créer le lien avec les fans, de leur donner une raison d’acheter, et c’est ce qui donne le modèle économique.

On peut voir ça sous un autre angle : au lieu de signifier Connect with Fans, CtW pourrait être l’acronyme de Compete With Free (NdT : le Gratuit Compétitif) et Rtb, au lieu de Reason to Buy, peut être l’abréviation de Retour au Business. Au lieu de se plaindre sans cesse du piratage et de diaboliser les nouvelles technologies, il vaut mieux s’efforcer de trouver un modèle économique qui fonctionne.

Ce qu’il faut retenir, c’est que ça fonctionne pour de bon, sans qu’il y ait besoin de recourir aux licences collectives, aux DRM ou aux procès. Techniquement parlant, et c’est ce qui agace certains, il n’y a pas besoin de recourir aux droits d’auteur pour que ça marche: il suffit de créer le lien avec les fans et de leur donner une raison d’acheter.

Ce qu’il faut retenir aussi, c’est que ça vaut pour tous les musiciens, connus ou moins connus. Je me suis concentré sur Reznor, parce que c’est le sujet de mon intervention, mais des tas de petits groupes appliquent ce même modèle. En gros, Reznor ne fait qu’ouvrir la voie pour des tas d’autres et permettre que ça fonctionne. Quant aux autres, ils ne plagient pas, ils ne se contentent pas de copier les idées de Reznor. Ils partent de la recette de départ pour l’adapter à leur façon, et ça fonctionne aussi pour eux sans qu’ils aient à se soucier des licences, des DRM ou des procès. Pas de problème de copyright. Ils ne leur reste qu’à se concentrer sur l’avenir, sur la musique, et à inventer les modèles économiques qui fonctionnent de nos jours.

Voilà, j’ai expliqué dans cette intervention pourquoi Trent Reznor et NIN représentent l’avenir de l’industrie musicale. Si vous souhaitez me contacter, voici mes deux adresses e-mail.

Merci.




L’esquisse d’un monde inspiré par le logiciel libre est-il en train de voir le jour ?

Seeks2dream - CC by-saQuand « l’Open Source » quitte les rives de l’immatériel pour s’aventurer dans le matériel, cela intrigue Victor Keegan, journaliste au très respectable The Guardian, qui liste alors quelques exemples significatifs dessinant les contours d’un modèle émergent digne d’intérêt.

Nous ne le contredirons pas. Vous pouvez compter sur cet « observatoire de la culture libre en mouvement » qu’est devenu le Framablog pour vous tenir au courant de ces tentatives et incursions du « Libre » dans le monde physique, comme nous l’avions fait il y a peu avec cet étonnant projet de machine répliquante[1].

Pouvons-nous construire un monde avec l’Open Source ?

Can we build a world with open source

Victor Keegan – 5 mars 2009 – The Guardian
(Traduction Framalang : Claude et Goofy)

Vinay Gupta est un ingénieur écossais d’origine indienne qui conçoit des maisons à bas coût pour des régions pauvres ou des zones sinistrées, il met ensuite les habitations à disposition gratuitement sur le net afin que d’autres puissent les construire. Son fleuron est le système d’abri Hexayurt qui coûte environ 200 dollars (155 euros).

Il emploie des matériaux de construction communs, y compris des panneaux isolants, qui représentent selon lui un tiers du coût d’une tente. La stratégie commerciale consiste à réduire le prix des biens et des services de base à un niveau tel que les pauvres puissent en disposer. Gupta n’est qu’un exemple d’un mouvement mondial qui fait contrepoint à la révoltante rapacité des banques telle que la racontent jusqu’à saturation les médias internationaux.

On nous dit souvent que les meilleures choses dans la vie sont libres, mais peu ont essayé de le traduire par un modèle économique. Alors que le capitalisme financier est en fusion, il est curieux de constater qu’une activité entrepreneuriale complètement différente (appelons cela « commun-isme ») est, bien que minoritaire, en plein essor,

Cela consiste à agir pour le bien commun, pour rien : soit par motivation altruiste, soit parce que l’on escompte une compensation en utilisant les efforts volontaires des autres. Jusque récemment, ce genre d’activité (au nom générique « d’Open Source ») est restée confinée au logiciel via des projets communautaires fantastiques tels que Wikipédia, le navigateur Firefox (qui possède maintenant 21.5% du marché mondial) ou le système d’exploitation Linux.

Étonnamment, de tels produits n’apparaissent pas dans les chiffres du produit intérieur brut (PIB) : du moins, tant qu’ils ne sont pas utilisés dans un objet commercialisable, comme un ordinateur à bas prix sous Linux. C’est une richesse non enregistrée et, si le mouvement se développe, nous devrons reconsidérer notre façon de mesurer la richesse des nations.

L’Open Source a été mis en lumière la semaine dernière quand le gouvernement britannique a abandonné son inavouable négligence précédente afin de donner son approbation pour que les services publics utilisent des logiciels Open Source plutôt que propriétaires lorsqu’ils offrent un meilleur rendement financier. Reste à voir si c’est juste un brassage d’air pour couper le vent aux voiles des conservateurs (lesquels ont pris un avantage en déclarant que £600m, 650 millions d’euros, pourraient être épargnés en utilisant l’Open Source dans les projets publics), quoiqu’il en soit, c’est un pas dans la bonne direction.

L’Open Source est en mouvement et la chose intéressante est que cela se propage au matériel. La récession mondiale, coïncidant avec une expansion sans précédent des réseaux sociaux, devrait lui donner un grand élan et transformer le nouveau modèle en force globale.

Si vous avez envie d’un téléphone portable Open Source, essayez Openmoko.com. Vous voulez faire partie d’un projet Open Source construisant un modèle différent de voiture ? Regardez theoscarproject.org. Parmi d’autres initiatives intéressantes figurent openfarmtech.org où se développe une écologie Open Source par la construction d’éco-villages ou akvo.org qui se spécialise dans l’hygiène.

Le magazine Wired a récemment fait un reportage sur les progrès d’Arduino, la société italienne qui fabrique avec succès une carte mère Open Source. Il y a même un projet embryonnaire de maison Open Source sur le site de photos Flickr.

Le matériel Open Source n’a pas la même caractéristique que le logiciel parce que le produit final, contrairement aux créations numériques, ne peut être dupliqué sans coût supplémentaire. Il a un potentiel différent et il peut utiliser les réseaux pour libérer, dans le monde entier, les énergies créatrices d’employés insatisfaits ou de sans-emploi, afin de fabriquer des produits réellement voulus par la population et correspondant aux réalités locales, y compris la disponibilité des composants.

C’est un paradigme qui convient parfaitement à notre ère de réseaux, où la fabrication réelle des marchandises est externalisée. Si les gouvernements du monde s’inquiètent de l’origine des nouveaux produits et emplois quand finira enfin la récession, alors ils feraient mieux d’encourager la fabrication de biens par la population pour la population.

Notes

[1] Crédit photo : Seeks2dream (Creative Commons By-Sa)




Un autre monde est possible selon André Gorz (et le logiciel libre)

Imago - CC by-nc-saAvant de se donner la mort en septembre 2007, le philosophe et journaliste André Gorz a transmis un dernier texte à la revue EcoRev’, qu’il avait parrainée lors de sa création, intitulé « La sortie du capitalisme a déjà commencé ».

Nous le reproduisons ici pour alimenter le débat, en rappelant que le sous-titre de ce blog stipule que « ce serait l’une des plus grandes opportunités manquées de notre époque si le logiciel libre ne libérait rien d’autre que du code ». Ce texte ayant fait l’objet d’une version remaniée, nous avons choisi de mettre en ligne l’un après l’autre les deux articles, qui bien que très proches, offrent tout de même d’intéressantes nuances.

Extrait de la version remaniée :

Ce qui importe pour le moment, c’est que la principale force productive et la principale source de rentes tombent progressivement dans le domaine public et tendent vers la gratuité ; que la propriété privée des moyens de production et donc le monopole de l’offre deviennent progressivement impossibles ; que par conséquent l’emprise du capital sur la consommation se relâche et que celle-ci peut tendre à s’émanciper de l’offre marchande. Il s’agit là d’une rupture qui mine le capitalisme à sa base. La lutte engagée entre les logiciels propriétaires et les logiciels libres (libre, free, est aussi l’équivalent anglais de gratuit) a été le coup d’envoi du conflit central de l’époque. Il s’étend et se prolonge dans la lutte contre la marchandisation de richesses premières – la terre, les semences, le génome, les biens culturels, les savoirs et compétences communs, constitutifs de la culture du quotidien et qui sont les préalables de l’existence d’une société. De la tournure que prendra cette lutte dépend la forme civilisée ou barbare que prendra la sortie du capitalisme.

Cette sortie implique nécessairement que nous nous émanciperons de l’emprise qu’exerce le capital sur la consommation et de son monopole des moyens de production. Elle signifie l’unité rétablie du sujet de la production et du sujet de la consommation et donc l’autonomie retrouvée dans la définition de nos besoins et de leur mode de satisfaction. L’obstacle insurmontable que le capitalisme avait dressé sur cette voie était la nature même des moyens de production qu’il avait mis en place : ils constituait une mégamachine dont tous étaient les serviteurs et qui nous dictait les fins à poursuivre et la vie a mener. Cette période tire à sa fin. Les moyens d’autoproduction high-tech rendent la mégamachine industrielle virtuellement obsolète. Claudio Prado invoque l’appropriation des technologies parce que la clé commune de toutes, l’informatique, est appropriable par tous. Parce que, comme le demandait Ivan Illich, chacun peut l’utiliser sans difficulté aussi souvent ou aussi rarement qu’il le désire… sans que l’usage qu’il en fait empiète sur le liberté d’autrui d’en faire autant ; et parce que cet usage (il s’agit de la définition illichienne des outils conviviaux) stimule l’accomplissement personnel et élargit l’autonomie de tous. La définition que Pekka Himanen donne de l’Ethique Hacker est très voisine : un mode de vie qui met au premier rang les joies de l’amitié, de l’amour, de la libre coopération et de la créativité personnelle.

Extrait de la version originale :

Pourtant une tout autre voie de sortie s’ébauche. Elle mène à l’extinction du marché et du salariat par l’essor de l’autoproduction, de la mise en commun et de la gratuité. On trouve les explorateurs et éclaireurs de cette voie dans le mouvement des logiciels libres, du réseau libre, de la culture libre qui, avec la licence CC (creative commons) rend libre (et libre : free signifie, en anglais, à la fois librement accessible et utilisable par tous, et gratuit) de l’ensemble des biens culturels – connaissances, logiciels, textes, musique, films etc. – reproductibles en un nombre illimité de copies pour un coût négligeable. Le pas suivant serait logiquement la production « libre » de toute le vie sociale, en commençant par soustraire au capitalisme certaines branches de produits susceptibles d’être autoproduits localement par des coopératives communales.

Ce genre de soustraction à la sphère marchande s’étend pour les biens culturels où elle a été baptisée « out-cooperating », un exemple classique étant Wikipedia qui est en train d’« out-cooperate » l’Encyclopedia Britannica. L’extension de ce modèle aux biens matériels est rendue de plus en plus faisable grâce à le baisse du coût des moyens de production et à la diffusion des savoirs techniques requis pour leur utilisation. La diffusion des compétences informatiques, qui font partie de la « culture du quotidien » sans avoir à être enseignés, est un exemple parmi d’autres. L’invention fabbers, aussi appelés digital fabicators ou factories in a box – il s’agit d’une sorte d’ateliers flexibles transportables et installables n’importe où – ouvre à l’autoproduction locale des possibilités pratiquement illimitées.

Un texte qui pour certains a valeur de référence et que nous souhaitions vous faire partager.

Non seulement André Gorz[1] y annonce par anticipation la crise que nous vivons actuellement (et peut-être aussi les logiques sous-jacentes à la loi Hadopi) mais il nous propose également quelques pistes pour en sortir. Que le logiciel libre soit aujourd’hui un exemple, un espoir et une source d’inspiration aux solutions envisagées n’est en rien étonnant tant nous sommes allés loin dans la privatisation des biens communs et la déshumanisation du monde…

La sortie du capitalisme a déjà commencé (version 2)

URL d’origine du document

André Gorz – 17 septembre 2007 – EcoRev

EcoRev’ précise : Ce texte qu’André Gorz a terminé d’écrire le 17/09/2007 est une version revue et approfondie de celui écrit pour le manifeste d’Utopia (voir ci-dessous). Rebaptisé pour notre dossier Le travail dans la sortie du capitalisme il a depuis été publié dans son livre posthume Écologica sous le titre La sortie du capitalisme a déjà commencé.

La question de la sortie du capitalisme n’a jamais été plus actuelle. Elle se pose en des termes et avec une urgence d’une radicale nouveauté. Par son développement même, le capitalisme a atteint une limite tant interne qu’externe qu’il est incapable de dépasser et qui en fait un système qui survit par des subterfuges à la crise de ses catégories fondamentales : le travail, la valeur, le capital.

La crise du système se manifeste au niveau macro-économique aussi bien qu’au niveau micro-économique. Elle s’explique principalement par un bouleversement technoscientifique qui introduit une rupture dans le développement du capitalisme et ruine, par ses répercussions la base de son pouvoir et sa capacité de se reproduire. J’essaierai d’analyser cette crise d’abord sous l’angle macro-économique, ensuite dans ses effets sur le fonctionnement et la gestion des entreprises.

L’informatisation et la robotisation ont permis de produire des quantités croissantes de marchandises avec des quantités décroissantes de travail. Le coût du travail par unité de produit ne cesse de diminuer et le prix des produits tend à baisser. Or plus la quantité de travail pour une production donnée diminue, plus le valeur produite par travailleur – sa productivité – doit augmenter pour que la masse de profit réalisable ne diminue pas. On a donc cet apparent paradoxe que plus la productivité augmente, plus il faut qu’elle augmente encore pour éviter que le volume de profit ne diminue. La course à la productivité tend ainsi à s’accélérer, les effectifs employés à être réduits, la pression sur les personnels à se durcir, le niveau et la masse des salaires à diminuer. Le système évolue vers une limite interne où la production et l’investissement dans la production cessent d’être assez rentables.

Les chiffres attestent que cette limite est atteinte. L’accumulation productive du capital productif ne cesse de régresser. Aux États-Unis, les 500 firmes de l’indice Standard & Poor’s disposent de 631 milliards de réserves liquides ; la moitié des bénéfices des entreprises américaines provient d’opérations sur les marchés financiers. En France, l’investissement productif des entreprises du CAC 40 n’augmente pas même quand leurs bénéfices explosent.

La production n’étant plus capable de valoriser l’ensemble des capitaux accumulés, une partie croissante de ceux-ci conserve la forme de capital financier. Une industrie financière se constitue qui ne cesse d’affiner l’art de faire de l’argent en n’achetant et ne vendant rien d’autre que diverses formes d’argent. L’argent lui-même est la seule marchandise que l’industrie financière produit par des opérations de plus en plus hasardeuses et de moins en moins maîtrisables sur les marchés financiers. La masse de capital que l’industrie financière draine et gère dépasse de loin la masse de capital que valorise l’économie réelle (le total des actifs financiers représente 160 000 milliards de dollars, soit trois à quatre fois le PIB mondial). La « valeur » de ce capital est purement fictive : elle repose en grande partie sur l’endettement et le « good will », c’est-à-dire sur des anticipations : la Bourse capitalise la croissance future, les profits futurs des entreprises, la hausse future des prix de l’immobilier, les gains que pourront dégager les restructurations, fusions, concentrations, etc. Les cours de Bourse se gonflent de capitaux et de leurs plus-values futurs et les ménages se trouvent incités par les banques à acheter (entre autres) des actions et des certificats d’investissement immobilier, à accélérer ainsi la hausse des cours, à emprunter à leur banque des sommes croissantes à mesure qu’augmente leur capital fictif boursier.

La capitalisation des anticipations de profit et de croissance entretien l’endettement croissant, alimente l’économie en liquidités dues au recyclage bancaire de plus-value fictives, et permet aux États-Unis une « croissance économique » qui, fondée sur l’endettement intérieur et extérieur, est de loin le moteur principal de la croissance mondiale (y compris de la croissance chinoise). L’économie réelle devient un appendice des bulles spéculatives entretenues par l’industrie financière. Jusqu’au moment, inévitable, où les bulles éclatent, entraînent les banques dans des faillites en chaîne, menaçant le système mondial de crédit d’effondrement, l’économie réelle d’une dépression sévère et prolongée (la dépression japonaise dure depuis bientôt quinze ans).

On a beau accuser le spéculation, les paradis fiscaux, l’opacité et le manque de contrôle de l’industrie financière (en particulier des hedge funds), la menace de dépression, voire d’effondrement qui pèse sur l’économie mondiale n’est pas due au manque de contrôle ; elle est due à l’incapacité du capitalisme de se reproduire. Il ne se perpétue et ne fonctionne que sur des bases fictives de plus en plus précaires. Prétendre redistribuer par voie d’imposition les plus-values fictives des bulles précipiterait cela même que l’industrie financière cherche à éviter : la dévalorisation de masses gigantesque d’actifs financiers et la faillite du système bancaire. La « restructuration écologique » ne peut qu’aggraver la crise du système. Il est impossible d’éviter une catastrophe climatique sans rompre radicalement avec les méthodes et la logique économique qui y mènent depuis 150 ans. Si on prolonge la tendance actuelle, le PIB mondial sera multiplié par un facteur 3 ou 4 d’ici à l’an 2050. Or selon le rapport du Conseil sur le climat de l’ONU, les émissions de CO2 devront diminuer de 85% jusqu’à cette date pour limiter le réchauffement climatique à 2°C au maximum. Au-delà de 2°, les conséquences seront irréversibles et non maîtrisables.

La décroissance est donc un impératif de survie. Mais elle suppose une autre économie, un autre style de vie, une autre civilisation, d’autres rapports sociaux. En leur absence, l’effondrement ne pourrait être évité qu’à force de restrictions, rationnements, allocations autoritaires de ressources caractéristiques d’une économie de guerre. La sortie du capitalisme aura donc lieu d’une façon ou d’une autre, civilisée ou barbare. La question porte seulement sur la forme que cette sortie prendra et sur la cadence à laquelle elle va s’opérer.

La forme barbare nous est déjà familière. Elle prévaut dans plusieurs régions d’Afrique, dominées par des chefs de guerre, par le pillage des ruines de la modernité, les massacres et trafics d’êtres humains, sur fond de famine. Les trois Mad Max étaient des récits d’anticipation.

Une forme civilisée de la sortie du capitalisme, en revanche, n’est que très rarement envisagée. L’évocation de la catastrophe climatique qui menace conduit généralement à envisager un nécessaire « changement de mentalité », mais la nature de ce changement, ses conditions de possibilité, les obstacles à écarter semblent défier l’imagination. Envisager une autre économie, d’autres rapports sociaux, d’autres modes et moyens de production et modes de vie passe pour « irréaliste », comme si la société de la marchandise, du salariat et de l’argent était indépassable. En réalité une foule d’indices convergents suggèrent que ce dépassement est déjà amorcé et que les chances d’une sortie civilisée du capitalisme dépendent avant tout de notre capacité à distinguer les tendances et les pratiques qui en annoncent la possibilité.

Le capitalisme doit son expansion et sa domination au pouvoir qu’il a pris en l’espace d’un siècle sur la production et la consommation à la fois. En dépossédant d’abord les ouvriers de leurs moyens de travail et de leurs produits, il s’est assuré progressivement le monopole des moyens de production et la possibilité de subsumer le travail. En spécialisant, divisant et mécanisant le travail dans de grandes installations, il a fait des travailleurs les appendices des mégamachines du capital. Toute appropriation des moyens de production par les producteurs en devenait impossible. En éliminant le pouvoir de ceux-ci sur la nature et la destination des produits, il a assuré au capital le quasi-monopole de l’offre, donc le pouvoir de privilégier dans tous les domaines les productions et les consommations les plus rentables, ainsi que le pouvoir de façonner les goûts et désirs des consommateurs, la manière dont ils allaient satisfaire leurs besoins. C’est ce pouvoir que la révolution informationnelle commence de fissurer.

Dans un premier temps, l’informatisation a eu pour but de réduire les coûts de production. Pour éviter que cette réduction des coûts entraîne une baisse correspondante du prix des marchandises, il fallait, dans toute la mesure du possible, soustraire celles-ci aux lois du marché. Cette soustraction consiste à conférer aux marchandises des qualités incomparables grâce auxquelles elles paraissent sans équivalent et cessent par conséquent d’apparaître comme de simples marchandises.

La valeur commerciale (le prix) des produits devait donc dépendre davantage de leurs qualités immatérielles non mesurables que de leur utilité (valeur d’usage) substantielle. Ces qualités immatérielles – le style, la nouveauté le prestige de la marque, le rareté ou « exclusivité » – devaient conférer aux produits un statut comparable à celui des oeuvres d’art : celles-ci ont une valeur intrinsèque, il n’existe aucun étalon permettant d’établir entre elles un rapport d’équivalence ou « juste prix ». Ce ne sont donc pas de vraies marchandises. Leur prix dépend de leur rareté, de la réputation du créateur, du désir de l’acheteur éventuel. Les qualités immatérielles incomparables procurent à la firme productrice l’équivalent d’un monopole et la possibilité de s’assurer une rente de nouveauté, de rareté, d’exclusivité. Cette rente masque, compense et souvent surcompense la diminution de la valeur au sens économique que la baisse des coûts de production entraîne pour les produits en tant que marchandises par essence échangeable entre elles selon leur rapport d’équivalence.

Du point de vue économique, l’innovation ne crée donc pas de valeur ; elle est le moyen de créer de la rareté source de rente et d’obtenir un surprix au détriment des produits concurrents. La part de la rente dans le prix d’une marchandise peut être dix, vingt ou cinquante fois plus grand que son coût de revient, et cela ne vaut pas seulement pour les articles de luxe ; cela vaut aussi bien pour des articles d’usage courant comme les baskets, T-shirts, portables, disques, jeans etc.
Or la rente n’est pas de même nature que le profit : elle ne correspond pas à la création d’un surcroît de valeur, d’une plus-value. Elle redistribue la masse totale de le valeur au profit des entreprises rentières et aux dépends des autres ; elle n’augmente pas cette masse[2].

Lorsque l’accroissement de la rente devient le but déterminent de la politique des firmes – plus important que le profit qui, lui, se heurte à le limite interne indiquée plus haut – la concurrence entre les firmes porte avant tout sur leur capacité et rapidité d’innovation. C’est d’elle que dépend avant tout la grandeur de leur rente. Elles cherchent donc a se surpasser dans le lancement de nouveaux produits ou modèles ou styles, par l’originalité du design, par l’inventivité de leurs campagnes de marketing, par la « personnalisation » des produits. L’accélération de l’obsolescence, qui va de pair avec la diminution de la durabilité des produits et de la possibilité de les réparer, devient le moyen décisif d’augmenter le volume des ventes. Elle oblige les firmes à inventer continuellement des besoins et des désirs nouveaux , à conférer aux marchandises une valeur symbolique, sociale, érotique, à diffuser une « culture de la consommation » qui mise sur l’individualisation, la singularisation, la rivalité, la jalousie, bref sur ce que j’ai appelé ailleurs la « socialisation antisociale ».

Tout s’oppose dans ce système à l’autonomie des individus ; à leur capacité de réfléchir ensemble à leurs fins communes et à leurs besoins communs ; de se concerter sur la meilleure manière d’éliminer les gaspillages, d’économiser les ressources, d’élaborer ensemble, en tant que producteurs et consommateurs, une norme commune du suffisant – de ce que Jacques Delors appelait une « abondance frugale ». De toute évidence, la rupture avec la tendance au « produire plus, consommer plus » et la redéfinition autonome d’un modèle de vie visant à faire plus et mieux avec moins, suppose la rupture avec une civilisation où on ne produit rien de ce qu’on consomme et ne consomme rien de ce qu’on produit ; où producteurs et consommateurs sont séparés et où chacun s’oppose à lui-même en tant qu’il est toujours l’un et l’autre à la fois ; où tous les besoins et tous les désirs sont rebattus sur le besoin de gagner de l’argent et le désir de gagner plus ; où la possibilité de l’autoproduction pour l’autoconsommation semble hors de portée et ridiculement archaïque – à tort.

Et pourtant : la « dictature sur les besoins » perd de sa force. L’emprise que les firmes exercent sur les consommateurs devient plus fragile en dépit de l’explosion des dépenses pour le marketing et la publicité. La tendance à l’autoproduction regagne du terrain en raison du poids croissant qu’ont les contenus immatériels dans la nature des marchandises. Le monopole de l’offre échappe petit à petit au capital.

Il n’était pas difficile de privatiser et de monopoliser des contenus immatériels aussi longtemps que connaissances, idées, concepts mis en oeuvre dans la production et dans la conception des marchandises étaient définis en fonction de machines et d’articles dans lesquels ils étaient incorporés en vue d’un usage précis. Machines et articles pouvaient être brevetés et la position de monopole protégée. La propriété privée de connaissances et de concepts était rendue possible par le fait qu’ils étaient inséparables des objets qui les matérialisaient. Ils étaient une composante du capital fixe.

Mais tout change quand les contenus immatériels ne sont plus inséparables des produits qui les contiennent ni même des personnes qui les détiennent ; quand ils accèdent a une existence indépendante de toute utilisation particulière et qu’ils sont susceptibles, traduits en logiciels, d’être reproduits en quantités illimitées pour un coût infime. Ils peuvent alors devenir un bien abondant qui, par sa disponibilité illimitée, perd toute valeur d’échange et tombe dans le domaine public comme bien commun gratuit – à moins qu’on ne réussisse à l’en empêcher en en interdisant l’accès et l’usage illimités auxquels il se prête.

Le problème auquel se heurte « l’économie de la connaissance » provient du fait que la dimension immatérielle dont dépend le rentabilité des marchandises n’est pas, à l’âge de l’informatique, de la même nature que ces dernières : elle n’est la propriété privée ni des entreprises ni des collaborateurs de celles-ci ; elle n’est pas de par sa nature privatisable et ne peut par conséquent devenir une vraie marchandise. Elle peut seulement être déguisée en propriété privée et marchandise en réservant son usage exclusif par des artifices juridiques ou techniques (codes d’accès secrets). Ce déguisement ne change cependant rien à la réalité de bien commun du bien ainsi déguisé : il reste une non-marchandise non vendable dont l’accès et l’usage libres sont interdits parce qu’ils demeurent toujours possibles, parce que le guettent les « copies illicites », les « imitations », les usages interdits. Le soi-disant propriétaire lui-même ne peut les vendre c’est-à-dire en transférer la propriété privée à un autre, comme il le ferait pour une vraie marchandise ; il ne peut vendre qu’un droit d’accès ou d’usage « sous licence ».

L’économie de la connaissance se donne ainsi pour base une richesse ayant vocation d’être un bien commun, et les brevets et copyrights censés le privatiser n’y changent rien ; l’aire de la gratuité s’étend irrésistiblement. L’informatique et internet minent le règne de la marchandise à sa base. Tout ce qui est traduisible en langage numérique et reproductible, communicable sans frais tend irrésistiblement à devenir un bien commun, voire un bien commun universel quand il est accessible à tous et utilisable par tous. N’importe qui peut reproduire avec son ordinateur des contenus immatériels comme le design, les plans de construction ou de montage, les formules et équations chimiques ; inventer ses propres styles et formes ; imprimer des textes, graver des disques, reproduire des tableaux. Plus de 200 millions de références sont actuellement accessibles sous licence « créative commons ». Au Brésil, où l’industrie du disque commercialise 15 nouveaux CD par an, les jeunes des favelas en gravent 80 par semaine et les diffusent dans la rue. Les trois quarts des ordinateurs produits en 2004 étaient autoproduits dans les favelas avec les composants de matériels mis au rebut. Le gouvernement soutient les coopératives et groupements informels d’autoproduction pour l’auto approvisionnement.

Claudio Prado, qui dirige le département de la culture numérique au ministère de la Culture du Brésil, disait récemment : « L’emploi est une espèce en voie d’extinction… Nous comptons sauter cette phase merdique du 20è siècle pour passer directement du 19è au 21è siècle ». L’autoproduction des ordinateurs par exemple a été officiellement soutenue : il s’agit de favoriser « l’appropriation des technologies par les usagers dans un but de transformation sociale ». La prochaine étape sera logiquement l’autoproduction de moyens de production. J’y reviendrai encore.

Ce qui importe pour le moment, c’est que la principale force productive et la principale source de rentes tombent progressivement dans le domaine public et tendent vers la gratuité ; que la propriété privée des moyens de production et donc le monopole de l’offre deviennent progressivement impossibles ; que par conséquent l’emprise du capital sur la consommation se relâche et que celle-ci peut tendre à s’émanciper de l’offre marchande. Il s’agit là d’une rupture qui mine le capitalisme à sa base. La lutte engagée entre les « logiciels propriétaires » et les « logiciels libres » (libre, « free », est aussi l’équivalent anglais de « gratuit ») a été Le coup d’envoi du conflit central de l’époque. Il s’étend et se prolonge dans la lutte contre la marchandisation de richesses premières – la terre, les semences, le génome, les biens culturels, les savoirs et compétences communs, constitutifs de la culture du quotidien et qui sont les préalables de l’existence d’une société. De la tournure que prendra cette lutte dépend la forme civilisée ou barbare que prendra la sortie du capitalisme.

Cette sortie implique nécessairement que nous nous émanciperons de l’emprise qu’exerce le capital sur la consommation et de son monopole des moyens de production. Elle signifie l’unité rétablie du sujet de la production et du sujet de la consommation et donc l’autonomie retrouvée dans la définition de nos besoins et de leur mode de satisfaction. L’obstacle insurmontable que le capitalisme avait dressé sur cette voie était la nature même des moyens de production qu’il avait mis en place : ils constituait une mégamachine dont tous étaient les serviteurs et qui nous dictait les fins à poursuivre et la vie a mener. Cette période tire à sa fin. Les moyens d’autoproduction high-tech rendent la mégamachine industrielle virtuellement obsolète. Claudio Prado invoque « l’appropriation des technologies » parce que la clé commune de toutes, l’informatique, est appropriable par tous. Parce que, comme le demandait Ivan Illich, « chacun peut l’utiliser sans difficulté aussi souvent ou aussi rarement qu’il le désire… sans que l’usage qu’il en fait empiète sur le liberté d’autrui d’en faire autant » ; et parce que cet usage (il s’agit de la définition illichienne des outils conviviaux) « stimule l’accomplissement personnel » et élargit l’autonomie de tous. La définition que Pekka Himanen donne de l’Ethique Hacker est très voisine : un mode de vie qui met au premier rang « les joies de l’amitié, de l’amour, de la libre coopération et de la créativité personnelle ».

Les outils high-tech existants ou en cours de développement, généralement comparables à des périphériques d’ordinateur, pointent vers un avenir où pratiquement tout le nécessaire et le désirable pourra être produit dans des ateliers coopératifs ou communaux ; où les activités de production pourront être combinées avec l’apprentissage et l’enseignement, avec l’expérimentation et la recherche, avec la création de nouveaux goûts, parfums et matériaux, avec l’invention de nouvelles formes et techniques d’agriculture, de construction, de médecine etc. Les ateliers communaux d’autoproduction seront interconnectés à, l’échelle du globe, pourront échanger ou mettre en commun leurs expériences, inventions, idées, découvertes. Le travail sera producteur de culture, l’autoproduction un mode d’épanouissement.

Deux circonstances plaident en faveur de ce type de développement. La première est qu’il existe beaucoup plus de compétences, de talents et de créativité que l’économie capitaliste n’en peut utiliser. Cet excédent de ressources humaines ne peut devenir productif que dans une économie où la création de richesses n’est pas soumise aux critères de rentabilité. La seconde est que « l’emploi est une espèce en voie d’extinction ».

Je ne dis pas que ces transformations radicales se réaliseront. Je dis seulement que, pour la première fois, nous pouvons vouloir qu’elles se réalisent. Les moyens en existent ainsi que les gens qui s’y emploient méthodiquement. Il est probable que ce seront des Sud-Américains ou des Sud-Africains qui, les premiers, recréeront dans les banlieues déshéritées des villes européennes les ateliers d’autoproduction de leur favela ou de leur township d’origine.

La sortie du capitalisme a déjà commencé (version 1)

URL d’origine du document

André Gorz – 16 septembre 2007 – EcoRev

Ce texte d’André Gorz a été distribué le 16 septembre 2007 à l’université d’Utopia.

La question de la sortie du capitalisme n’a jamais été plus actuelle. Elle se pose en des termes et avec une urgence d’une radicale nouveauté. Par son développement même, le capitalisme a atteint une limite tant interne qu’externe qu’il est incapable de dépasser et qui en fait un système mort-vivant qui se survit en masquant par des subterfuges la crise de ses catégories fondamentales : le travail, la valeur, le capital.

Cette crise de système tient au fait que la masse des capitaux accumulés n’est plus capable de se valoriser par l’accroissement de la production et l’extension des marchés. La production n’est plus assez rentable pour pouvoir valoriser des investissements productifs additionnels. Les investissements de productivité par lesquels chaque entreprise tente de restaurer son niveau de profit ont pour effet de déchaîner des formes de concurrence meurtrières qui se traduisent, entre autres, par des réductions compétitives des effectifs employés, des externalisations et des délocalisations, la précarisation des emplois, la baisse des rémunérations, donc, à l’échelle macro-économique, la baisse du volume de travail productif de plus-value et la baisse du pouvoir d’achat. Or moins les entreprises emploient de travail et plus le capital fixe par travailleur est important, plus le taux d’exploitation, c’est-à-dire le surtravail et la survaleur produits par chaque travailleur doivent être élevés. Il y a à cette élévation une limite qui ne peut être indéfiniment reculée, même si les entreprises se délocalisent en Chine, aux Philippines ou au Soudan.

Les chiffres attestent que cette limite est atteinte. L’accumulation productive de capital productif ne cesse de régresser. Aux Etats-Unis, les 500 firmes de l’indice Standard & Poor’s disposent, en moyenne, de 631 milliards de réserves liquides ; la moitié des bénéfices des entreprises américaines provient d’opérations sur les marchés financiers. En France, l’investissement productif des entreprises du CAC 40 n’augmente pas, même quand leurs bénéfices explosent. L’impossibilité de valoriser les capitaux accumulés par la production et le travail explique le développement d’une économie fictive fondée sur la valorisation de capitaux fictifs. Pour éviter une récession qui dévaloriserait le capital excédentaire (suraccumulé), les pouvoirs financiers ont pris l’habitude d’inciter les ménages à s’endetter, à consommer leurs revenus futur, leurs gains boursiers futurs, la hausse future des entreprises, les achats futurs des ménages, les gains que pourront dégager les dépeçages et restructurations, imposés par les LBO, d’entreprises qui ne s’étaient pas encore mises à l’heure de la précarisation, surexploitation et externalisation de leurs personnels.

La valeur fictive (boursière) des actifs financiers a doublé en l’espace d’environ six ans, passant de 80 000 milliards à 160 000 milliards de dollars (soit trois le PIB mondial), entretenant aux Etats-Unis une croissance économique fondée sur l’endettement intérieur et extérieur, lequel entretient de son côté la liquidité de l’économie mondiale et la croissance de la Chine, des pays voisins et par ricochet de l’Europe.

L’économie réelle est devenue un appendice des bulles financières. Il faut impérativement un rendement élevé du capital propre des firmes pour que la bulle boursière n’éclate pas – et une hausse continue – du prix de l’immobilier pour que n’éclate pas la bulle des certificats d’investissement immobilier vers lesquels les banques ont attiré l’épargne des particuliers en leur promettant monts et merveilles – car l’éclatement des bulles menacerait le système bancaire de faillites en chaîne, l’économie réelle d’une dépression prolongée (la dépression japonaise dure depuis quinze ans).

« Nous cheminons au bord du gouffre », écrivait Robert Benton. Voilà qui explique qu’aucun Etat n’ose prendre le risque de s’aliéner ou d’inquiéter les puissances financières. Il est impensable qu’une politique sociale ou une politique de « relance de la croissance » puisse être fondée sur la redistribution des plus-values fictives de la bulle financière. Il n’y a rien à attendre de décisif des Etats nationaux qui, au nom de l’impératif de compétitivité, ont au cours des trente dernières années abdiqué pas à pas leurs pouvoirs entre les mains d’un quasi-Etat supranational imposant des lois faites sur mesure dans l’intérêt du capital mondial dont il est l’émanation. Ces lois, promulguées par l’OMC, l’OCDE, le FMI, imposent dans la phase actuelle le tout-marchand, c’est-à-dire la privatisation des services publics, le démantèlement de la protection sociale, la monétarisation des maigres restes de relations non commercia1es. Tout se passe comme si le capital, après avoir gagné la guerre qu’il a déclaré à la classe ouvrière, vers la fin des années 1970, entendait éliminer tous les rapports sociaux qui ne sont pas des rapports acheteur/vendeur, c’est-à-dire qui ne réduisent pas les individus à être des consommateurs de marchandises et des vendeurs de leur travail ou d’une quelconque prestation considérée comme « travail » pour peu qu’elle soit tarifée. Le tout-marchand, le tout-marchandise comme forme exclusive du rapport social poursuit la liquidation complète de la société dont Margaret Thatcher avait annoncé le projet. Le totalitarisme du marché s’y dévoilait dans son sens politique comme stratégie de domination. Dès lors que la mondialisation du capital et des marchés, et la férocité de la concurrence entre capitaux partiels exigeaient que l’Etat ne fût plus le garant de la reproduction de la société mais le garant de la compétitivité des entreprises, ses marges de manœuvre en matière de politique sociale étaient condamnées à se rétrécir, les coûts sociaux à être dénoncés comme des entorses à la libre concurrence et des entraves à la compétitivité, le financement public des infrastructures à être allégé par la privatisation.

Le tout-marchand s’attaquait à l’existence de ce que les britanniques appellent les commons et les Allemands le Gemeinwesen, c’est-à-dire à l’existence des biens communs indivisibles, inaliénables et inappropriables, inconditionnellement accessibles et utilisables par nous. Contre la privatisation des biens communs les individus ont tendance à réagir par des actions communes, unis en un seul sujet. L’Etat a tendance à empêcher et le cas échéant à réprimer cette union de tous d’autant plus fermement qu’il ne dispose plus des marges suffisantes pour apaiser des masses paupérisées, précarisées, dépouillées de droits acquis. Plus sa domination devient précaire, plus les résistances populaires menacent de se radicaliser, et plus la répression s’accompagne de politiques qui dressent les individus les uns contre les autres et désignent des boucs émissaires sur lesquels concentrer leur haine.

Si l’on a à l’esprit cette toile de fond, les programmes, discours et conflits qui occupent le devant de la scène politique paraissent dérisoirement décalés par rapport aux enjeux réels. Les promesses et les objectifs mis en avant par les gouvernement et les partis apparaissent comme des diversions irréelles qui masquent le fait que le capitalisme n’offre aucune perspective d’avenir sinon celle d’une détériorisation continue de vie, d’une aggravation de sa crise, d’un affaissement prolongé passant par des phases de dépression de plus en plus longues et de reprise de plus en plus faibles. Il n’y a aucun « mieux » à attendre si on juge le mieux selon les critères habituels. Il n’y aura plus de « développement » sous la forme du plus d’emplois, plus de salaire, plus de sécurité. Il n’y aura plus de « croissance » dont les fruits puissent être socialement redistribués et utilisés pour un programme de transformations sociales transcendant les limites et la logique du capitalisme.

L’espoir mis, il y a quarante ans, dans des « réformes révolutionnaires » qui, engagées de l’intérieur du système sous la pression de luttes syndicales, finissent par transférer à la classe ouvrière les pouvoirs arrachés au capital, cet espoir n’existe plus. La production demande de moins en moins de travail, distribue de moins en moins de pouvoir d’achat à de moins en moins d’actifs ; elle n’est plus concentrée dans de grandes usines pas plus que ne l’est la force de travail. L’emploi est de plus en plus discontinu, dispersé sur des prestataires de service externes, sans contact entre eux, avec un contrat commercial à la place d’un contrat de travail. Les promesses et programmes de « retour » au plein emploi sont des mirages dont la seule fonction est d’entretenir l’imaginaire salarial et marchand c’est-à-dire l’idée que le travail doit nécessairement être vendu à un employeur et les biens de subsistance achetés avec l’argent gagnés autrement dit qu’il n’y a pas de salut en dehors de la soumission du travail au capital et de la soumission des besoins à la consommation de marchandises, qu’il n’y a pas de vie, pas de société au-delà de la société de la marchandise et du travail marchandisé, au-delà et en dehors du capitalisme

L’imaginaire marchand et le règne de la marchandise empêchent d’imaginer une quelconque possibilité de sortir du capitalisme et empêchent par conséquent de vouloir en sortir. Aussi longtemps que nous restons prisonniers de l’imaginaire salarial et marchand, l’anticapitalisme et la référence à une société au-delà du capitalisme resteront abstraitement utopiques et les luttes sociales contre les politiques du capital resteront des luttes défensives qui, dans le meilleur des cas, pourront freiner un temps mais non pas empêcher l’intériorisation des conditions de vie.

La « restructuration écologique » ne peut qu’aggraver la crise du système. Il est impossible d’éviter une catastrophe climatique sans rompre radicalement avec les méthodes et la logique économique qui y mènent depuis 150 ans. Si on prolonge la tendance actuelle, le PIB mondial sera multiplié par un facteur 3 ou 4 d’ici à l’an 2050. Or selon le rapport du Conseil sur le climat de l’ONU, les émissions de CO2 devront diminuer de 85% jusqu’à cette date pour limiter le réchauffement climatique à 2°C au maximum. Au-delà de 2°, les conséquences seront irréversibles et non maîtrisables.

La décroissance est donc un impératif de survie. Mais elle suppose une autre économie, un autre style de vie, une autre civilisation, d’autres rapports sociaux. En leur absence, la décroissance risque d’être imposée à force de restrictions, rationnements, allocations de ressources caractéristiques d’un socialisme de guerre. La sortie du capitalisme s’impose donc d’une façon ou d’une autre. La reproduction du système se heurte à la fois à ses limites internes et aux limites externes engendrées par le pillage et la destruction d’une des deux « principales sources d’où jaillit toute richesse » : la terre. La sortie du capitalisme a déjà commencé sans être encore voulue consciemment. La question porte seulement sur la forme qu’elle va prendre et la cadence à laquelle elle va s’opérer.

L’instauration d’un socialisme de guerre, dictatorial, centralisateur, techno-bureautique serait la conclusion logique – on est tenté de dire « normale » – d’une civilisation capitaliste qui, dans le souci de valoriser des masses croissantes de capital, a procédé à ce que Marcuse appelle la « désublimation répressive » – c’est-à-dire la répression des « besoins supérieurs », pour créer méthodiquement des besoins croissants de consommation individuelle, sans s’occuper des conditions de leur satisfaction. Elle a éludé dès le début la question qui est à l’origine des sociétés : la question du rapport entre les besoins et les conditions qui rendent leur satisfaction possible : la question d’une façon de gérer des ressources limitées de manière qu’elles suffisent durablement à couvrir les besoins de tous ; et inversement la recherche d’un accord général sur ce qui suffira à chacun, de manière que les besoins correspondent aux ressources disponibles.

Nous sommes donc arrivés à un point où les conditions n’existent plus qui permettraient la satisfaction des besoins que le capitalisme nous a donnés, inventés, imposés, persuadé d’avoir afin d ’écouler des marchandises qu’il nous a enseigné à désirer. Pour nous enseigner à y renoncer, l’écodictature semble à beaucoup être le chemin le plus court. Elle aurait la préférence de ceux qui tiennent le capitalisme et le marché pour seuls capables de créer et de distribuer des richesses ; et qui prévoient une reconstitution du capitalisme sur de nouvelles bases après que des catastrophes écologiques auront remis les compteurs à zéro en provoquant une annulation des dettes et des créances.

Pourtant une tout autre voie de sortie s’ébauche. Elle mène à l’extinction du marché et du salariat par l’essor de l’autoproduction, de la mise en commun et de la gratuité. On trouve les explorateurs et éclaireurs de cette voie dans le mouvement des logiciels libres, du réseau libre (freenet), de la culture libre qui, avec la licence CC (creative commons) rend libre (et libre : free signifie, en anglais, à la fois librement accessible et utilisable par tous, et gratuit) de l’ensemble des biens culturels – connaissances, logiciels, textes, musique, films etc. – reproductibles en un nombre illimité de copies pour un coût négligeable. Le pas suivant serait logiquement la production « libre » de toute la vie sociale, en commençant par soustraire au capitalisme certaines branches de produits susceptibles d’être autoproduits localement par des coopératives communales. Ce genre de soustraction à la sphère marchande s’étend pour les biens culturels où elle a été baptisée « out-cooperating », un exemple classique étant Wikipedia qui est en train d’« out-cooperate » l’Encyclopedia Britannica. L’extension de ce modèle aux biens matériels est rendue de plus en plus faisable grâce à la baisse du coût des moyens de production et à la diffusion des savoirs techniques requis pour leur utilisation. La diffusion des compétences informatiques, qui font partie de la « culture du quotidien » sans avoir à être enseignées, est un exemple parmi d’autres. L’invention fabbers, aussi appelés digital fabricators ou factories in a box – il s’agit d’une sorte d’ateliers flexibles transportables et installables n’importe où – ouvre à l’autoproduction locale des possibilités pratiquement illimitées.

Produire ce que nous consommons et consommer ce que nous produisons est la voie royale de la sortie du marché. Elle nous permet de nous demander de quoi nous avons réellement besoin, en quantité et en qualité, et de redéfinir par concertation, compte tenu de l’environnement et des ressources à ménager, la norme du suffisant que l’économie de marché a tout fait pour abolir. L’autoréduction de la consommation, son autolimitation – le self-restraint – et la possibilité de recouvrer le pouvoir sur notre façon de vivre passent par là.

Il est probable que les meilleurs exemples de pratiques alternatives en rupture avec le capitalisme nous viennent du Sud de la planète, si j’en juge d’après la création au Brésil, dans des favelas mais pas seulement, des « nouvelles coopératives » et des « pontos de cultura ». Claudio Prado, qui dirige le département de la « culture numérique » au ministère de la culture, déclarait récemment : « Le ’job’ est une espèce en voie d’extinction… Nous espérons sauter cette phase merdique du 20e siècle pour passer directement du 19e au 21e. » L’autoproduction et le recyclage des ordinateurs par exemple, sont soutenus par le gouvernement : il s’agit de favoriser « l’appropriation des technologies par les usagers dans un but de transformation sociale ». Si bien que les trois quarts de tous les ordinateurs produits au Brésil en 2004/5 étaient autoproduits.

Notes

[1] Crédit photo : Auteur non identifié, mis en ligne par Imago sur Flickr (Creative Commons By-Nc-Sa)

[2] La valeur travail est une idée d’Adam Smith qui voyait dans le travail la substance commune de toutes les marchandises et pensait que celles-ci s’échangeaient en proportion de la quantité de travail qu’elles contenaient. La valeur travail n’a rien à voir avec ce qu’on entend par là aujourd’hui et qui (chez Dominique Méda entre autres) devrait être désigné comme travail valeur (valeur morale, sociale, idéologique etc.). Marx a affiné et retravaillé la théorie d’A. Smith. En simplifiant à l’extrême, on peut résumer la notion économique en disant : Une entreprise crée de la valeur dans la mesure où elle produit une marchandise vendable avec du travail pour la rémunération duquel elle met en circulation (crée, distribue,) du pouvoir d’achat. Si son activité n’augmente pas la quantité d’argent en circulation elle ne crée pas de valeur. Si son activité détruit de l’emploi elle détruit de la valeur. La rente de monopole consomme de la valeur crée par ailleurs et se l’approprie.




Libération du film d’animation Sita Sings the Blues

Sita Sings the Blues (Sita chante le blues) est un long métrage d’animation entièrement écrit et réalisé par une seule et même personne, Nina Paley. Primé au Festival international du film d’animation d’Annecy en 2008, il met en parallèle la légende hindouiste du Râmâyana et une rupture amoureuse autobiographique, en mélangeant les techniques d’animation (dessins, papiers découpés, ordinateur 2D, utilisation d’images libres de droits…). Si vous aimez les dessins animés, l’Inde, le jazz et les histoires d’amour qui finissent mal (en général), ce film de 80 min devrait vous plaire.

En voici la bande-annonce (via Framatube) :

—> La vidéo au format webm

Sita Sings the Blues vient tout de juste de passer sous licence Creative Commons By-Sa, comme l’annonce Nina Paley dans un joli message que nous avons traduit ci-dessous. Vous le trouverez en téléchargement intégral sur archive.org ainsi qu’en torrent sur le wiki du site officiel (existe également en streaming flash sur Reel 13).

Cette « libération » est un heureux évènement et un élément de qualité à ajouter à la Culture Libre. Mais elle ne doit pas cacher l’incroyable histoire des problèmes de droits d’auteur qu’a rencontré Nina Paley (et qui font d’ailleurs que ce film ne peut être considéré comme totalement libre).

Le film est en effet indissociable de l’interprète de jazz Annette Hanshaw (qui apparait d’ailleurs au générique du film comme protagoniste). Onze de ses chansons y figurent en étant complètement intégrées au scénario et à l’animation (impossible donc de changer la musique). Ces chansons datent de la fin des années… 1920 ! Autrement dit, un peu moins d’un siècle plus tard (et un quart de siècle après la mort de la chanteuse), Nina Paley pensa légitimement qu’elles étaient désormais dans le domaine public.

Mais c’était sans compter sur des subtilités juridiques que certains justifieront sans peine mais que je ne puis m’empêcher de qualifier « d’un autre âge » (excusez-moi mais l’Hadopi ça me met à cran en ce moment). Vous me corrigerez dans les commentaires mais voici ce que j’en ai compris à parcourir cet article. Les enregistrements sont bien dans le domaine public mais ce n’est pas le cas de la composition, paroles et musiques (partitions). Et du coup les ayant-droits ont d’abord demandé à Nina Paley 500 $ par chanson pour l’autoriser à être projetée dans les festivals (ce dont elle s’est acquittée), mais surtout 200 000 $ pour l’autoriser à commercialiser le DVD de son film (somme ramenée à 50 000 $ assortie de nombreuses restrictions) ! Ubuesque non ? Alors même que la diffusion de son film permettrait justement à un nouveau public de découvrir Annette Hanshaw ! Impossible alors de trouver un distributeur pour son film. Nina Payley s’en explique longuement dans cette interview.

Enfin bref, un mal pour un bien en quelque sorte, et nous voici donc avec un Sita Sings the Blues sous licence libre (dont il faut cependant aussi respecter le copyright pour le moins complexe de la fameuse musique). Mais il me plait à penser que Nina y est venue non par dépit mais par conviction (en fait un peu des deux je pense). Il me plait également à penser que Nina Paley reçoive de nombreux dons, témoignant ainsi qu’il y a une vie économique pour une culture qui souhaiterait se soustraire aux logiques oppressantes du classique et souvent mortifère copyright.

Une dernière chose. Framalang est en train de le visionner dans son intégralité et se tient prêt à en assurer le sous-titrage si l’évaluation globale se révèle aussi positive que la première impression, sachant que vous nous aideriez d’autant en nous donnant votre propre avis dans les commentaires.

Annonce de la « libération » de Sita Sings the Blues

Sita Sings the Blues

Nina Paley – 28 février 2009
(Traduction Framalang : Simon)

Cher public,


Par la présente, je te donne Sita Sings the Blues. En tant qu’élément culturel il t’appartient déjà, mais je rends la chose explicite avec une licence Creative Commons Attribution-Share Alike. Je t’invite à distribuer, copier, partager, archiver et montrer Sita Sings the Blues. Il provient de la culture partagée, et retourne à la culture partagée.

Tu n’as pas besoin de ma permission pour le copier, le partager, le publier, l’archiver, le montrer, le vendre, le diffuser ou le remixer. La sagesse conventionnelle m’intime de réclamer un paiement pour chaque utilisation de ce film, mais alors, comment feraient les gens sans argent pour le voir ? À quelle ampleur le film se disséminerait-il s’il était limité par des permissions et des droits d’auteur à payer ? Le contrôle offre une fausse impression de sécurité. La seule vraie sécurité que j’ai, est de croire en vous, de croire en la culture et de croire en la liberté.

Ceci étant dit, mes collègues et moi même allons mettre en œuvre la licence Share Alike. Tu n’es pas libre de réduire les libertés que je donne sur Sita Sings the Blues et ses dérivés, ni en y imposant un copyright, ni en y ajoutant des DRM.

Certaines chansons de Sita Sings the Blues ne sont pas libres, et ne le seront peut être jamais ; les lois régissant le droit d’auteur t’obligent à respecter leurs licences respectives. Ce n’est pas de mon fait ; pour plus d’informations sur ce sujet, tu peux lire notre page « restrictions ».

Et comment vais-je gagner de l’argent dans tout ça ? Mon expérience personnelle atteste que le public est généreux, et souhaite soutenir les artistes. Il y a sûrement un moyen de permettre cela sans contrôler centralement chaque transaction. Le vieux système économique fait de coercition et d’extorsion touche à sa fin. De nouveaux modèles émergent, et je suis heureux d’en faire partie. Mais nous continuerons de mettre cela en place avec le temps. Tu es libre de gagner de l’argent à partir du contenu libre de Sita Sings the Blues, et tu es libre de partager cet argent avec moi. Des gens gagnent de l’argent avec des logiciels libres depuis des années ; il est temps pour la Culture Libre de suivre. Je te prie de bien vouloir croire en la confiance que j’ai en tes innovations.

Si tu as des questions, n’hésite pas à nous les poser. Si tu as des idées, réalise les, tu n’as pas besoin de ma permission, ni de celle de personne (excepté les chansons mentionnées ci-dessus). Si tu constates des abus, corrige-les, mais ne sombre pas dans les détails des arcanes des lois sur le droit d’auteur. Le système de copyright voudrait que tu penses en termes de demande de permission ; je voudrais que tu penses en terme de liberté. Nous avons mis un wiki en place, pour démarrer les choses. N’hésite pas à l’utiliser.

Je dois reprendre une vie normale maintenant, et retourner faire de nouvelles œuvres. Merci pour ton soutien ! Ce film n’existerait pas sans toi.

Affectueusement

Nina Paley




Musique, industrie et industrie musicale

Notsogoodphotography - CC byNous le savions déjà : « musique » et « industrie musicale » sont deux entités distinctes. La révolution numérique n’a fait que nous le rappeler mais en apportant un petit quelque chose en plus : la possibilité pour le premier de ne pas être obligé d’en passer forcément par le second pour exister. Surtout si cette industrie musicale renonce à s’adapter et préfère mettre son énergie à chercher des mesures coercitives pour ramener ses clients dans le droit chemin de la rassurante situation d’avant (qui n’est déjà plus).

Et si nous commencions par prendre conscience des évolutions avant que d’envisager une éventuellement réconciliation ?

La traduction de ce court extrait du blog de Seth Godin y participe modestement.[1].

Musique vs L’Industrie Musicale

Music vs. the music industry

Seth Godin – 13 février 2009 – Blog
(Traduction Framalang : Claude le Paih)

Quelques extraits d’une interview sur le futur de l’industrie musicale. J’abordais une industrie spécifique, mais je pense que cela peut être généralisé.

L’industrie musicale privilégie surtout l’aspect « industrie » et moins l’aspect « musique ». C’est le meilleur moment de l’histoire de la musique si votre rêve est de distribuer autant de musique que possible à un maximum de personnes, ou si votre objectif en tant que musicien est d’être écouté par une large audience. Il n’y a jamais eu une telle époque auparavant. Donc si votre intérêt est la musique, c’est génial.
Mais si votre intérêt penche vers le côté industriel et ses limousines, ses acomptes, ses juristes, son polycarbonate et ses vynils, c’est tout simplement horrible. Le changement actuel étant que les personnes persistant à vouloir garder le monde tel qu’il était avant, seront de plus en plus contrariées par la nouvelle donne, ce qui peut aller jusqu’à la perte de leur emploi. Ceux qui veulent inventer un nouveau cadre, de nouvelles de règles du jeu, un nouveau paradigme, n’en reviennent pas de leur bonne fortune et réalisent combien ils sont chanceux que le monde de l’industrie ne remarque pas une telle opportunité…

Je définis une tribu comme un groupe de personnes partageant une culture, un but, une mission commune, et aussi souvent un leader commun. Il y a des tribus de gens, sortant parfois des sentiers battus, qui se sentent en phase parce qu’ils veulent repenser l’industrie musicale. Il y a ainsi la tribu de ceux qui suivent Bruce Springsteen et paient des sommes déraisonnables pour l’écouter en concert et comparer les titres.
Cela n’a plus rien à voir avec les anciennes habitudes des labels musicaux occupés à conquérir de l’espace commercial à la radio et dans les magasins de disques. L’industrie musicale a désormais besoin de se redéfinir et d’œuvrer à la recherche, l’interconnexion et la direction de tribus d’individus désirant suivre un musicien et se connecter avec ceux qui souhaitent en faire de même…

Dans les années soixante-dix et quatre-vingt, vous écoutiez une chanson car « tous les autres » l’écoutaient aussi. C’est la définition de la pop music. À cette époque, nous définissions « les autres » comme des personnes de notre université ou des gens écoutant la radio WPLJ[2].
Aujourd’hui, « les autres » ne sont pas définis par le lieu de résidence ou la radio écoutée. Ils sont définis par le segment vertical ou horizontal du monde auquel vous vous connectez. Je peux écouter Keller Williams[3] parce que ma tribu connaît des Deadheads désenchantés[4]. N’ayant plus de nouveau Grateful Dead à écouter, nous écoutons Keller Williams : c’est de la pop music pour nous. Il n’est pas populaire chez les jeunes du collège qui n’ont jamais entendu parler de lui, n’est-ce pas ? Ainsi vous vous retrouvez avec une multitude de niches qui sont autant de manières différentes de regarder le monde…

Le tout numérique est en train de surpasser le CD, et une fois le mouvement amorcé cela va de plus en plus vite. Le plus intéressant pour moi est de connaître celui qui contrôlera la programmation musicale (NdT : la playlist). S’il y a une quantité infinie de musique offerte (et dès que la quantité de musique excède le temps disponible d’une vie, elle est infinie !), quelqu’un sera-t-il assez influent pour me suggérer quoi écouter ? Ce quelqu’un sera-t-il payé pour me le dire ou bien paiera-t-il pour me le dire ? La question reste pour le moment ouverte mais les réponses sont dans toutes ces niches. Qui sont les personnes influentes et comment se diffusent cette influence ?
L’analogie que j’aime donner est que si vous êtes un écrivain et qu’Oprah Winfrey[5] vous appelle, vous ne dites pas : « combien allez vous me payer pour participer à votre show et présenter mon livre ? » En fait, si vous le pouviez, vous paieriez pour collaborer avec Oprah.
Pendant très longtemps, l’industrie musicale a eu deux grandes idées : d’un côté, payer pour passer sur Clear Channel[6] ou MTV, de l’autre, faire payer pour écouter sa musique en concert ou sur votre chaîne Hi-Fi. Ces temps sont tous en train de se diluer actuellement. « Si je suis le directeur des programmes de ma propre radio, que devient mon bakchich ? »[7].

Notes

[1] Crédit photo : Notsogoodphotography (Creative Commons)

[2] Radio populaire aux USA

[3] Keller Williams est un chanteur américain un peu « décalé »

[4] Les Deadheads sont des fans du groupe Grateful Dead

[5] Oprah Winfrey est l’animatrice du célèbre talk-show qui porte son nom

[6] Clear Channel est un groupe de médias américains possédant de nombreuses radios et télévisions

[7] Bakchich ou payola dans le texte




Wikipédia et éducation : un exemple de réconciliation 1/6

Dossier Wikipédia - Étudiants de Jon Beasley-Murray - CC byTous les articles de l’encyclopédie libre Wikipédia possèdent un historique. Certains ont même une véritable histoire…

Il existe dans Wikipédia des articles qui possèdent le label « Article de Qualité » ou le label « Bon Article ». Il s’agit de « refléter la diversité et la richesse de l’encyclopédie ». Pour qu’un article puisse y prétendre, il doit répondre à certains critères parmi lesquels avant tout la qualité encyclopédique (clarté, exhaustivité, neutralité, pertinence, citation des sources…) mais aussi la qualité de finition (orthographe, syntaxe, mise en page, illustrations…) et le respect des licences. Tout contributeur peut y soumettre un article et tout contributeur peut participer au processus de vote.

Au moment où j’écris ces lignes, on trouve dans la version française de Wikipédia 527 « Articles de Qualité » et 529 « Bons Articles » sur un total de 765 360 articles. Moins de 0,1% des articles de l’encyclopédie sont des « Articles de Qualité » ou des « Bons Articles ».

La version anglaise de l’encyclopédie Wikipédia a pris l’habitude de mettre chaque jour en lumière sur sa page d’accueil un « Article de Qualité » fraîchement labellisé. Le 5 mai 2008, c’est l’article El Señor Presidente, traitant du roman éponyme du prix Nobel guatémaltèque Miguel Ángel Asturias, qui a connu ce petit honneur. C’est l’histoire pédagogiquement remarquable de cet article (et de quelques autres connexes) que nous vous proposons aujourd’hui dans ce mini-dossier de six pages.

Jon Beasley-Murray est professeur de littérature latino-américaine à l’Université de la Colombie Britannique (Vancouver – Canada). Ayant constaté que ce domaine était très faiblement couvert par la version anglaise de Wikipédia, il a décidé d’intégrer l’encyclopédie à l’un de ses cours en lançant le « défi » suivant à ses étudiants : quitte à les créer pour l’occasion, choisissons quelques articles afférents, répartissez-vous par groupes, et faisons en sorte qu’ils obtiennent tous le label « Article de Qualité » dans le temps imparti du semestre universitaire.

Le chemin fut semé d’embûches, certains écueils ne purent être évités et l’implication ne fut pas forcément la même pour tout le monde, mais globalement le succès aura été au rendez-vous. Succès pour les étudiants, pour leur professeur, mais aussi pour Wikipédia qui se retrouve non seulement avec des articles bonifiés mais également avec un exemple, décrit et analysé par ses acteurs, dont on peut dresser le bilan et s’interroger sur les conditions de sa reproductibilité.

Oscillant entre la tentation de l’interdiction et la préconisation sans précaution, le corps enseignant a souvent du mal à composer avec cet objet mutant qu’est Wikipédia, dont il ne peut que constater l’usage massif qu’en font, pas toujours à bon escient, leurs étudiants. Le malaise est latent, pour ne pas dire patent, et aboutit à ce que Wikipédia et monde éducatif se regardent parfois un peu en chien de faïence (cf notre page de liens connexes).

Ce projet pédagogique pose de nombreuses questions, apportent quelques réponses et permet en outre à tout lecteur non familier avec Wikipédia de mieux comprendre ce qu’est réellement l’encyclopédie et comment elle fonctionne « de l’intérieur ». C’est pourquoi il nous est apparu intéressant de l’étudier dans le détail en traduisant ces quelques articles qui sont autant de témoignages enrichissants. Pour ajouter modestement notre contribution au débat, lever éventuellement quelques malentendus, et, sait-on jamais, inciter certains collègues à se lancer eux-aussi dans une future et similaire aventure…

Dans la mesure où ce dossier est conséquent et qu’il est peut-être plus confortable de lire le tout sur papier imprimé, vous trouverez ci-dessous en annexe une version complète au format PDF (merci Garburst).

  • 1/6 – Introduction
    Un projet pédagogique « de qualité ».
  • 3/6 – Le projet vu par un éditeur de Wikipédia
    Le point de vue d’un éditeur de Wikipédia, membre de « l’équipe des Articles de Qualité », ayant accompagné et soutenu les étudiants pendant la durée de leurs travaux.
  • 6/6 – Liens connexes
    Une sélection de liens francophones autour de Wikipédia et l’éducation.

El Senor Presidente - Accueil Wikipédia - 5 mai 2008




Wikipédia et éducation : un exemple de réconciliation 2/6

Cet article fait partie du dossier Wikipédia et éducation : un exemple de réconciliation.

C’est la traduction du témoignage de l’enseignant qui est ici présentée.

Copie d'écran - Wikipédia - Jon Beasley-Murray

Introduction de Wikipédia dans les salles de classe : le loup est-il dans la bergerie ?

Was introducing Wikipedia to the classroom an act of madness leading only to mayhem if not murder?

Jon Beasley-Murray – avril 2008 – Wikipédia
(Traduction Framalang : Olivier)

Réflexions sur l’utilisation de Wikipédia dans le cadre du cours SPAN312 à l’Université de la Colombie Britannique, « Murder, Madness, and Mayhem: Latin American Literature in Translation » (NdT : « Meurtre, Folie et Chaos : la littérature latino-américaine en mouvement »), printemps 2008.

Wikipédia : mal aimée mais omniprésente dans l’éducation

Tel un membre non invité, Wikipédia s’aventure aujourd’hui très près du monde universitaire. Les objectifs de Wikipédia sont éminemment académiques : l’encyclopédie se focalise sur la collecte, le traitement, l’enregistrement et la transmission du savoir. À en juger par le nombre d’articles et de lecteurs, elle a particulièrement bien réussi à encourager une culture de curiosité intellectuelle. Elle est pourtant régulièrement sujette aux critiques formulées par les universitaires eux-mêmes.

Et pourtant tout le monde en fait usage d’une manière ou d’une autre, même si c’est difficile à admettre. Et surtout, nos étudiants l’utilisent, ouvertement ou non (puisqu’on leur impose souvent de ne pas citer les articles de Wikipédia dans leurs travaux), mais sans nécessairement en connaître véritablement le fonctionnement. On leur dit que l’usage de Wikipédia n’est pas conseillé, mais on leur dit rarement pourquoi, alors qu’eux la voient comme une ressource incroyablement utile.

La consigne : créer un « Article de Qualité »

J’ai décidé de faire de Wikipédia un axe central d’une matière que j’enseignais, en pensant que c’est seulement en y contribuant activement que les élèves découvriraient ses points faibles et ses points forts. J’avais aussi en tête l’idée qu’ils pourraient par la même occasion améliorer les articles dans un domaine qui à mes yeux manquait cruellement de contenu, en l’occurrence la littérature latino-américaine.

Wikipédia devait être un point important du cours mais sans en être pour autant l’essentiel. Ce n’était pas un cours sur Wikipédia mais, comme mes autres cours, il devait plutôt se concentrer sur l’Amérique Latine ainsi que sur la lecture d’un corpus de textes littéraires d’Amérique Latine. Dans ce cours intitulé « Murder, Madness, and Mayhem » (NdT : Meurtre, Folie et Chaos), les textes choisis comportaient une série de romans sur la dictature de la période du dix-neuvième siècle avec l’argentin Domingo Faustino Sarmiento jusqu’à l’époque contemporaine avec certains des auteurs d’Amérique Latine les plus en vue comme Gabriel García Márquez et Mario Vargas Llosa. Ces livres n’étant ni simples ni courts, les étudiants devaient passer une bonne partie de leur temps personnel à la lecture, la majeure partie du temps en classe étant consacrée aux explications et à la discussion.

Wikipédia n’était que peu abordé durant les cours. La tâche qui leur était assignée était plutôt d’éditer (ou, dans deux cas, de créer), en groupe, les articles de Wikipédia se rapportant aux œuvres et aux auteurs étudiés. Au cours de la session ils devaient réussir à faire obtenir à ces articles ce qu’on nomme dans le jargon Wikipédia le grade d’Article de Qualité.

Lorsque je leur ai assigné cette tâche je ne réalisais pas à quel point c’était ambitieux. Wikipédia définit un Article de Qualité comme un article qui « représente ce que l’on peut de trouver de mieux, et qui répond à des standards professionnels d’écriture et de présentation ». Et ces standards placent de fait la barre très haut. C’est manifestement un des paradoxes de Wikipédia : ses standards sont irréprochables alors même que la majeure partie de son contenu en est fort éloigné. Pour vous donner une idée, moins de 0,1% des articles de Wikipédia possèdent le label Article de Qualité.

En effet, alors que Wikipédia a déjà fait l’objet de nombreux projets pédagogiques au sein d’universités aussi dispersées que celles de Sydney, Hong-Kong, Minnesota et Leiden, c’était à ma connaissance la première fois qu’on demandait explicitement à des étudiants de créer des Articles de Qualité.

Considérations initiales : les avantages de Wikipédia

En plus d’enseigner (même indirectement) aux étudiants les faiblesses et les forces de Wikipédia et en même temps (peut-être incidemment) d’améliorer le contenu de l’encyclopédie concernant l’Amérique Latine, d’autres raisons plus positives venaient étayer ce choix de travail.

L’idée que les étudiants se lançaient dans un projet concret ayant des effets tangibles et publics, à défaut d’être éternels, me plaisait. Après tout, une dissertation ou un examen est un parfait exemple de travail inutile : souvent rédigé à la hâte pour un lecteur unique, le professeur, et ensuite mis de côté.

Je trouve regrettable qu’à de rares exceptions près, comme par exemple dans les ateliers d’écriture, les étudiants ne soient pas plus encouragés à relire et à réfléchir à leur propre travail, où trop souvent ils ne font que jeter un coup d’œil aux commentaires que le professeur aura laborieusement griffonné. C’est compréhensible, puisqu’ayant à ce stade très peu de chances de pouvoir retravailler leur devoir, ils ne s’intéressent alors qu’à leur note et c’est tout. Les étudiants ne découvrent que rarement l’importance des corrections dans un bon travail d’écriture. Alors qu’au contraire, sur Wikipédia, les corrections font (presque) tout : les contributeurs sont appelés « éditeurs » justement parce que leurs écrits sont en permanence au stade de la correction.

De plus ils participeraient à l’élaboration de pages qui, pour certaines (l’article sur Gabriel García Márquez par exemple), reçoivent plus de 60 000 visiteurs par mois. Même les articles les moins visités sur lesquels ils travaillaient recevaient plusieurs centaines de visites par mois. Ici ils écrivaient des articles pour un lectorat ayant la possibilité rare de répondre, de ré-écrire et de commenter le contenu qu’ils produisaient. En effet, travailler sur Wikipédia ouvre la porte au travail collaboratif : les étudiants devaient non seulement collaborer entre eux, mais aussi avec d’autres éditeurs ou des wikipédiens qu’ils ne rencontraient que sur le wiki.

Pour finir, l’idée même que l’attribution de la note soit extérieure à la classe m’attirait. L’idée que le travail soit jaugé à l’aune de son impact et non par le jugement personnel d’un professeur (aussi professionnel soit-il) me plaisait. Dès le départ, j’ai établi avec eux que les groupes qui réussiraient à faire obtenir à leur article la mention Article de Qualité seraient notés A+, c’est aussi simple que ça. Ceux qui atteignaient la mention Bon Article (la barre est placée moins haut, mais les Bons Articles ne représentent tout de même que 0,15% de tous les articles de Wikipédia en anglais) recevraient un A. La note pour ce devoir, en d’autres termes, serait déterminée par l’appréciation collective et publique des autres auteurs.

Considérations initiales : pièges potentiels

J’avoue que je n’ai pas beaucoup pris en considération les écueils de ce plan. Je reconnais que c’était un peu une expérience, mais la tenter me rendait enthousiaste. Ce n’était de toute façon pas le seul point sur lequel le cours serait noté et l’évaluation ne reposerait pas entièrement dessus : les étudiants devaient également tenir à jour un blog hebdomadaire sur leurs lectures et rendre deux devoirs, un à mi-session et un autre à la fin.

(En fin de compte le devoir de fin de session a été abandonné à la majorité des 2/3 de la classe après un vote des étudiants à bulletin secret : 85% d’entre eux ont voté pour l’annulation du devoir final et pour un plus gros coefficient du travail sur Wikipédia.)

J’avais surtout peur que les étudiants soient pris dans une guerre d’édition non constructive et potentiellement décourageante. Une guerre d’édition est un débat sans fin entre des éditeurs qui n’arrivent pas à s’accorder sur le contenu de l’article. Comme dans beaucoup d’interactions en ligne, ces désaccords deviennent rapidement désagréables et provoquent l’intervention d’un administrateur de Wikipédia qui peut décider de « bloquer » l’un des individus impolis, voire les deux. Je n’étais que trop conscient de ce problème puisque dans mes tentatives d’exploration de Wikipédia quelques mois avant de donner ce cours, je me suis retrouvé (plutôt par inadvertance) pris dans de telles guerres, et je me suis fait bloquer pendant quelque temps.

C’est toujours un peu risqué d’amener les étudiants à interagir directement avec la sphère publique. Et, d’une certaine manière, nous devons veiller sur eux. C’est peut-être la raison pour laquelle tellement de technologies de l’éducation (dont WebCT est le meilleur exemple) sont hermétiquement isolées du « monde réel ». Et ça ne serait pas très productif si l’un de mes étudiants se retrouvait bloqué et ne pouvait pas poursuivre son travail ! J’ai donc croisé les doigts en espérant que cette éventualité ne se présente pas.

Premiers pas : « notre » projet se met en route

Wikipédia ne m’était pas totalement inconnue puisque j’avais déjà à mon actif de nombreuses éditions d’articles et même quelques créations (même si ces derniers n’étaient rien d’autre que des ébauches, des versions courtes et préliminaires). Mais jusque là je n’avais pas encore travaillé de manière durable sur un article de Wikipédia. Et bien que j’avais quand même un sentiment de familiarité ainsi qu’un certain sens de la culture Wikipédia, j’avoue que j’étais malgré tout (et le suis d’ailleurs toujours) perplexe devant certains des détails les plus impénétrables des techniques et procédures de ce qui est maintenant devenu une gigantesque et labyrinthique entreprise.

D’un autre côté, cela m’a permis de comprendre l’intimidation que les élèves ne manqueraient pas de ressentir devant la tâche qui se présentaient à eux. Seuls un ou deux étudiants avaient déjà fait des modifications sur Wikipédia et ils étaient peu nombreux à montrer des signes de familiarité avec les conventions du Web. Et ne parlons même pas du code spécifique à Wikipédia (même si celui-ci est simplifié). Je crois que je peux comprendre leur étonnement quand, ayant cliqué pour la première fois sur le bouton « Modifier », ils sont tombés sur une masse confuse de gribouillis caractéristiques des logiciels de wiki.

Pour poser les bases du projet et obtenir du soutien, j’ai enregistré le projet sur une page Wikipédia dédiée à ce genre de choses, j’ai fait apparaître sur tous les articles du projet qu’ils faisaient partie d’une tâche pédagogique, et j’ai démarré une « page projet » décrivant nos objectifs. J’ai aussi laissé des messages sur d’autres projets Wikipédia jugés connexes (principalement des groupes d’éditeurs de Wikipédia qui se concentrent sur un sujet particulier comme par exemple la littérature ou l’Amérique du Sud); j’ai même laissé un mot au journal maison de l’encyclopédie, le Wikipédia Signpost (NdT : le Wikimag en français). J’ai ensuite présenté le projet à la classe, demandé aux étudiants de se créer un compte sur Wikipédia et j’ai croisé les doigts pour que ça marche.

Vous avez peut-être remarqué que je parle de « notre » projet et de « nos » objectifs. J’essaie en général d’inclure tout le monde quand je parle en classe : « nous » lisons les textes « ensemble  », « nous » essayons de comprendre comment les interpréter. Mais ici la sensation était presque palpable : dès le départ je sentais que je faisais aussi partie du projet, sentiment qui n’ira qu’en s’amplifiant dans les semaines suivantes.

Leçon numéro 1 : « ceci pourra être effacé »

Assez rapidement, quand tout le monde fut censé s’être enregistré et avoir commencé à jouer un peu avec les modifications, j’ai apporté mon ordinateur en cours et j’ai présenté les bases aux étudiants. Raccordé à un vidéoprojecteur, je leur ai montré sur grand écran où se trouve l’onglet « Modifier », comment faire une modification mineure (en changeant un mot sur la page Wikipédia de notre université) et comment faire une modification majeure (en vaporisant un article associé à l’université qui était manifestement un plagiat d’un autre site Web).

Un élève m’a par la suite demandé de leur montrer comment créer une nouvelle page. Deux des articles sur lesquels ils travaillaient n’existaient pas alors et j’ai alors décidé de créer El Señor Presidente, dont le seul contenu initial était : « El Señor Presidente est le titre d’un roman de Miguel Ángel Asturias ». J’ai ensuite poursuivi sur d’autres pages avant de revenir à celle-ci quelques instants plus tard… et c’était tout pour la première leçon. Sauf que, à mon grand embarras (et devant la classe entière) j’ai découvert qu’en à peine une minute d’autres éditeurs de Wikipédia avaient déjà collé une énorme bannière rose sur notre tout frais nouvel article avec la mention suivante : « Cette page est susceptible de remplir les critères de Wikipédia pour suppression rapide ». « Les salauds ! » murmurai-je dans ma barbe et je me suis dépêché de modifier le contenu de l’article pour y afficher « El Señor Presidente est le titre du roman le plus important du romancier, lauréat du prix Nobel, Miguel Ángel Asturias », inquiet que notre petit projet se fasse torpiller à peine commencé.

Si j’avais voulu montrer aux étudiants que la modification de Wikipédia est un exercice de négociation avec l’entière communauté d’éditeurs et de lecteurs, je n’aurais pas pu mieux choisir mon exemple. J’ai découvert (depuis) que pour d’autres projets pédagogiques sur Wikipédia, les étudiants sont souvent encouragés à faire un brouillon de leurs articles à l’abri des regards et de les enregistrer sur les pages publiques uniquement lorsqu’ils sont prêts à affronter un examen général. Ici tout était exposé et ouvert dès le début. Mais je n’ai aucun regret. C’est en effet là que le projet a puisé certains de ses meilleurs atouts.

La FA-Team : synergies, du bon et du mauvais

Mais on a rapidement eu un gros coup de chance, alors même que les messages que j’avais envoyés aux différents projets Wikipédia pré-existants semblaient lettre morte (la plupart, d’après ce que j’ai pu voir, étant enterrés ou plus souvent simplement débordés). Il s’est en effet trouvé qu’un groupe d’éditeurs expérimentés de Wikipédia avait commencé à lancer des idées pour augmenter le nombre d’Articles de Qualité sur Wikipédia. Ils se sont baptisés la « FA-Team » (NdT : L’équipe des Articles de Qualité, FA pour Featured Articles) et cherchaient alors un projet auquel participer. Or ils « nous » ont repéré et nous ont écrit pour savoir si nous désirions un coup de main.

Est-ce que nous désirions un coup de main ? Évidemment !

La FA-Team s’est répartie les articles du projet, ils ont laissé des messages d’accueil sur la page de discussion de chaque étudiant (les pages personnelles spécifiques à chaque utilisateur enregistré de Wikipédia et qui fonctionnent comme des pages où les éditeurs peuvent entrer en contact directement avec l’utilisateur) et ils ont débuté leur mission d’encouragement, de conseil et de guide auprès de notre groupe afin de nous pousser à rédiger des articles de Wikipédia de haut niveau. Ce sont des gens très méticuleux, dévoués, et par dessus tout généreux.

Je réalise maintenant que la FA-Team nous a fait la démonstration de la plus grand force (et peut-être aussi la plus grande faiblesse) de Wikipédia : la synergie. Les éditeurs de Wikipédia sont attirés par l’activité. J’irai même plus loin : ils sont particulièrement attirés par l’activité qui aboutit à l’ajout de contenu nouveau à l’encyclopédie. Un bon exemple de cette attraction est l’avertissement que j’ai reçu après avoir créé une page : il existe un noyau de volontaires de Wikipédia qui scrute sans cesse la création de nouvelles pages, prêts à se jeter dessus si un sujet déplacé ou non-encyclopédique est proposé. N’importe qui peut créer une page Wikipédia, mais si vous en créez une sur vous, votre petit groupe de musique ou votre chat, attendez vous à la voir disparaître sans avoir le temps de dire ouf.

De même, beaucoup de personnes émettent des critiques à l’encontre de Wikipédia, la plus connue étant peut-être celle du comédien américain Stephen Colbert, justement parce que n’importe qui peut ajouter n’importe quelle bêtise à un article. Mais je crois que ces personnes ne réalisent pas que des équipes dévouées de wikipédiens surveillent les modifications récentes pour éliminer rapidement ces bêtises flagrantes.

Mais l’aspect vraiment constructif de la réactivité de Wikipédia s’est également manifesté quand, dans les deux jours suivants la création de la page El Señor Presidente, une petite armée d’éditeurs a apporté des modifications mineures qui, combinées, ont apporté des changements importants dans la mise en page. Un des étudiants a ensuite ajouté un fragment d’information qu’il avait trouvé sur un autre site Web. Un petit coup de mise en page réalisée par d’autres éditeurs et au cours suivant cet article ressemblait déjà aux autres pages Wikipédia. Un peu court peut-être, plutôt incomplet et avec quelques sources tirées un peu au hasard d’Internet, mais il apportait des informations sur le sujet aux lecteurs, au moins le minimum, et surtout il était intégré au grand vaisseau Wikipedia.

(Je devrais préciser ici que j’étais indifférent au fait que le travail final des étudiants pourrait ne pas être « entièrement leur travail ». Pour moi, réussir à persuader d’autres personnes de travailler avec eux, travailler en harmonie avec des inconnus faisait également partie du projet. On peut évidemment se dire qu’ils pouvaient tricher pour accomplir leur devoir, comme pour n’importe quel autre devoir, par exemple en payant une tierce personne pour écrire les articles à leur place. Mais en fait le logiciel wiki qui suit les contributions de chacun offre une transparence inégalée, on sait ce que les étudiants font, étape par étape, qui, quoi et quand.)

Ainsi, l’intervention de la FA-Team n’était donc pas exceptionnelle. Ce n’est qu’un exemple de ce principe de synergie porté à une échelle légèrement plus importante et développée. On peut énoncer le principe de synergie ainsi : plus vous contribuez à Wikipédia, plus votre activité résonne et est développée et multipliée par l’activité d’autres personnes. Certes, les guerres d’édition existent, mais d’après mon expérience elles n’affectent en général pas l’ajout de nouveaux contenus. Ce n’était pas juste de la chance, on était tombé sur l’un des principes de base du fonctionnement du wiki.

L’inconvénient de ce principe est que là où Wikipédia est moribond, il le demeure. Bien qu’en théorie l’activité sur Wikipédia bourdonne en continu, en pratique un coup d’œil à l’historique de quelques pages (une information à portée de clic) suffira à vous convaincre que ces pages sont en fait plutôt stables. Un mauvais article pourra le rester pendant une très longue période. Ainsi dans notre projet nous avions les exemples de deux articles plus anciens (et donc plus importants) : les entrées pour Gabriel García Márquez et Mario Vargas Llosa, restées presque inchangées pendant des années, mis à part un petit peaufinage ça ou là. Nous nous devions donc d’y remédier.

Chercher et… chercher encore

C’est alors devenu un travail de recherche. Les étudiants devaient trouver ce qui est appelé en jargon wikipédien des sources sûres. Une doctrine fondamentale de Wikipédia (même si cela peut sembler étrange voire paradoxal, particulièrement pour des universitaires) est qu’elle ne sert pas à la publication de résultats inédits. Une entrée encyclopédique n’est pas faite pour introduire un débat. C’est la différence principale entre dissertation traditionnelle et Wikipédia.

La FA-Team ayant pris en charge le travail de mise en page ainsi que les tâches routinières, les étudiants étaient libres de s’adonner entièrement à la recherche. Mais c’était sans compter un autre piège qui nous a beaucoup ralenti et que nous aurions dû pourtant anticiper puisque ses racines plongent au cœur même des règles de Wikipédia : le fait que les étudiants n’évaluent pas suffisamment leurs sources.

Il faut se rappeler que le problème à la base de ce projet est que les étudiants se fient trop à Wikipédia sans vraiment en considérer les risques et les inconvénients. Il n’était en fait guère étonnant de les voir reproduire les mêmes erreurs en cherchant des sources pour les articles qu’ils devaient rédiger. Ainsi, il n’était pas rare qu’ils ajoutent des informations non vérifiables ou mal documentées (et trop souvent plagiées) ou qu’ils usent et abusent de citations d’autres pages Web et encyclopédies en ligne.

Et pourtant c’est de là aussi qu’a été tirée l’une des meilleures leçons de ce travail. Parce que Wikipédia exige que chaque information soit étayée par une référence (ce que les membres de la FA-Team répétaient inlassablement), les étudiants se sont retrouvés forcés de citer leurs sources. Ces sources pas forcément fiables se sont donc retrouvées exposées, ce qui n’aurait pas nécessairement été le cas pour un examen de session. De plus, justement parce que la rédaction sur Wikipédia est un processus de révision permanente, il a été demandé à certains de reprendre leur travail de recherche pour ré-évaluer leurs sources, pour en trouver de plus fiables avant de reprendre la rédaction. Par la même occasion le problème des plagiats a été réglé simplement parce que plus personne ne recopiait de passages en les faisant passer pour un produit fini.

Pour résumer, ce travail a fait ressortir les faiblesses initiales des étudiants dans le domaine de la recherche, mais ces faiblesses étaient bien la raison d’être de ce devoir. Ils ont cependant appris que rechercher des informations (et les mettre en forme) est un processus, souvent long, où l’on commence avec des sources parfois douteuses (comme Wikipédia lui-même) pour progresser vers des éléments ou preuves toujours plus solides, jusqu’à découvrir de nouvelles informations occultées par les premières sources.

Autres observations : un travail professionnel

Au moment où j’écris ceci, l’accouchement sous péridurale du projet n’est toujours pas terminé. Un article, celui que j’avais ironiquement créé devant la classe, a passé sa première inspection avec succès, une inspection particulièrement rigoureuse d’ailleurs, ce qui lui vaut maintenant le grade de Bon Article. Mes étudiants sont donc à l’origine d’une partie des 0,15% de ce que Wikipédia a de meilleur à offrir et tout cela en partant de rien. De plus, parmi ces 0,15% ne figure aucun autre travail littéraire d’Amérique Latine. Ils (nous ?) ont toutes les raisons d’être fiers d’eux[1]. Pour autant que je sache, c’est le seul travail éducatif sur Wikipédia à avoir directement abouti à un Bon Article[2].

Évidemment tout ne s’est pas fait sans accroc. Deux articles n’ont pour le moment pas vraiment progressé. Le rêve de créer douze nouveaux Articles de Qualité ne restera sans doute qu’un rêve (signifiant par là-même que toute la classe aurait eu la note A+ à un devoir représentant désormais 40% de leur note finale). Mais je suis sûr qu’il en sortira encore une série de Bons Articles (deux autres sont en cours d’évaluation), et certains seront sûrement nominés pour le grade d’Article de Qualité.

Voici donc la résultante d’un travail rigoureux qui, parce qu’il avait pour cadre ce site Web tant décrié qu’est Wikipédia, était loin d’être une solution de facilité. C’était même plutôt le contraire.

Je ne suis toujours pas aveuglé par Wikipédia, loin s’en faut. Il faut bien se dire que c’est une encyclopédie dont seulement une infime fraction de ses articles sont considérés comme de « bons » articles, même par ses propres éditeurs. D’autres faiblesses de Wikipédia sont plus apparentes que jamais, on les retrouve même à un certain degré dans ce projet : un article moribond aura tendance à le rester, et certaines sources sont discutables et souvent plagiées.

Mais, pour la défense de Wikipédia, je dois dire que je n’avais jusqu’alors pas réalisé à quel point ses propres critères sont ambitieux et avec quelle rigueur ils sont appliqués, ni même remarqué l’efficacité du processus collaboratif… si vous êtes prêt à apporter votre contribution et surtout si vous êtes prêt à faire les recherches nécessaires à l’ajout d’informations vérifiables. Là encore je dois dire que nous avons été particulièrement chanceux dans les rencontres que nous avons faites, mais je pense aussi que d’autres bénéficieront de la même bonne fortune.

En ce qui concerne le travail, qui je le répète est loin d’être achevé… j’aimerais croire qu’il enseigne aux étudiants l’art de la recherche et de l’écriture dans un environnement proche du monde réel. Il leur a été assigné au début du semestre un but à moyen terme, voire à long terme, et il leur a été demandé de travailler en collaboration au sein de leurs propres groupes mais aussi avec des inconnus dans un environnement ouvert afin d’établir comment parvenir à ce but et comment le réaliser. Ce travail devait déboucher sur un résultat professionnel, visible par des milliers de personnes, une ressource qui dans la plupart des cas serait la première escale de chercheurs futurs, qu’ils soient étudiants comme eux ou qu’ils fassent simplement partie des millions de visiteurs de Wikipédia de par le monde. La plupart de ces articles sont en effet le premier résultat affiché (ou presque) lors d’une recherche sur Internet sur le sujet traité.

En comparaison, les dissertations et les examens classiques que nous donnons à nos étudiants paraissent plutôt anecdotiques.

Inutile ? Pas d’argumentation

Ce que les étudiants n’apprennent pas par contre à travers ce projet est le développement d’un argument. L’argumentation, la construction cohérente d’une série d’idées, la défense et l’étayement d’une thèse convaincante, est évidemment au cœur de l’enseignement académique. J’attache beaucoup d’importance à cette compétence.

Mais on peut également dire que dans la plupart des emplois qu’occuperont les étudiants après la fin de leur cursus, l’argumentation ne tiendra pas une place aussi importante que dans le monde académique. À l’opposé, la recherche d’informations, la présentation, l’exactitude, l’aptitude à travailler en équipe et la capacité à négocier avec la sphère publique leur seront bien plus utiles (même si ça me fait un peu mal de l’admettre).

De plus, l’écriture sur Wikipédia leur inculque la pensée critique, peut-être pas celle qui est en général abordée à l’université… mais peut-être le devrait-elle. Les éditeurs de Wikipédia sont sans cesse encouragés à faire preuve d’esprit critique vis-à-vis des informations qu’ils trouvent et également vis-à-vis de leurs propres écrits.

J’ai un peu peur d’avoir trop enjolivé la chose. Je le ferai différemment si je suis un jour amené à le refaire. Et je dois vous avouer que j’ai souvent eu l’impression de faire un numéro d’équilibriste, que tout pouvait s’écrouler à tout moment. D’ailleurs nous ne sommes toujours pas à l’abri. Mais si quelque chose tourne mal je pourrai toujours modifier ce texte…

Oh, et si ça vous dit, n’hésitez pas à donner un coup de main sur Murder, Madness, and Mayhem !

El Senor Presidente - Accueil Wikipédia - 5 mai 2008

Les autres articles du dossier

  • 1/6 – Introduction
    Un projet pédagogique « de qualité ».
  • 2/6 – Le projet vu par l’enseignant
    Présentation, chronique et analyse du projet par le professeur Jon Beasley-Murray (à lire en premier).
  • 3/6 – Le projet vu par un éditeur de Wikipédia
    Le point de vue d’un éditeur de Wikipédia, membre de « l’équipe des Articles de Qualité », ayant accompagné et soutenu les étudiants pendant la durée de leurs travaux.
  • 6/6 – Liens connexes
    Une sélection de liens francophones autour de Wikipédia et l’éducation.

Notes

[1] Le 10 avril 2008, El Señor Presidente est devenu le 2000ème Article de Qualité de Wikipedia. Cet article apparaîtra sur la première page de Wikipédia le 5 mai. Au final, les étudiants ont porté deux autres articles au niveau d’exigence requis pour obtenir le grade d’Article de Qualité (Mario Vargas Llosa et The General in His Labyrinth) tandis que huit autres ont obtenu le grade de « Bon Article ». Les seuls autres articles portant sur la littérature Latino-américaine à ce niveau sont Mário de Andrade et Jorge Luis Borges (bien qu’aujourd’hui ils n’obtiendraient certainement plus cet honneur, il est en effet intéressant de noter que les critères de qualité de Wikipédia augmentent régulièrement avec le temps). Grâce à nous, le nombre d’Articles de Qualité sur la culture latino-américaine a donc très fortement augmenté

[2] Plus de détails ici.




Wikipédia et éducation : un exemple de réconciliation 3/6

Cet article fait partie du dossier Wikipédia et éducation : un exemple de réconciliation.

C’est la traduction du témoignage d’un éditeur de Wikipédia ayant aidé les étudiants à atteindre leur objectif, à savoir la quête de l’Article de Qualité, qui est ici présentée.

Copie d'écran - Wikipédia - Témoignage wikipédien

Wikipédia et université : Murder, Madness and Mayhem ?

Wikipedia and academia: Murder, Madness and Mayhem?

EyeSerene – 14 avril 2008 – Wikipédia
(Traduction Framalang : Olivier)

Quand l’idée a été soulevée de mettre sur pied une équipe d’éditeurs spécifiquement dédiée à l’obtention du label Article de Qualité, nous sommes entrés en contact avec le Wikiprojet Murder, Madness and Mayhem (NdT : Meutre, Folie et Chaos, MMM) pour ce que nous pourrions appeler notre première mission. Deux réactions antagonistes sont alors nées en moi. Je me suis exclamé « magnifique ! » mais une voie plus sceptique murmurait « hum… pourquoi pas ». La première émane de ma foi dans « le rêve », la deuxième de mon expérience sur le terrain du travail sur Wikipédia.

Je crois avec ferveur en la vision de Wikipédia ainsi résumée « Imaginez un monde dans lequel chacun puisse avoir, partout sur la planète, libre accès à la somme de toutes les connaissances humaines. C’est ce que nous sommes en train de faire » (Jimmy Wales). Évidemment, certains avertissements sont de rigueur, peut-être que l’adjectif « vérifiable » devrait être ajouté ici !, mais derrière tous les articles de groupes de musique méconnus, d’écoles primaires et d’épisodes des Simpson, le rêve se poursuit. Les gens instruits sont des gens libres et autonomes et une longue route a été tracée depuis le temps où le savoir et l’éducation n’étaient réservés qu’à une petite élite… mais il nous reste encore beaucoup de chemin à parcourir.

Peut-être sommes nous de doux rêveurs à croire qu’une encyclopédie peut changer le monde, mais pour moi l’important n’est pas là. C’est le concept sous-jacent qui me motive. Et si les gens, indépendamment de leur race, de leur religion, de leur emplacement géographique ou quoi que ce soit d’autre pouvaient s’unir comme nous le faisons ici ? Et si ils pouvaient s’affranchir des frontières, des gouvernements et des contraintes sociales pour communiquer et collaborer les uns avec les autres de manière constructive et créer quelque chose qui est infiniment plus grand que la somme de ses parties ? Je pense alors qu’il serait très difficile de convaincre un public ainsi informé et lié que tel groupe ou telle nationalité est en fait leur ennemi, alors qu’une longue expérience personnelle leur affirme le contraire. Le fait que Wikipédia soit banni ou restreint dans certaines parties du monde et chez certains régimes politiques en dit long sur la peur que peut engendrer ce simple concept « d’information en accès libre ».

Évidemment, et quand bien même tous ceux qui comme moi tiennent à la crédibilité de notre encyclopédie aiment à penser que le savoir que nous mettons à disposition est vraiment utile, nous devons aussi tenir compte de tous ces articles de groupes de musique méconnus, d’écoles primaires ou d’épisodes des Simpson. Mais sous bien des aspects c’est ce qui fait la force de notre modèle.La force magnétomotrice, un article technique qui capte une audience relativement faible et spécialisée, est classé dans la catégorie des articles à étoffer même s’il existe dans l’encyclopédie depuis bientôt quatre ans. L’article Les Simpson fait quant à lui l’objet de modifications permanentes, il s’est largement étoffé et se décline aujourd’hui dans plus de soixante langues (alors qu’on ne trouve que six localisations de la force magnétomotrice). Si nous acceptons le fait que Wikipédia est plus qu’une encyclopédie, nos articles sur la pop-culture font clairement parti de notre succès. Ils participent à la collaboration et aux interactions sociales au-delà des continents et des océans et peut-être que ce sont ces articles qui reflètent le mieux la vision de Wikipédia.

La crédibilité culturelle de Wikipédia n’est plus à démontrer. Vous voulez savoir quel docteur a pris la suite de Patrick Troughton (NdT : dans la série TV Docteur Who) ? Vous voulez connaître le nom de la maison de Harry Potter ? Où irons-nous alors en priorité ? J’aimerais cependant que Wikipédia soit également reconnu comme une source académiquement acceptable. On sait bien désormais que Wikipédia constitue la première étape de n’importe quelle recherche pour la majorité des étudiants, et ce dès le secondaire. On peut débattre du bien-fondé de cette habitude, mais en tant qu’étudiant planchant en fin d’étude sur la diffractométrie de rayons X, j’aurais certainement apprécié en 1989 avoir cette ressource primaire, quand bien même l’article en lui même n’aurait évidemment pas été suffisant.

Wikipédia ne peut pas se substituer à une recherche bibliographique, vous devez quand même lire les bons articles et les bons journaux. Il ne peut pas vous enseigner une matière non plus, nos articles ne sont pas écrits dans cette optique, bien qu’ils soient assez complets pour qu’un lecteur néophyte puisse comprendre de quoi il en retourne. Si vous attendez ceci de Wikipédia (que tout le travail soit déjà fait ou qu’il vous enseigne une matière), vous vous trompez lourdement sur les buts de Wikipédia. Mais le fait est que notre encyclopédie a été, est et restera certainement toujours utilisée ainsi. Cependant combien d’étudiants comprennent véritablement la différence entre se rendre sur leur source d’information en ligne préférée pour vérifier la réponse à une question de quizz sur le nombre de test centuries que Andrew Strauss a inscrit (la réponse est 12 au fait) et citer cette information dans la biographie d’un joueur de cricket ?

C’est là, pour moi, la fascinante dichotomie du Wikiproject Murder Madness and Mayhem de Jbmurray. Il faut avouer qu’on a commencé à s’habituer à ce que notre encyclopédie ou nos articles soient tournés en ridicule par le monde universitaire et, même si ce n’est pas toujours de gaieté de cœur, il nous faut bien reconnaître que leurs critiques ne sont pas infondées. Wikipédia a la réputation de ne pas respecter l’expertise auto-proclamée et les arguments des experts sont rarement pris au sérieux. Du fait de l’anonymat des éditeurs et de l’impossibilité de vraiment connaître les références de la personne de l’autre côté du modem je ne vois pas comment il pourrait en être autrement… mais devoir étayer chaque affirmation par une source vérifiable a sans aucun doute repoussé des éditeurs qui autrement auraient apporté une contribution importante à notre effort.

De nombreux universitaires, indignés d’être traités de la sorte par des gens qu’ils ne connaissaient pas ou qu’ils ne respectaient pas (intellectuellement s’entend !), se sont retirés du projet avec dégoût, résolus à ne jamais plus employer Wikipédia et à ne plus jamais en encourager l’usage non plus.

J’ai également souvenir d’un incident où l’auteur d’un livre cité dans un article a tenté de corriger l’article, mais sa modification a été refusée par des éditeurs qui se sont servis de son propre livre pour justifier le rejet. Frustré, il répondit en substance « C’est moi l’auteur de ce foutu texte que vous citez à tort, je sais de quoi je parle ! », mais ça ne l’a pas beaucoup aidé. D’un autre côté, pourquoi en tant qu’éditeurs devrions-nous accepter aveuglément ce que nous dit un « expert » auto-proclamé ? N’est-ce pas ce qui fait en partie la vision de Wikipédia ? Nous ne nous contentons pas (ou nous ne devrions pas nous contenter) de donner les faits… idéalement nous fournissons aussi des sources afin que tout un chacun puisse vérifier ces faits. On retombe sur « l’accès libre à l’information » !

Mon enthousiasme pour le projet novateur de Jbmurray, l’espoir qu’il est possible non seulement d’améliorer notre encyclopédie (ce qui me tient à cœur) en aidant les élèves dans leurs études, mais aussi de renforcer sa crédibilité et peut-être même de recruter de nouveaux accrocs à Wikipédia éditeurs, a donc été quelque peu tempéré par les expériences qu’ont eu de nombreux universitaires avec nous. Évidemment, Jbmurray n’était pas exactement un novice sur Wikipédia et il était déjà au courant des particularismes, voire même parfois des absurdités, qui maintiennent notre effort sur de bons rails, mais cela ne préfigurait en rien du succès de son projet.

Côté technique, j’avais de gros doute qu’on puisse ne serait-ce qu’approcher le grade d’Article de Qualité pour chaque article du projet. Malgré ce que peuvent en dire les critiques, rédiger un Article de Qualité est un processus complexe et rigoureux qui demande une grande disponibilité, beaucoup d’énergie et, oserais-je le dire, de l’expertise (pas seulement sur le sujet de l’article mais aussi sur les critères strictes des Articles de Qualité). Le seul moyen d’atteindre ce but était que la FA-Team collabore étroitement avec Jbmurray et les éditeurs de MMM.

J’ai tiré de mon expérience sur Wikipédia la conclusion que pour certains éditeurs le principe de la collaboration restera à tout jamais un mystère. Et pourtant il n’y a rien de bien sorcier si tout le monde y met de la bonne volonté. C’est évident que si les éditeurs sont traités avec respect, approchés de manière ouverte et amicale, remerciés pour ce qu’ils font de bien et réprimandés (poliment !) lorsqu’ils se trompent, ils répondront alors positivement dans la plupart des cas. Que ce soit sur Internet ou dans la vraie vie, certains sembleront toujours génétiquement incapables de formuler des encouragements ou de recevoir des critiques, mais ces personnes poussent à bout la patience de la communauté et finalement abandonnent le navire.

Bien que nous baignons dans un monde virtuel, nous avons à faire avec des personnes bien réelles avec des émotions bien réelles au bout de la connexion, alors pourquoi devraient-elles être traitées plus durement que si nous les rencontrions dans notre bureau, notre salle de classe ou au bar… et au nom de quoi devrions nous fermer les yeux sur de tels agissements ? Wikipédia s’auto-gère assez bien, ce qui profite à la collaboration, et comme le note Jbmurray ceci peut déboucher sur une synergie qui vous permet de croire que notre vision est vraiment à notre portée. Il soulève ici un corolaire très intéressant, un corolaire qui touche à la critique universitaire. Lorsque la collaboration existe (et en déformant les paroles bibliques, lorsque deux éditeurs ou plus s’unissent au nom de Wikipédia…), de grandes choses peuvent se produire.

Mais lorsque l’on permet aux articles de se morfondre dans leur médiocrité, et cela arrive encore trop souvent pour des articles techniques, ésotériques ou académiques, c’est notre réputation qui s’en retrouve entachée. Au bout du compte, tout ce que l’on obtient alors est de l’antagonisme, qu’il représente aussi bien le « contraire de la synergie » que la « caractérisation de la réaction des personnes qui accèdent à ces articles ».

Grâce au soutien universitaire de Jbmurray, aux encouragement et aux conseils techniques de la FA-Team, les rédacteurs étudiants de MMM ont produit un impressionnant travail de fond, fait d’autant plus remarquable que beaucoup n’avaient jamais édité dans Wikipédia avant ce travail. Dans un certain sens nous poussons ici plus loin encore qu’à l’accoutumée les capacités de la communauté à travailler dans la même direction, puisque, contrairement à nous wikipédiens, les éditeurs de MMM ne sont pas ici de leur plein gré mais parce qu’ils y sont obligés, de leur succès dépendent leurs notes ! Voilà qui les pousse à collaborer encore davantage pour atteindre leur but, mais c’est une motivation autre que celle qui anime d’ordinaire nos éditeurs volontaires.

Je ne suis pas naïf au point d’imaginer que tous les wikipédiens adhèrent à l’idéal de Wales, chaque éditeur a sa propre motivation et certaines sont moins louables que d’autres. Quoiqu’il en soit, si on met de côté ceux qui sont là pour, par exemple, créer des articles vaniteux ou pour faire de la publicité pour leur commerce, le résultat final est le même et encore une fois, c’est la collaboration de tant de personnalités différentes pour aboutir à un but commun qui me donne espoir et qui me fait croire à la mission de Wikipédia.

La collaboration n’est pas toujours simple (si c’était le cas, des groupes comme le Comité d’Arbitrage et des pages comme l’Appel aux commentaires seraient largement superflus) et dès le début certains des éditeurs de MMM ont dû se frayer un chemin dans le méandre des révisions des articles, prenant alors potentiellement le risque de déclencher de nouvelles guerres d’édition ou pire encore. Ils y sont très bien parvenus grâce à leur propre envie d’apprendre et grâce à la bonne volonté dont ont fait preuve les éditeurs réguliers qui n’étaient pas familiers avec ce projet et ces objectifs, sachant que la différence entre le premier essai timide d’un nouvel éditeur et l’acte de vandalisme est parfois difficile à discerner.

Alors, sur quoi va déboucher cette expérience MMM ? On en aura évidemment une meilleure idée quand elle aura déjà un peu de vécu, mais on peut espérer que les étudiants la trouveront enrichissante et instructive, qu’ils en retiendront plus que juste les notes qu’ils recevront. Scolairement parlant, comme l’écrit Jbmurray, ils devraient en tirer une meilleure compréhension de la nécessité d’étayer leurs informations avec des sources vérifiables et ils devraient aussi mieux percevoir les limitations d’une encyclopédie en temps que ressource. Wikipédia ne peut être, même dans le meilleur des cas, que le point de départ d’une recherche approfondie. Le projet a peut-être aussi posé les bases d’un modèle qui aura du succès dans le monde universitaire.

Cela ne fait aucun doute, de nombreuses personnes parmi les éditeurs sont hautement qualifiées dans leur domaine et dans le partage de leurs connaissances dans ce domaine au sein même de l’encyclopédie, contribuant à améliorer le niveau global de Wikipédia. Mais la sempiternelle question de la couverture du sujet reste toujours en suspens dans la communauté (ou plutôt chez ceux qui s’intéressent plus particulièrement à la qualité des articles). Nous pouvons imposer des règles et des critères pour les Bons Articles ou pour les Articles de Qualité mais, en tant que non-experts, comment être surs qu’un article est complet et précis ? Nous pouvons utiliser les sources mentionnées et vérifier les références, mais sans un expert à disposition nous devons nous reposer sur l’article lui-même pour obtenir ces informations.

D’une manière générale notre travail est satisfaisant, car même en tant que non-experts quelques recherches nous permettent de juger de la profondeur (ou du manque de profondeur) de la couverture d’un article. Mais comme l’a prouvé cette expérience, les conseils d’experts sont inestimables. Pour résumer, nous avons besoin des universitaires car apparemment leurs étudiants ont besoin de nous.

Naturellement, des mises en garde sont de rigueur. Si certains experts ne voient en Wikipédia que frustration et antagonisme, c’est principalement car ils n’ont pas à l’esprit la spécificité de Wikipédia, à savoir sa communauté et ses lois. Même si la grande majorité des éditeurs supposera la bonne foi, le respect se gagne. C’est seulement en lisant les règles de Wikipédia et en faisant l’effort de vous y tenir que vous gagnerez ce respect qui donnera du poids à vos opinions et vos propositions. Quelle crédibilité peut-on accorder à universitaire étranger débarquant dans un séminaire en imposant ses propres pratiques et en faisant fi des convenances et traditions locales ?

Pourquoi devrions nous alors accepter ce genre de comportement ? Comme Jbmurray le fait remarquer, la capacité à développer une idée et de la défendre avec ardeur a moins de valeur sur Wikipédia que la capacité à négocier un consensus… et de se retirer avec élégance si ce consensus ne va pas dans notre sens, même lorsque les autres éditeurs ont ponctuellement clairement tort (ce qui arrive inévitablement avec une communauté de cette dimension). Mais à long terme, est-ce vraiment important ? Le consensus peut évoluer, et un article peut toujours être revu une semaine après, un mois après, une année après…

L’incapacité chronique de certains universitaires et experts à réaliser que Wikipédia n’est pas l’extension de leur faculté et qu’elle n’est pas par conséquent sous leur autorité, que notre mission est simplement de reproduire ce qui a déjà été publié par des sources vérifiables (vérifiabilité, pas vérité), et que leurs compétences dans un domaine ne les dote pas nécessairement de la capacité à bien faire dans d’autres domaines, a sans aucun doute affecté les relations dans les deux sens. Cependant le monde académique a beaucoup à y apporter, si l’on ne se trompe pas sur ce qu’est Wikipédia (et encore plus ce qu’elle n’est pas ou ce qu’elle ne prétend pas être). C’est ce que démontre le projet MMM de Jbmurray où tout le monde est au final gagnant.

El Senor Presidente - Accueil Wikipédia - 5 mai 2008

Les autres articles du dossier

  • 1/6 – Introduction
    Un projet pédagogique « de qualité ».
  • 3/6 – Le projet vu par un éditeur de Wikipédia
    Le point de vue d’un éditeur de Wikipédia, membre de « l’équipe des Articles de Qualité », ayant accompagné et soutenu les étudiants pendant la durée de leurs travaux.
  • 6/6 – Liens connexes
    Une sélection de liens francophones autour de Wikipédia et l’éducation.