Un autre monde est possible selon André Gorz (et le logiciel libre)

Imago - CC by-nc-saAvant de se donner la mort en septembre 2007, le philosophe et journaliste André Gorz a transmis un dernier texte à la revue EcoRev’, qu’il avait parrainée lors de sa création, intitulé « La sortie du capitalisme a déjà commencé ».

Nous le reproduisons ici pour alimenter le débat, en rappelant que le sous-titre de ce blog stipule que « ce serait l’une des plus grandes opportunités manquées de notre époque si le logiciel libre ne libérait rien d’autre que du code ». Ce texte ayant fait l’objet d’une version remaniée, nous avons choisi de mettre en ligne l’un après l’autre les deux articles, qui bien que très proches, offrent tout de même d’intéressantes nuances.

Extrait de la version remaniée :

Ce qui importe pour le moment, c’est que la principale force productive et la principale source de rentes tombent progressivement dans le domaine public et tendent vers la gratuité ; que la propriété privée des moyens de production et donc le monopole de l’offre deviennent progressivement impossibles ; que par conséquent l’emprise du capital sur la consommation se relâche et que celle-ci peut tendre à s’émanciper de l’offre marchande. Il s’agit là d’une rupture qui mine le capitalisme à sa base. La lutte engagée entre les logiciels propriétaires et les logiciels libres (libre, free, est aussi l’équivalent anglais de gratuit) a été le coup d’envoi du conflit central de l’époque. Il s’étend et se prolonge dans la lutte contre la marchandisation de richesses premières – la terre, les semences, le génome, les biens culturels, les savoirs et compétences communs, constitutifs de la culture du quotidien et qui sont les préalables de l’existence d’une société. De la tournure que prendra cette lutte dépend la forme civilisée ou barbare que prendra la sortie du capitalisme.

Cette sortie implique nécessairement que nous nous émanciperons de l’emprise qu’exerce le capital sur la consommation et de son monopole des moyens de production. Elle signifie l’unité rétablie du sujet de la production et du sujet de la consommation et donc l’autonomie retrouvée dans la définition de nos besoins et de leur mode de satisfaction. L’obstacle insurmontable que le capitalisme avait dressé sur cette voie était la nature même des moyens de production qu’il avait mis en place : ils constituait une mégamachine dont tous étaient les serviteurs et qui nous dictait les fins à poursuivre et la vie a mener. Cette période tire à sa fin. Les moyens d’autoproduction high-tech rendent la mégamachine industrielle virtuellement obsolète. Claudio Prado invoque l’appropriation des technologies parce que la clé commune de toutes, l’informatique, est appropriable par tous. Parce que, comme le demandait Ivan Illich, chacun peut l’utiliser sans difficulté aussi souvent ou aussi rarement qu’il le désire… sans que l’usage qu’il en fait empiète sur le liberté d’autrui d’en faire autant ; et parce que cet usage (il s’agit de la définition illichienne des outils conviviaux) stimule l’accomplissement personnel et élargit l’autonomie de tous. La définition que Pekka Himanen donne de l’Ethique Hacker est très voisine : un mode de vie qui met au premier rang les joies de l’amitié, de l’amour, de la libre coopération et de la créativité personnelle.

Extrait de la version originale :

Pourtant une tout autre voie de sortie s’ébauche. Elle mène à l’extinction du marché et du salariat par l’essor de l’autoproduction, de la mise en commun et de la gratuité. On trouve les explorateurs et éclaireurs de cette voie dans le mouvement des logiciels libres, du réseau libre, de la culture libre qui, avec la licence CC (creative commons) rend libre (et libre : free signifie, en anglais, à la fois librement accessible et utilisable par tous, et gratuit) de l’ensemble des biens culturels – connaissances, logiciels, textes, musique, films etc. – reproductibles en un nombre illimité de copies pour un coût négligeable. Le pas suivant serait logiquement la production « libre » de toute le vie sociale, en commençant par soustraire au capitalisme certaines branches de produits susceptibles d’être autoproduits localement par des coopératives communales.

Ce genre de soustraction à la sphère marchande s’étend pour les biens culturels où elle a été baptisée « out-cooperating », un exemple classique étant Wikipedia qui est en train d’« out-cooperate » l’Encyclopedia Britannica. L’extension de ce modèle aux biens matériels est rendue de plus en plus faisable grâce à le baisse du coût des moyens de production et à la diffusion des savoirs techniques requis pour leur utilisation. La diffusion des compétences informatiques, qui font partie de la « culture du quotidien » sans avoir à être enseignés, est un exemple parmi d’autres. L’invention fabbers, aussi appelés digital fabicators ou factories in a box – il s’agit d’une sorte d’ateliers flexibles transportables et installables n’importe où – ouvre à l’autoproduction locale des possibilités pratiquement illimitées.

Un texte qui pour certains a valeur de référence et que nous souhaitions vous faire partager.

Non seulement André Gorz[1] y annonce par anticipation la crise que nous vivons actuellement (et peut-être aussi les logiques sous-jacentes à la loi Hadopi) mais il nous propose également quelques pistes pour en sortir. Que le logiciel libre soit aujourd’hui un exemple, un espoir et une source d’inspiration aux solutions envisagées n’est en rien étonnant tant nous sommes allés loin dans la privatisation des biens communs et la déshumanisation du monde…

La sortie du capitalisme a déjà commencé (version 2)

URL d’origine du document

André Gorz – 17 septembre 2007 – EcoRev

EcoRev’ précise : Ce texte qu’André Gorz a terminé d’écrire le 17/09/2007 est une version revue et approfondie de celui écrit pour le manifeste d’Utopia (voir ci-dessous). Rebaptisé pour notre dossier Le travail dans la sortie du capitalisme il a depuis été publié dans son livre posthume Écologica sous le titre La sortie du capitalisme a déjà commencé.

La question de la sortie du capitalisme n’a jamais été plus actuelle. Elle se pose en des termes et avec une urgence d’une radicale nouveauté. Par son développement même, le capitalisme a atteint une limite tant interne qu’externe qu’il est incapable de dépasser et qui en fait un système qui survit par des subterfuges à la crise de ses catégories fondamentales : le travail, la valeur, le capital.

La crise du système se manifeste au niveau macro-économique aussi bien qu’au niveau micro-économique. Elle s’explique principalement par un bouleversement technoscientifique qui introduit une rupture dans le développement du capitalisme et ruine, par ses répercussions la base de son pouvoir et sa capacité de se reproduire. J’essaierai d’analyser cette crise d’abord sous l’angle macro-économique, ensuite dans ses effets sur le fonctionnement et la gestion des entreprises.

L’informatisation et la robotisation ont permis de produire des quantités croissantes de marchandises avec des quantités décroissantes de travail. Le coût du travail par unité de produit ne cesse de diminuer et le prix des produits tend à baisser. Or plus la quantité de travail pour une production donnée diminue, plus le valeur produite par travailleur – sa productivité – doit augmenter pour que la masse de profit réalisable ne diminue pas. On a donc cet apparent paradoxe que plus la productivité augmente, plus il faut qu’elle augmente encore pour éviter que le volume de profit ne diminue. La course à la productivité tend ainsi à s’accélérer, les effectifs employés à être réduits, la pression sur les personnels à se durcir, le niveau et la masse des salaires à diminuer. Le système évolue vers une limite interne où la production et l’investissement dans la production cessent d’être assez rentables.

Les chiffres attestent que cette limite est atteinte. L’accumulation productive du capital productif ne cesse de régresser. Aux États-Unis, les 500 firmes de l’indice Standard & Poor’s disposent de 631 milliards de réserves liquides ; la moitié des bénéfices des entreprises américaines provient d’opérations sur les marchés financiers. En France, l’investissement productif des entreprises du CAC 40 n’augmente pas même quand leurs bénéfices explosent.

La production n’étant plus capable de valoriser l’ensemble des capitaux accumulés, une partie croissante de ceux-ci conserve la forme de capital financier. Une industrie financière se constitue qui ne cesse d’affiner l’art de faire de l’argent en n’achetant et ne vendant rien d’autre que diverses formes d’argent. L’argent lui-même est la seule marchandise que l’industrie financière produit par des opérations de plus en plus hasardeuses et de moins en moins maîtrisables sur les marchés financiers. La masse de capital que l’industrie financière draine et gère dépasse de loin la masse de capital que valorise l’économie réelle (le total des actifs financiers représente 160 000 milliards de dollars, soit trois à quatre fois le PIB mondial). La « valeur » de ce capital est purement fictive : elle repose en grande partie sur l’endettement et le « good will », c’est-à-dire sur des anticipations : la Bourse capitalise la croissance future, les profits futurs des entreprises, la hausse future des prix de l’immobilier, les gains que pourront dégager les restructurations, fusions, concentrations, etc. Les cours de Bourse se gonflent de capitaux et de leurs plus-values futurs et les ménages se trouvent incités par les banques à acheter (entre autres) des actions et des certificats d’investissement immobilier, à accélérer ainsi la hausse des cours, à emprunter à leur banque des sommes croissantes à mesure qu’augmente leur capital fictif boursier.

La capitalisation des anticipations de profit et de croissance entretien l’endettement croissant, alimente l’économie en liquidités dues au recyclage bancaire de plus-value fictives, et permet aux États-Unis une « croissance économique » qui, fondée sur l’endettement intérieur et extérieur, est de loin le moteur principal de la croissance mondiale (y compris de la croissance chinoise). L’économie réelle devient un appendice des bulles spéculatives entretenues par l’industrie financière. Jusqu’au moment, inévitable, où les bulles éclatent, entraînent les banques dans des faillites en chaîne, menaçant le système mondial de crédit d’effondrement, l’économie réelle d’une dépression sévère et prolongée (la dépression japonaise dure depuis bientôt quinze ans).

On a beau accuser le spéculation, les paradis fiscaux, l’opacité et le manque de contrôle de l’industrie financière (en particulier des hedge funds), la menace de dépression, voire d’effondrement qui pèse sur l’économie mondiale n’est pas due au manque de contrôle ; elle est due à l’incapacité du capitalisme de se reproduire. Il ne se perpétue et ne fonctionne que sur des bases fictives de plus en plus précaires. Prétendre redistribuer par voie d’imposition les plus-values fictives des bulles précipiterait cela même que l’industrie financière cherche à éviter : la dévalorisation de masses gigantesque d’actifs financiers et la faillite du système bancaire. La « restructuration écologique » ne peut qu’aggraver la crise du système. Il est impossible d’éviter une catastrophe climatique sans rompre radicalement avec les méthodes et la logique économique qui y mènent depuis 150 ans. Si on prolonge la tendance actuelle, le PIB mondial sera multiplié par un facteur 3 ou 4 d’ici à l’an 2050. Or selon le rapport du Conseil sur le climat de l’ONU, les émissions de CO2 devront diminuer de 85% jusqu’à cette date pour limiter le réchauffement climatique à 2°C au maximum. Au-delà de 2°, les conséquences seront irréversibles et non maîtrisables.

La décroissance est donc un impératif de survie. Mais elle suppose une autre économie, un autre style de vie, une autre civilisation, d’autres rapports sociaux. En leur absence, l’effondrement ne pourrait être évité qu’à force de restrictions, rationnements, allocations autoritaires de ressources caractéristiques d’une économie de guerre. La sortie du capitalisme aura donc lieu d’une façon ou d’une autre, civilisée ou barbare. La question porte seulement sur la forme que cette sortie prendra et sur la cadence à laquelle elle va s’opérer.

La forme barbare nous est déjà familière. Elle prévaut dans plusieurs régions d’Afrique, dominées par des chefs de guerre, par le pillage des ruines de la modernité, les massacres et trafics d’êtres humains, sur fond de famine. Les trois Mad Max étaient des récits d’anticipation.

Une forme civilisée de la sortie du capitalisme, en revanche, n’est que très rarement envisagée. L’évocation de la catastrophe climatique qui menace conduit généralement à envisager un nécessaire « changement de mentalité », mais la nature de ce changement, ses conditions de possibilité, les obstacles à écarter semblent défier l’imagination. Envisager une autre économie, d’autres rapports sociaux, d’autres modes et moyens de production et modes de vie passe pour « irréaliste », comme si la société de la marchandise, du salariat et de l’argent était indépassable. En réalité une foule d’indices convergents suggèrent que ce dépassement est déjà amorcé et que les chances d’une sortie civilisée du capitalisme dépendent avant tout de notre capacité à distinguer les tendances et les pratiques qui en annoncent la possibilité.

Le capitalisme doit son expansion et sa domination au pouvoir qu’il a pris en l’espace d’un siècle sur la production et la consommation à la fois. En dépossédant d’abord les ouvriers de leurs moyens de travail et de leurs produits, il s’est assuré progressivement le monopole des moyens de production et la possibilité de subsumer le travail. En spécialisant, divisant et mécanisant le travail dans de grandes installations, il a fait des travailleurs les appendices des mégamachines du capital. Toute appropriation des moyens de production par les producteurs en devenait impossible. En éliminant le pouvoir de ceux-ci sur la nature et la destination des produits, il a assuré au capital le quasi-monopole de l’offre, donc le pouvoir de privilégier dans tous les domaines les productions et les consommations les plus rentables, ainsi que le pouvoir de façonner les goûts et désirs des consommateurs, la manière dont ils allaient satisfaire leurs besoins. C’est ce pouvoir que la révolution informationnelle commence de fissurer.

Dans un premier temps, l’informatisation a eu pour but de réduire les coûts de production. Pour éviter que cette réduction des coûts entraîne une baisse correspondante du prix des marchandises, il fallait, dans toute la mesure du possible, soustraire celles-ci aux lois du marché. Cette soustraction consiste à conférer aux marchandises des qualités incomparables grâce auxquelles elles paraissent sans équivalent et cessent par conséquent d’apparaître comme de simples marchandises.

La valeur commerciale (le prix) des produits devait donc dépendre davantage de leurs qualités immatérielles non mesurables que de leur utilité (valeur d’usage) substantielle. Ces qualités immatérielles – le style, la nouveauté le prestige de la marque, le rareté ou « exclusivité » – devaient conférer aux produits un statut comparable à celui des oeuvres d’art : celles-ci ont une valeur intrinsèque, il n’existe aucun étalon permettant d’établir entre elles un rapport d’équivalence ou « juste prix ». Ce ne sont donc pas de vraies marchandises. Leur prix dépend de leur rareté, de la réputation du créateur, du désir de l’acheteur éventuel. Les qualités immatérielles incomparables procurent à la firme productrice l’équivalent d’un monopole et la possibilité de s’assurer une rente de nouveauté, de rareté, d’exclusivité. Cette rente masque, compense et souvent surcompense la diminution de la valeur au sens économique que la baisse des coûts de production entraîne pour les produits en tant que marchandises par essence échangeable entre elles selon leur rapport d’équivalence.

Du point de vue économique, l’innovation ne crée donc pas de valeur ; elle est le moyen de créer de la rareté source de rente et d’obtenir un surprix au détriment des produits concurrents. La part de la rente dans le prix d’une marchandise peut être dix, vingt ou cinquante fois plus grand que son coût de revient, et cela ne vaut pas seulement pour les articles de luxe ; cela vaut aussi bien pour des articles d’usage courant comme les baskets, T-shirts, portables, disques, jeans etc.
Or la rente n’est pas de même nature que le profit : elle ne correspond pas à la création d’un surcroît de valeur, d’une plus-value. Elle redistribue la masse totale de le valeur au profit des entreprises rentières et aux dépends des autres ; elle n’augmente pas cette masse[2].

Lorsque l’accroissement de la rente devient le but déterminent de la politique des firmes – plus important que le profit qui, lui, se heurte à le limite interne indiquée plus haut – la concurrence entre les firmes porte avant tout sur leur capacité et rapidité d’innovation. C’est d’elle que dépend avant tout la grandeur de leur rente. Elles cherchent donc a se surpasser dans le lancement de nouveaux produits ou modèles ou styles, par l’originalité du design, par l’inventivité de leurs campagnes de marketing, par la « personnalisation » des produits. L’accélération de l’obsolescence, qui va de pair avec la diminution de la durabilité des produits et de la possibilité de les réparer, devient le moyen décisif d’augmenter le volume des ventes. Elle oblige les firmes à inventer continuellement des besoins et des désirs nouveaux , à conférer aux marchandises une valeur symbolique, sociale, érotique, à diffuser une « culture de la consommation » qui mise sur l’individualisation, la singularisation, la rivalité, la jalousie, bref sur ce que j’ai appelé ailleurs la « socialisation antisociale ».

Tout s’oppose dans ce système à l’autonomie des individus ; à leur capacité de réfléchir ensemble à leurs fins communes et à leurs besoins communs ; de se concerter sur la meilleure manière d’éliminer les gaspillages, d’économiser les ressources, d’élaborer ensemble, en tant que producteurs et consommateurs, une norme commune du suffisant – de ce que Jacques Delors appelait une « abondance frugale ». De toute évidence, la rupture avec la tendance au « produire plus, consommer plus » et la redéfinition autonome d’un modèle de vie visant à faire plus et mieux avec moins, suppose la rupture avec une civilisation où on ne produit rien de ce qu’on consomme et ne consomme rien de ce qu’on produit ; où producteurs et consommateurs sont séparés et où chacun s’oppose à lui-même en tant qu’il est toujours l’un et l’autre à la fois ; où tous les besoins et tous les désirs sont rebattus sur le besoin de gagner de l’argent et le désir de gagner plus ; où la possibilité de l’autoproduction pour l’autoconsommation semble hors de portée et ridiculement archaïque – à tort.

Et pourtant : la « dictature sur les besoins » perd de sa force. L’emprise que les firmes exercent sur les consommateurs devient plus fragile en dépit de l’explosion des dépenses pour le marketing et la publicité. La tendance à l’autoproduction regagne du terrain en raison du poids croissant qu’ont les contenus immatériels dans la nature des marchandises. Le monopole de l’offre échappe petit à petit au capital.

Il n’était pas difficile de privatiser et de monopoliser des contenus immatériels aussi longtemps que connaissances, idées, concepts mis en oeuvre dans la production et dans la conception des marchandises étaient définis en fonction de machines et d’articles dans lesquels ils étaient incorporés en vue d’un usage précis. Machines et articles pouvaient être brevetés et la position de monopole protégée. La propriété privée de connaissances et de concepts était rendue possible par le fait qu’ils étaient inséparables des objets qui les matérialisaient. Ils étaient une composante du capital fixe.

Mais tout change quand les contenus immatériels ne sont plus inséparables des produits qui les contiennent ni même des personnes qui les détiennent ; quand ils accèdent a une existence indépendante de toute utilisation particulière et qu’ils sont susceptibles, traduits en logiciels, d’être reproduits en quantités illimitées pour un coût infime. Ils peuvent alors devenir un bien abondant qui, par sa disponibilité illimitée, perd toute valeur d’échange et tombe dans le domaine public comme bien commun gratuit – à moins qu’on ne réussisse à l’en empêcher en en interdisant l’accès et l’usage illimités auxquels il se prête.

Le problème auquel se heurte « l’économie de la connaissance » provient du fait que la dimension immatérielle dont dépend le rentabilité des marchandises n’est pas, à l’âge de l’informatique, de la même nature que ces dernières : elle n’est la propriété privée ni des entreprises ni des collaborateurs de celles-ci ; elle n’est pas de par sa nature privatisable et ne peut par conséquent devenir une vraie marchandise. Elle peut seulement être déguisée en propriété privée et marchandise en réservant son usage exclusif par des artifices juridiques ou techniques (codes d’accès secrets). Ce déguisement ne change cependant rien à la réalité de bien commun du bien ainsi déguisé : il reste une non-marchandise non vendable dont l’accès et l’usage libres sont interdits parce qu’ils demeurent toujours possibles, parce que le guettent les « copies illicites », les « imitations », les usages interdits. Le soi-disant propriétaire lui-même ne peut les vendre c’est-à-dire en transférer la propriété privée à un autre, comme il le ferait pour une vraie marchandise ; il ne peut vendre qu’un droit d’accès ou d’usage « sous licence ».

L’économie de la connaissance se donne ainsi pour base une richesse ayant vocation d’être un bien commun, et les brevets et copyrights censés le privatiser n’y changent rien ; l’aire de la gratuité s’étend irrésistiblement. L’informatique et internet minent le règne de la marchandise à sa base. Tout ce qui est traduisible en langage numérique et reproductible, communicable sans frais tend irrésistiblement à devenir un bien commun, voire un bien commun universel quand il est accessible à tous et utilisable par tous. N’importe qui peut reproduire avec son ordinateur des contenus immatériels comme le design, les plans de construction ou de montage, les formules et équations chimiques ; inventer ses propres styles et formes ; imprimer des textes, graver des disques, reproduire des tableaux. Plus de 200 millions de références sont actuellement accessibles sous licence « créative commons ». Au Brésil, où l’industrie du disque commercialise 15 nouveaux CD par an, les jeunes des favelas en gravent 80 par semaine et les diffusent dans la rue. Les trois quarts des ordinateurs produits en 2004 étaient autoproduits dans les favelas avec les composants de matériels mis au rebut. Le gouvernement soutient les coopératives et groupements informels d’autoproduction pour l’auto approvisionnement.

Claudio Prado, qui dirige le département de la culture numérique au ministère de la Culture du Brésil, disait récemment : « L’emploi est une espèce en voie d’extinction… Nous comptons sauter cette phase merdique du 20è siècle pour passer directement du 19è au 21è siècle ». L’autoproduction des ordinateurs par exemple a été officiellement soutenue : il s’agit de favoriser « l’appropriation des technologies par les usagers dans un but de transformation sociale ». La prochaine étape sera logiquement l’autoproduction de moyens de production. J’y reviendrai encore.

Ce qui importe pour le moment, c’est que la principale force productive et la principale source de rentes tombent progressivement dans le domaine public et tendent vers la gratuité ; que la propriété privée des moyens de production et donc le monopole de l’offre deviennent progressivement impossibles ; que par conséquent l’emprise du capital sur la consommation se relâche et que celle-ci peut tendre à s’émanciper de l’offre marchande. Il s’agit là d’une rupture qui mine le capitalisme à sa base. La lutte engagée entre les « logiciels propriétaires » et les « logiciels libres » (libre, « free », est aussi l’équivalent anglais de « gratuit ») a été Le coup d’envoi du conflit central de l’époque. Il s’étend et se prolonge dans la lutte contre la marchandisation de richesses premières – la terre, les semences, le génome, les biens culturels, les savoirs et compétences communs, constitutifs de la culture du quotidien et qui sont les préalables de l’existence d’une société. De la tournure que prendra cette lutte dépend la forme civilisée ou barbare que prendra la sortie du capitalisme.

Cette sortie implique nécessairement que nous nous émanciperons de l’emprise qu’exerce le capital sur la consommation et de son monopole des moyens de production. Elle signifie l’unité rétablie du sujet de la production et du sujet de la consommation et donc l’autonomie retrouvée dans la définition de nos besoins et de leur mode de satisfaction. L’obstacle insurmontable que le capitalisme avait dressé sur cette voie était la nature même des moyens de production qu’il avait mis en place : ils constituait une mégamachine dont tous étaient les serviteurs et qui nous dictait les fins à poursuivre et la vie a mener. Cette période tire à sa fin. Les moyens d’autoproduction high-tech rendent la mégamachine industrielle virtuellement obsolète. Claudio Prado invoque « l’appropriation des technologies » parce que la clé commune de toutes, l’informatique, est appropriable par tous. Parce que, comme le demandait Ivan Illich, « chacun peut l’utiliser sans difficulté aussi souvent ou aussi rarement qu’il le désire… sans que l’usage qu’il en fait empiète sur le liberté d’autrui d’en faire autant » ; et parce que cet usage (il s’agit de la définition illichienne des outils conviviaux) « stimule l’accomplissement personnel » et élargit l’autonomie de tous. La définition que Pekka Himanen donne de l’Ethique Hacker est très voisine : un mode de vie qui met au premier rang « les joies de l’amitié, de l’amour, de la libre coopération et de la créativité personnelle ».

Les outils high-tech existants ou en cours de développement, généralement comparables à des périphériques d’ordinateur, pointent vers un avenir où pratiquement tout le nécessaire et le désirable pourra être produit dans des ateliers coopératifs ou communaux ; où les activités de production pourront être combinées avec l’apprentissage et l’enseignement, avec l’expérimentation et la recherche, avec la création de nouveaux goûts, parfums et matériaux, avec l’invention de nouvelles formes et techniques d’agriculture, de construction, de médecine etc. Les ateliers communaux d’autoproduction seront interconnectés à, l’échelle du globe, pourront échanger ou mettre en commun leurs expériences, inventions, idées, découvertes. Le travail sera producteur de culture, l’autoproduction un mode d’épanouissement.

Deux circonstances plaident en faveur de ce type de développement. La première est qu’il existe beaucoup plus de compétences, de talents et de créativité que l’économie capitaliste n’en peut utiliser. Cet excédent de ressources humaines ne peut devenir productif que dans une économie où la création de richesses n’est pas soumise aux critères de rentabilité. La seconde est que « l’emploi est une espèce en voie d’extinction ».

Je ne dis pas que ces transformations radicales se réaliseront. Je dis seulement que, pour la première fois, nous pouvons vouloir qu’elles se réalisent. Les moyens en existent ainsi que les gens qui s’y emploient méthodiquement. Il est probable que ce seront des Sud-Américains ou des Sud-Africains qui, les premiers, recréeront dans les banlieues déshéritées des villes européennes les ateliers d’autoproduction de leur favela ou de leur township d’origine.

La sortie du capitalisme a déjà commencé (version 1)

URL d’origine du document

André Gorz – 16 septembre 2007 – EcoRev

Ce texte d’André Gorz a été distribué le 16 septembre 2007 à l’université d’Utopia.

La question de la sortie du capitalisme n’a jamais été plus actuelle. Elle se pose en des termes et avec une urgence d’une radicale nouveauté. Par son développement même, le capitalisme a atteint une limite tant interne qu’externe qu’il est incapable de dépasser et qui en fait un système mort-vivant qui se survit en masquant par des subterfuges la crise de ses catégories fondamentales : le travail, la valeur, le capital.

Cette crise de système tient au fait que la masse des capitaux accumulés n’est plus capable de se valoriser par l’accroissement de la production et l’extension des marchés. La production n’est plus assez rentable pour pouvoir valoriser des investissements productifs additionnels. Les investissements de productivité par lesquels chaque entreprise tente de restaurer son niveau de profit ont pour effet de déchaîner des formes de concurrence meurtrières qui se traduisent, entre autres, par des réductions compétitives des effectifs employés, des externalisations et des délocalisations, la précarisation des emplois, la baisse des rémunérations, donc, à l’échelle macro-économique, la baisse du volume de travail productif de plus-value et la baisse du pouvoir d’achat. Or moins les entreprises emploient de travail et plus le capital fixe par travailleur est important, plus le taux d’exploitation, c’est-à-dire le surtravail et la survaleur produits par chaque travailleur doivent être élevés. Il y a à cette élévation une limite qui ne peut être indéfiniment reculée, même si les entreprises se délocalisent en Chine, aux Philippines ou au Soudan.

Les chiffres attestent que cette limite est atteinte. L’accumulation productive de capital productif ne cesse de régresser. Aux Etats-Unis, les 500 firmes de l’indice Standard & Poor’s disposent, en moyenne, de 631 milliards de réserves liquides ; la moitié des bénéfices des entreprises américaines provient d’opérations sur les marchés financiers. En France, l’investissement productif des entreprises du CAC 40 n’augmente pas, même quand leurs bénéfices explosent. L’impossibilité de valoriser les capitaux accumulés par la production et le travail explique le développement d’une économie fictive fondée sur la valorisation de capitaux fictifs. Pour éviter une récession qui dévaloriserait le capital excédentaire (suraccumulé), les pouvoirs financiers ont pris l’habitude d’inciter les ménages à s’endetter, à consommer leurs revenus futur, leurs gains boursiers futurs, la hausse future des entreprises, les achats futurs des ménages, les gains que pourront dégager les dépeçages et restructurations, imposés par les LBO, d’entreprises qui ne s’étaient pas encore mises à l’heure de la précarisation, surexploitation et externalisation de leurs personnels.

La valeur fictive (boursière) des actifs financiers a doublé en l’espace d’environ six ans, passant de 80 000 milliards à 160 000 milliards de dollars (soit trois le PIB mondial), entretenant aux Etats-Unis une croissance économique fondée sur l’endettement intérieur et extérieur, lequel entretient de son côté la liquidité de l’économie mondiale et la croissance de la Chine, des pays voisins et par ricochet de l’Europe.

L’économie réelle est devenue un appendice des bulles financières. Il faut impérativement un rendement élevé du capital propre des firmes pour que la bulle boursière n’éclate pas – et une hausse continue – du prix de l’immobilier pour que n’éclate pas la bulle des certificats d’investissement immobilier vers lesquels les banques ont attiré l’épargne des particuliers en leur promettant monts et merveilles – car l’éclatement des bulles menacerait le système bancaire de faillites en chaîne, l’économie réelle d’une dépression prolongée (la dépression japonaise dure depuis quinze ans).

« Nous cheminons au bord du gouffre », écrivait Robert Benton. Voilà qui explique qu’aucun Etat n’ose prendre le risque de s’aliéner ou d’inquiéter les puissances financières. Il est impensable qu’une politique sociale ou une politique de « relance de la croissance » puisse être fondée sur la redistribution des plus-values fictives de la bulle financière. Il n’y a rien à attendre de décisif des Etats nationaux qui, au nom de l’impératif de compétitivité, ont au cours des trente dernières années abdiqué pas à pas leurs pouvoirs entre les mains d’un quasi-Etat supranational imposant des lois faites sur mesure dans l’intérêt du capital mondial dont il est l’émanation. Ces lois, promulguées par l’OMC, l’OCDE, le FMI, imposent dans la phase actuelle le tout-marchand, c’est-à-dire la privatisation des services publics, le démantèlement de la protection sociale, la monétarisation des maigres restes de relations non commercia1es. Tout se passe comme si le capital, après avoir gagné la guerre qu’il a déclaré à la classe ouvrière, vers la fin des années 1970, entendait éliminer tous les rapports sociaux qui ne sont pas des rapports acheteur/vendeur, c’est-à-dire qui ne réduisent pas les individus à être des consommateurs de marchandises et des vendeurs de leur travail ou d’une quelconque prestation considérée comme « travail » pour peu qu’elle soit tarifée. Le tout-marchand, le tout-marchandise comme forme exclusive du rapport social poursuit la liquidation complète de la société dont Margaret Thatcher avait annoncé le projet. Le totalitarisme du marché s’y dévoilait dans son sens politique comme stratégie de domination. Dès lors que la mondialisation du capital et des marchés, et la férocité de la concurrence entre capitaux partiels exigeaient que l’Etat ne fût plus le garant de la reproduction de la société mais le garant de la compétitivité des entreprises, ses marges de manœuvre en matière de politique sociale étaient condamnées à se rétrécir, les coûts sociaux à être dénoncés comme des entorses à la libre concurrence et des entraves à la compétitivité, le financement public des infrastructures à être allégé par la privatisation.

Le tout-marchand s’attaquait à l’existence de ce que les britanniques appellent les commons et les Allemands le Gemeinwesen, c’est-à-dire à l’existence des biens communs indivisibles, inaliénables et inappropriables, inconditionnellement accessibles et utilisables par nous. Contre la privatisation des biens communs les individus ont tendance à réagir par des actions communes, unis en un seul sujet. L’Etat a tendance à empêcher et le cas échéant à réprimer cette union de tous d’autant plus fermement qu’il ne dispose plus des marges suffisantes pour apaiser des masses paupérisées, précarisées, dépouillées de droits acquis. Plus sa domination devient précaire, plus les résistances populaires menacent de se radicaliser, et plus la répression s’accompagne de politiques qui dressent les individus les uns contre les autres et désignent des boucs émissaires sur lesquels concentrer leur haine.

Si l’on a à l’esprit cette toile de fond, les programmes, discours et conflits qui occupent le devant de la scène politique paraissent dérisoirement décalés par rapport aux enjeux réels. Les promesses et les objectifs mis en avant par les gouvernement et les partis apparaissent comme des diversions irréelles qui masquent le fait que le capitalisme n’offre aucune perspective d’avenir sinon celle d’une détériorisation continue de vie, d’une aggravation de sa crise, d’un affaissement prolongé passant par des phases de dépression de plus en plus longues et de reprise de plus en plus faibles. Il n’y a aucun « mieux » à attendre si on juge le mieux selon les critères habituels. Il n’y aura plus de « développement » sous la forme du plus d’emplois, plus de salaire, plus de sécurité. Il n’y aura plus de « croissance » dont les fruits puissent être socialement redistribués et utilisés pour un programme de transformations sociales transcendant les limites et la logique du capitalisme.

L’espoir mis, il y a quarante ans, dans des « réformes révolutionnaires » qui, engagées de l’intérieur du système sous la pression de luttes syndicales, finissent par transférer à la classe ouvrière les pouvoirs arrachés au capital, cet espoir n’existe plus. La production demande de moins en moins de travail, distribue de moins en moins de pouvoir d’achat à de moins en moins d’actifs ; elle n’est plus concentrée dans de grandes usines pas plus que ne l’est la force de travail. L’emploi est de plus en plus discontinu, dispersé sur des prestataires de service externes, sans contact entre eux, avec un contrat commercial à la place d’un contrat de travail. Les promesses et programmes de « retour » au plein emploi sont des mirages dont la seule fonction est d’entretenir l’imaginaire salarial et marchand c’est-à-dire l’idée que le travail doit nécessairement être vendu à un employeur et les biens de subsistance achetés avec l’argent gagnés autrement dit qu’il n’y a pas de salut en dehors de la soumission du travail au capital et de la soumission des besoins à la consommation de marchandises, qu’il n’y a pas de vie, pas de société au-delà de la société de la marchandise et du travail marchandisé, au-delà et en dehors du capitalisme

L’imaginaire marchand et le règne de la marchandise empêchent d’imaginer une quelconque possibilité de sortir du capitalisme et empêchent par conséquent de vouloir en sortir. Aussi longtemps que nous restons prisonniers de l’imaginaire salarial et marchand, l’anticapitalisme et la référence à une société au-delà du capitalisme resteront abstraitement utopiques et les luttes sociales contre les politiques du capital resteront des luttes défensives qui, dans le meilleur des cas, pourront freiner un temps mais non pas empêcher l’intériorisation des conditions de vie.

La « restructuration écologique » ne peut qu’aggraver la crise du système. Il est impossible d’éviter une catastrophe climatique sans rompre radicalement avec les méthodes et la logique économique qui y mènent depuis 150 ans. Si on prolonge la tendance actuelle, le PIB mondial sera multiplié par un facteur 3 ou 4 d’ici à l’an 2050. Or selon le rapport du Conseil sur le climat de l’ONU, les émissions de CO2 devront diminuer de 85% jusqu’à cette date pour limiter le réchauffement climatique à 2°C au maximum. Au-delà de 2°, les conséquences seront irréversibles et non maîtrisables.

La décroissance est donc un impératif de survie. Mais elle suppose une autre économie, un autre style de vie, une autre civilisation, d’autres rapports sociaux. En leur absence, la décroissance risque d’être imposée à force de restrictions, rationnements, allocations de ressources caractéristiques d’un socialisme de guerre. La sortie du capitalisme s’impose donc d’une façon ou d’une autre. La reproduction du système se heurte à la fois à ses limites internes et aux limites externes engendrées par le pillage et la destruction d’une des deux « principales sources d’où jaillit toute richesse » : la terre. La sortie du capitalisme a déjà commencé sans être encore voulue consciemment. La question porte seulement sur la forme qu’elle va prendre et la cadence à laquelle elle va s’opérer.

L’instauration d’un socialisme de guerre, dictatorial, centralisateur, techno-bureautique serait la conclusion logique – on est tenté de dire « normale » – d’une civilisation capitaliste qui, dans le souci de valoriser des masses croissantes de capital, a procédé à ce que Marcuse appelle la « désublimation répressive » – c’est-à-dire la répression des « besoins supérieurs », pour créer méthodiquement des besoins croissants de consommation individuelle, sans s’occuper des conditions de leur satisfaction. Elle a éludé dès le début la question qui est à l’origine des sociétés : la question du rapport entre les besoins et les conditions qui rendent leur satisfaction possible : la question d’une façon de gérer des ressources limitées de manière qu’elles suffisent durablement à couvrir les besoins de tous ; et inversement la recherche d’un accord général sur ce qui suffira à chacun, de manière que les besoins correspondent aux ressources disponibles.

Nous sommes donc arrivés à un point où les conditions n’existent plus qui permettraient la satisfaction des besoins que le capitalisme nous a donnés, inventés, imposés, persuadé d’avoir afin d ’écouler des marchandises qu’il nous a enseigné à désirer. Pour nous enseigner à y renoncer, l’écodictature semble à beaucoup être le chemin le plus court. Elle aurait la préférence de ceux qui tiennent le capitalisme et le marché pour seuls capables de créer et de distribuer des richesses ; et qui prévoient une reconstitution du capitalisme sur de nouvelles bases après que des catastrophes écologiques auront remis les compteurs à zéro en provoquant une annulation des dettes et des créances.

Pourtant une tout autre voie de sortie s’ébauche. Elle mène à l’extinction du marché et du salariat par l’essor de l’autoproduction, de la mise en commun et de la gratuité. On trouve les explorateurs et éclaireurs de cette voie dans le mouvement des logiciels libres, du réseau libre (freenet), de la culture libre qui, avec la licence CC (creative commons) rend libre (et libre : free signifie, en anglais, à la fois librement accessible et utilisable par tous, et gratuit) de l’ensemble des biens culturels – connaissances, logiciels, textes, musique, films etc. – reproductibles en un nombre illimité de copies pour un coût négligeable. Le pas suivant serait logiquement la production « libre » de toute la vie sociale, en commençant par soustraire au capitalisme certaines branches de produits susceptibles d’être autoproduits localement par des coopératives communales. Ce genre de soustraction à la sphère marchande s’étend pour les biens culturels où elle a été baptisée « out-cooperating », un exemple classique étant Wikipedia qui est en train d’« out-cooperate » l’Encyclopedia Britannica. L’extension de ce modèle aux biens matériels est rendue de plus en plus faisable grâce à la baisse du coût des moyens de production et à la diffusion des savoirs techniques requis pour leur utilisation. La diffusion des compétences informatiques, qui font partie de la « culture du quotidien » sans avoir à être enseignées, est un exemple parmi d’autres. L’invention fabbers, aussi appelés digital fabricators ou factories in a box – il s’agit d’une sorte d’ateliers flexibles transportables et installables n’importe où – ouvre à l’autoproduction locale des possibilités pratiquement illimitées.

Produire ce que nous consommons et consommer ce que nous produisons est la voie royale de la sortie du marché. Elle nous permet de nous demander de quoi nous avons réellement besoin, en quantité et en qualité, et de redéfinir par concertation, compte tenu de l’environnement et des ressources à ménager, la norme du suffisant que l’économie de marché a tout fait pour abolir. L’autoréduction de la consommation, son autolimitation – le self-restraint – et la possibilité de recouvrer le pouvoir sur notre façon de vivre passent par là.

Il est probable que les meilleurs exemples de pratiques alternatives en rupture avec le capitalisme nous viennent du Sud de la planète, si j’en juge d’après la création au Brésil, dans des favelas mais pas seulement, des « nouvelles coopératives » et des « pontos de cultura ». Claudio Prado, qui dirige le département de la « culture numérique » au ministère de la culture, déclarait récemment : « Le ’job’ est une espèce en voie d’extinction… Nous espérons sauter cette phase merdique du 20e siècle pour passer directement du 19e au 21e. » L’autoproduction et le recyclage des ordinateurs par exemple, sont soutenus par le gouvernement : il s’agit de favoriser « l’appropriation des technologies par les usagers dans un but de transformation sociale ». Si bien que les trois quarts de tous les ordinateurs produits au Brésil en 2004/5 étaient autoproduits.

Notes

[1] Crédit photo : Auteur non identifié, mis en ligne par Imago sur Flickr (Creative Commons By-Nc-Sa)

[2] La valeur travail est une idée d’Adam Smith qui voyait dans le travail la substance commune de toutes les marchandises et pensait que celles-ci s’échangeaient en proportion de la quantité de travail qu’elles contenaient. La valeur travail n’a rien à voir avec ce qu’on entend par là aujourd’hui et qui (chez Dominique Méda entre autres) devrait être désigné comme travail valeur (valeur morale, sociale, idéologique etc.). Marx a affiné et retravaillé la théorie d’A. Smith. En simplifiant à l’extrême, on peut résumer la notion économique en disant : Une entreprise crée de la valeur dans la mesure où elle produit une marchandise vendable avec du travail pour la rémunération duquel elle met en circulation (crée, distribue,) du pouvoir d’achat. Si son activité n’augmente pas la quantité d’argent en circulation elle ne crée pas de valeur. Si son activité détruit de l’emploi elle détruit de la valeur. La rente de monopole consomme de la valeur crée par ailleurs et se l’approprie.




Le projet OpenOffice.org est-il en bonne ou mauvaise santé ?

Joseppc - CC by-saMichael Meeks n’est pas forcément neutre lorsqu’il évoque la suite bureautique libre OpenOffice.org (OOo). Il est en effet desktop Architect chez Novell, la société qui a « pactisé » avec Microsoft. A ce titre il participe activement au projet Go-oo, une version modifiée d’OpenOffice.org (située à la limite du fork, parfois appelée « alternative Novell à OOo »).

D’après Meeks, Go-oo est justement né pour pallier certaines lacunes d’OpenOffice.org, d’abord techniques mais aussi organisationnelles, principalement liées à un leadership trop fort de la société Sun sur le projet. Chiffres à l’appui, il a n’a ainsi pas hésité à qualifier OOo de « profondément malade ». C’est le sujet de la traduction du jour issue du site ZDNet (Asie).

Pour de plus amples informations, nous vous suggérons de parcourir ces deux dépêches LinuxFr : Go-oo, une alternative à OpenOffice et surtout Go-oo et OOo : fr.OpenOffice.org répond à vos questions.

Au delà de la polémique, se pose donc la question des avantages et des inconvénients d’un projet libre piloté (« de trop près » ?) par une société commerciale.

On peut également en profiter pour faire le point sur les qualités et les défaut intrinsèques de la suite bureautique OpenOffice.org par rapport à la concurrence. Selon certains observateurs, MS Office 2007 aurait ainsi pris un peu d’avance ces derniers temps, surtout si Microsoft se décide à réellement implémenter nativement le format ODF (ce qui n’est pas encore le cas malgré les déclarations d’intention). Sans oublier les solutions « dans les nuages » de type Google Docs qui font de plus en plus d’adeptes[1].

Openoffice.org est-il un cheval mourant ?

Is OpenOffice.org a dying horse?

Eileen Yu – 12 janvier 2009 – ZDNet Asia
(Traduction Framalang : Vincent)

Openoffice.org n’a toujours pas dépassé sa date d’expiration, mais il y a encore beaucoup à faire pour piloter et organiser la participation de la communauté et s’assurer que le logiciel Open Source reste pertinent, affirment des observateurs du secteur.

Officiellement sortie sur le marché en avril 2002, Openoffice est une suite bureautique Open Source disponible en téléchargement gratuit. Sun Microsystems en est le premier sponsor et le principal participant au code du projet OpenOffice, qui compte également Novell, Red Hat, IBM et Google parmi les sociétés contributrices.

Sun a cependant été critiqué pour son contrôle trop étroit d’un projet qui n’encourage alors pas assez la participation communautaire.

Dans un article de son blog posté en Octobre l’année dernière, Michael Meeks, développeur d’OpenOffice.org, incluait des données et des statistiques qui, disait-il, soulignaient le « lent désengagement de Sun » et « une spectaculaire baisse de croissance » de la communauté des développeurs OpenOffice.

En le qualifiant de « mourant » et de « projet profondément malade », Meeks demandait à Sun de s’éloigner de OpenOffice et de réduire sa mainmise sur le code. Contacté sur ce point, Sun n’a pas été en mesure de répondre à l’heure où nous mettions sous presse.

Dans une interview réalisée par e-mail avec ZDNet Asie, Meeks reconnaît que Sun est un participant important à OpenOffice, fournissant le plus grand nombre de développeurs au logiciel. Cependant, il a ajouté qu’il devrait y avoir plus de contributeurs de grandes sociétés impliquées dans le projet.

« Je pense que la raison pour laquelle les autres sociétés trouvent difficile de s’impliquer fortement dans OpenOffice et précisément le fait que Sun possède et contrôle l’ensemble du projet », note-t-il. « Il est alors plus compliqué d’attirer une large base de participants. »

« Les sociétés investissent largement dans Linux qui a alors plus de succès pour attirer des développeurs que OpenOffice. »

Le job de Meeks est d’être le leader de l’équipe de développement OpenOffice.org chez Novell, mais il tient à souligner que ses réflexions sur OpenOffice ne reflètent pas celles de son employeur.

« Il y a beaucoup de problèmes de process (associés avec OpenOffice) et un manque d’engagement externe, et même lorsqu’il s’agit de changement de code mineure les procédures se révèlent super-pesantes pour n’importe quel changement de code mineur. Les problèmes pourraient être facilement résolues dans un communauté plus large », a-t-il dit.

La contribution au code n’est pas un indicateur précis

David Mitchell, vice-président senior de la recherche IT chez Ovum, est en désaccord avec le fait qu’un manque de contribution communautaire doit être interprété négativement, en notant que le succès des produits Open Source dépend de l’adoption du produit par les utilisateurs, pas du profil des développeurs.

« L’implication et l’engagement des développeurs diffèrent selon la maturité des projets, les projets matures auront presque toujours moins de nouveau code validé que les projets tous neufs », expliquait Mitchell dans un échange de mails. « Une restructuration massive d’un code défaillant ou mal structuré peut aussi produire de nombreuses lignes de code, mais ne va pas nécessairement refléter un produit solide et robuste. »

Le code de OpenOffice, a-t-il ajouté, est déjà « assez mature » et « relativement stable ».

Peter Cheng, fondateur et responsable d’une firme de conseil en Open Source, TargetSource, est d’accord.

Contestant l’observation de Meek selon laquelle le logiciel est « mourrant », Cheng a déclaré à ZDNet Asie que le code de OpenOffice continuait à croître, quoique à un rythme plus lent.

Parce que le logiciel est devenu un projet vaste et complexe, on ne peut pas s’attendre à ce que son code croisse au même rythme que lorsqu’il a été lancé, déclara-t-il. Basé à Pékin, Cheng est aussi un blogueur de ZDNet Asie sur l’Open Source.

Il a noté que OpenOffice est supporté par une communauté de 451 contibuteurs.

D’après Khairil Yusof, un développeur de logiciel Open Source consultant chez Inigo Consulting, une équipe réduite de collaborateurs actifs n’est pas un problème majeur pour les utilisateurs de grandes sociétés.

De par la nature de l’Open Source et des standards ouverts, dit Yusof, les sociétés peuvent fournir des services de développeurs indépendants ou de fournisseurs de service Open Source, pour travailler sur OpenOffice et corriger des problèmes critiques pour leurs affaires. Basé en Malaisie, Inigo fournit des services de conseil spécialisés dans le logiciel Open Source.

« Ceci peut être fait indépendamment même de Sun ou Novell, sur le modèle de ce qu’a fait Novell avec sa propre version de OpenOffice », a-t-il dit à ZDNet Asie.

Est-ce que Sun doit renoncer à son rôle ?

D’après Mitchell, savoir si Sun doit renoncer à son rôle est discutable parce que ça ne changerait pas forcément les choses pour la communauté ou le produit.

« La forte gouvernance du développement qui provient d’un sponsor principal pourrait bien alors souffrir d’une fragmentation de la communauté », nous dit l’analyste.

Meeks, de son côté, pense que le logiciel se porterait bien mieux sans Sun sur son dos.

Il nous a expliqué que le conseil communautaire qui supervise OpenOffice a simplement un rôle consultatif et ne possède rien dans le logiciel.

« Ceci a l’air tout beau et ouvert, mais il n’a aucune autorité réelle. La gouvernance actuelle est assez sclérosée, et n’est clairement pas orientée vers les développeurs », dit-il. « Pire, sous le capot, la seule entité légale qui possède les avoirs intéressants est Sun. »

« A cause de cela, vous pouvez traduire des questions comme pourquoi les gens n’investissent-ils pas dans OpenOffice ? en pourquoi les gens n’investissent pas dans Sun ? La réponse étant, je pense, assez triviale : parce que c’est une société commerciale », raconte Meeks.

« Si nous pouvions transformer OpenOffice en fondation, avec une gouvernance juste et représentative par les développeurs, alors oui, je suis certain que le projet se porterait bien mieux sans un veto de Sun à chaque étape », dit-il.

Yusof supporte également l’appel de Meeks pour que Sun abandonne sa propriété.

« Comme c’est souvent le cas avec d’autres projets réussis et orientés vers une communauté active de développeurs, c’est souvent mieux que la gestion du projet soit faite par une fondation indépendante », explique-t-il.

La Fondation Apache, par exemple, a été fondé par des concurrents commerciaux, tels que IBM et Microsoft, dit-il. La fondation Gnome est également co-opérée par des concurrents tels que Red Hat, Sun et Novell, qui contribuent tous activement au développement du logiciel, ajoute Yusof.

Meeks a ajouté que cette façon de faire pourrait également être une bonne opportunité pour Sun, car cela attirerait plus d’intérêt autour d’OpenOffice, réduirait la fragmentation actuelle, et construirait un OpenOffice plus grand et plus apprécié. Sun serait alors bien positionné pour tirer de substantiels bénéfices du support de ses développements potentiels.

Mitchell note que OpenOffice 3.0 a été une version majeure en 2008, et que l’on devrait voir une adoption croissante cette année.

Les fournisseurs qui ont fait du développement spécifique sur OpenOffice vont également aider à son adoption, dit Mitchell, citant pour l’exemple la suite Lotus Symphony de IBM, qui a été développée sur la base du code OpenOffice. L’analyste pense que 2009 sera « une bonne année » pour OpenOffice en termes de croissance du nombre d’utilisateurs.

« Cependant, savoir si Sun pourra transformer cette augmentation de l’adoption de OpenOffice en source de revenus est une autre affaire », dit-il. « Monétiser MySQL et OpenSolaris est probablement plus facile pour Sun, car la demande en contrats de supports pour les entreprises est probablement plus grande. »

Cheng a déclaré : « Sun est bon dans la technologie, mais pas dans les affaires ».

Il a ajouté que, même si la société a depuis plusieurs années adhéré au logiciel, spécifiquement Open Source, comme part intégrante de sa stratégie, Sun est de manière inhérente « encore une société de matériel ». « Toutes les intentions de la société sont focalisées sur la vente de ses machines », dit-il.

« Je pense que la chose la plus importante pour Sun, par rapport à sa stratégie avec OpenOffice, est de déterminer comment équilibrer la communauté et les affaires », dit Cheng, ajoutant que la communauté des développeurs doit avoir suffisamment d’espace de liberté pour « gérer les choses comme elle l’entend ».

« Si vous regardez la fondation Eclipse, dans les cinq dernières années, elle a bâti un bel écosystème autour de la plate-forme. Chaque participant à la communauté peut en bénéficier, pas seulement les individus, mais également les entités commerciales. »

« OpenOffice devrait repenser sa position en tant que communauté Open Source, améliorer la structure de gouvernance de cette communauté, et inciter plus de collaborateurs d’enterprises aussi bien qu’individuels se joindre au projet », dit-il.

Garder une communauté active de développeurs

Maintenir un écosystème en bonne santé, et une communauté active est critique pour le développement des logiciels libres, note Cheng. Il ajoute que les innovations les plus importantes seront impulsées quand le processus de développement recueillera plus de participants.

Sur ce point, Meeks est d’accord, en notant que les développeurs sont le plus grand challenge que le projet OpenOffice ait à résoudre.

« Nous devons rentrer dans le jeu, être fiers de notre code, en lire plus, le réparer, l’affiner et l’améliorer. Nous devons être plus rapide, plus concis, plus clair presque partout dans le code, il y a un énorme travail à faire », dit-il. « Bien sûr, du point de vue des fonctionnalités, nous devons également rester compétitifs. »

« Ce n’est pas le travail qui manque dans OpenOffice. Par exemple, le nouveau composant Base nécessite un large effort pour le rendre comparable à Access, et nous avons également besoin d’un concurrent à Visio, etc. », dit-il.

Meeks note un contraste fort entre la participation de la communauté sur le noyau Linux et sur OpenOffice. « Linus (Torvalds) a déclaré plusieurs fois que le noyau Linux était presque terminé et inintéressant, que les gens devaient se focaliser sur les couches plus hautes du système, et pourtant, il semble attirer toujours plus de participants. »

« OpenOffice a clairement de nombreux points à améliorer, et pourtant il attire un faible nombre de collaborateurs, cela montre clairement qu’il y a un problème. »

Les licences, également, peuvent devenir un problème.

Cheng note que OpenOffice est actuellement soumis à de trop nombreuses licences, notamment la GPL 3, la nouvelle licence BSD, et Mozilla Public Licence 1.0.

« Quiconque voudrait construire une application basée sur OpenOffice sera face à des problèmes juridiques trop complexes à traiter », dit-il. « Je pense que c’est pour cela que l’écosystème de OpenOffice ne fonctionne pas aussi bien que celui d’Eclipse. »

Notes

[1] Crédit photo : Joseppc (Creative Commons By-Sa)




Nos mots croisés : premier roman de Daphné Kauffmann

Nos mots croises - Daphné KauffmannSeriez-vous choqués si, profitant éhonteusement de cette tribune, j’évoquais rapidement le futur premier roman de ma… sœur, quand bien même il ne soit pas sous licence libre ?
Non, dites-vous ? Fort bien. La famille, émue, vous remercie de votre compréhension.

Les plus anciens lecteurs du Framablog se souviennent peut-être de Daphné la musicienne ? La voici donc qui nous revient écrivain avec ce premier roman « Nos mots croisés », que j’ai hâte de lire (et pas seulement parce que, parait-il, j’y figure dedans).

Il sortira le 18 avril prochain mais, en attendant, Daphné maintient avec passion le petit blog du livre dont voici le pitch (du blog pas du livre) :

Je viens de terminer l’écriture d’un premier roman. Il s’intitule « Nos mots croisés » et sortira en avril 2009 aux éditions Intervalles[1]. A travers deux présents entremêlés, ce texte construit des passerelles entre des époques très différentes et pourtant si peu éloignées : le présent d’un narrateur qui avait 20 ans en 68, confié à une narratrice qui en a 30 aujourd’hui. C’est l’histoire d’une vie faite de rencontres mais aussi l’histoire d’une rencontre pleine de vie. Une histoire de transmission, de passion, de partage d’émotion et d’énergie. Aujourd’hui je voudrais continuer à mettre en mots : Que se passe-t-il quand le livre est terminé ? Et après l’écriture, comment poursuivre l’aventure ? Au jour le jour, je vais essayer de raconter…

Et voici l’autre pitch (du livre pas du blog) :

Dans Nos mots croisés, Daphné Kauffmann raconte l’histoire d’une vie faite de rencontres et de voyages, mais aussi l’histoire d’une rencontre particulière, celle avec Michel Besmond, l’actuel maître de cérémonie du 62 rue Mazarine, le célèbre Alcazar. Entre ce témoin de mai 68 et cette jeune femme rêvant d’un autre monde, que d’affinités !

Entre le Paris bohème, les rencontres, Rome, le Mexique, les routes qui ne finissent jamais, la musique, les rêves en bandoulière… de cet échange naît peu à peu une relation forte et singulière entre deux idéalistes aux parcours si différents et aux rêves si proches.

Nos mots croisés est un roman qui mêle deux présents, celui d’un narrateur qui avait 20 ans en 68, confié à une narratrice qui en a 30 aujourd’hui. De ces deux routes qui se croisent sous la verrière de l’Alcazar surgissent peu à peu quelques dates et des mots. Des mots comme les titres d’une aventure sans cesse recommencée, comme des nouveaux départs, des vies superposées. Des titres de chapitres, déjà.

Chère sister, je te souhaite bien moins le succès des critères de l’Industrie Culturelle que celui de simplement trouver tes lecteurs

Notes

[1] Les Éditions Intervalles proposent un très intéressant catalogue d’auteurs étrangers à découvrir soit dit en passant.




Framakey : perspectives 2009

Framakey - Nojhan - Licence Art LibreL’hôte principal de ce blog, perdu quelque part entre la Grande-Bretagne et le maquis d’Hadopi, m’a demandé de venir vous faire un petit point sur les perspectives du projet Framakey sur les prochains mois (ça sortira quand ça sortira inside).
Te voici donc, ami lecteur, devant un article plus centripète que centrifuge et avouons le sans fard, plus geek que de coutume, dont l’idée est un peu de vous dire où en est la Framakey et où elle va[1].

Historique et bilan

Mais avant de commencer, rappelons en deux mots ce qu’est la Framakey.

D’habitude, sous Windows, lorsqu’on télécharge un logiciel, il faut l’installer (mais si, on l’a tous fait un jour : cliquer sur Setup, puis Suivant, J’accepte, puis Suivant 4 fois, puis revenir en arrière pour décocher la case installer la super toolbar de-la-mort-qui-tue, puis Suivant 3 fois, et enfin le bouton Installer). Ce logiciel s’installe alors le plus souvent dans le dossier C:\Windows\Program Files\LeLogiciel mais il s’éparpille aussi souvent un peu en mettant des données dans le dossier Documents and Settings, voire dans la base de registre (une base de données propre[2] à Windows conservant les paramètres de nombreux logiciels. Or, cet éparpillement est souvent inutile, et peut ralentir Windows, qui n’a vraiment pas besoin de ça pour se trainer.

Maintenant, imaginez que vous téléchargiez le même logiciel, dans un bête fichier zip. Vous dézippez où cela vous plait, vous lancez le logiciel, et… il fonctionne! Pas d’installation, pas de Suivantx12, pas de trucs qui trainent à droite ou à gauche, pas besoin de la base de registre. Tout est dans le dossier qui a été dézippé, je vous dis.
Allons plus loin : puisque le logiciel fonctionne en vase clos, alors on peut l’utiliser depuis n’importe quel dossier. Le bureau Windows. Le dossier Mes Documents. Une clé USB. Un baladeur MP3. La carte mémoire d’un appareil photo. Un lecteur réseau. etc.

C’est ce qu’on appelle un logiciel portable. Si je met les versions portables de Firefox et d’OpenOffice.org sur une clé USB, que je met la clé USB dans ma poche et que je vais au cybercafé du coin où chez ma cousine en Irlande, il suffit que je branche ma clé USB, et je retrouverai mon Firefox (marque-pages, historique et surtout extensions compris) et mon OpenOffice.org (en français, avec mon dico perso et tout et tout). Le tout exécuté depuis la clé, sans rien copier ou installer sur la machine de ma cousine ou du cybercafé (ça marche même en Chine, c’est vous dire).

Ce concept d’applications portables a toujours existé (sous Windows comme sous GNU/Linux), mais sous Windows il s’est perdu en route ces dernières années, quand Microsoft a demandé aux développeurs de ranger les paramètres de leurs applications au même endroit[3]. Il a été remis au goût du jour il y a quelques années par un américain, John Haller, qui a depuis créé le site portableApps.com.

Et la Framakey, dans tout ça ? me demandez-vous, prêt à quitter cette page (alors qu’en réalité, je teste votre résistance au syndrome Google)

La Framakey est tout simplement la première[4] initiative de démocratisation de ce concept d’applications portables pour le grand public, en proposant en un seul téléchargement d’installer facilement sur votre clé plusieurs applications portables, le tout enrobé dans une belle interface que même Tata Jeannine arriverait à utiliser.

Sortie l’été 2005, le projet a maintenant plus de 3 ans. Étant un projet 100% libre, il a connu de très nombreuses déclinaisons, puisque comme tout projet libre, chacun est encouragé à l’adapter a ses besoins. Ainsi, on a retrouvé la Framakey (ou des forks) en langue arabe[5], diffusée à plusieurs centaines de milliers d’exemplaires auprès de lycéens parisiens, auprès d’enseignants, dans des écoles primaires, en entreprise, etc. Il paraitrait même qu’un gros-industriel-plein-de-sous vend dans toutes les bonnes crèmeries une version à peine modifiée (et obsolète) de la Framakey, mais ça ne doit pas être vrai, sinon ils auraient accepté notre proposition (gracieuse) de mise à jour, ou alors ils nous auraient fait un petit don, non ?[6]… Aujourd’hui, nous estimons le nombre de Framakey diffusé à plus de trois millions d’exemplaires. Pas mal pour un projet libre.

La Framakey c’est aussi une bien belle communauté, et en tant que mainteneur du projet depuis sa création, j’en profite ici pour remercier chaleureusement tous ceux qui nous ont apporté leur aide tout au long de cette aventure et sans qui, ce n’est pas une formule, rien n’aurait été possible. C’est aussi la preuve de la force du libre, sur le plan technique (pouvoir intégrer et remixer d’autres projets libres) comme sur le plan humain (non seulement au sein de la communauté Framakey, mais aussi des échanges permanents inter-communautés avec les communautés logicielles ou celles de portableApps, de Framasoft, Dogmazic, InLibroVeritas, etc).

La Framakey évolue lentement, il faut le reconnaitre, avec une à deux versions majeures par an. Et même si techniquement, des projets comme la Liberkey (malheureusement non libre) lui sont supérieurs, j’expliquais d’ailleurs il y a peu pourquoi nous continuons à faire évoluer la Framakey face à cette stimulante concurrence.

C’est pourquoi nous avons pensé qu’il pourrait être utile de donner quelques indications sur les actions envisagées en 2009.

Les projets en cours

La Framakey 1.9

D’abord, la branche 1.x verra apparaître une nouvelle version.

  • Mise à jour de la plupart des applications, notamment OpenOffice.org en version 3.0.1
  • Nouvelle interface pour le Kiosk, basée sur jQuery
  • Modification de certains lanceurs pour une meilleure compatibilité avec Vista.
  • Ajout de quelques applications portables

http://framakey.org/Pack/PackFull1900

En dehors de l’interface (qui devrait furieusement vous rappeler quelque chose), il s’agit surtout de bénéficier d’une clé avec toutes les applications à jour. Par contre, côté développement, pas mal de travaux ont été effectués pour permettre une personnalisation plus aisée. En effet, nous pensons comme le rapportait l’infatigable et inénarrable Tristan N. qu’il faut aller (retourner ?) vers un monde de bricoleurs. Cela n’empêchera pas de livrer une Framakey aussi aboutie techniquement que graphiquement pour l’utilisateur final, mais cet utilisateur aura en plus la possibilité de bricoler le projet en fonction de ses besoins, un peu comme l’acheteur d’une voiture devrait pouvoir bricoler son véhicule comme il le souhaite (pour peu qu’il en ait l’envie). Bricoler sa Framakey a toujours été possible, puisqu’elle repose sur des technologies et des standards ouverts (Firefox + HTML/JS/CSS), mais pas forcément très simple d’accès. La version 1.9 est une version de transition qui apportera un peu plus de souplesse de ce côté là.

  • Avancement : 90%
  • Ce qu’il reste à faire : voir ici
  • Date de release estimée : 4 mars 2009 13:04:12 (au moins, on ne pourra pas me reprocher d’être précis !)

Les Framakey « Spécial Edition »

Il s’agit de versions destinées à des publics particuliers ou répondant à des « univers fonctionnels » précis.

Framakey LaTeX

La Framakey LaTeX Edition a été créée pour accompagner le Framabook « Tout… sur LaTeX » de Vincent Lozano. Il s’agit d’une version largement basée (avec l’autorisation de l’auteur !) sur l’excellente USBTeX de Nicolas Poulain, à laquelle ont été ajoutée des outils pour en faciliter l’utilisation, et des logiciels libres permettant de travailler sur l’ensemble de la chaine de publication.
Il nous faut donc la mettre à jour, et corriger quelque petits bugs.

  • Date de release estimée : RMLL 2009 (Juillet)
Framakey Education

Framasoft est historiquement lié au milieu de l’éducation nationale (que les profs, instits et autres personnels de l’EN lèvent le doigt. Vous voyez ? Vous êtes nombreux !).
La première adaptation de la Framakey a d’ailleurs été le projet « Clef en main » coéditée par le CRDP de Paris et Mostick. Depuis, la Framakey a inspiré de nombreux autres projets : dans le primaire, au collège/lycée, à l’université, pour les IUFM, etc. Voir des logiciels libres à portée de mains d’élèves[7] nous ravi et nous motive.

Il est aussi régulièrement question de travailler avec l’association de profs de maths SESAMATH qui sont autant des amis qu’une source d’inspiration. Le projet est pour l’instant en stand-by, mais nous ne désespérons pas d’avancer dans les mois qui viennent. De plus, laclasse et cyrille, deux gentils membres de la communauté Framakey, se sont donnés bien du mal pour portabiliser des logiciels éducatifs que vous retrouverez très bientôt sur le portail Framakey.

  • Date de release estimée : fin 2009
La Framakey Jeux

Il y a une demande. On sait le faire. On peut le faire. Alors on le fera 🙂

  • Date de release estimée : RMLL 2009 (Juillet)
La Framakey Handicap

Pour rencontrer régulièrement des personnes traitant du handicap et de l’accessibilité face aux logiciels (libre ou pas), nous avons décidé d’intégrer cette problématique de façon transversale en 2008 en ajoutant différents logiciels libres à tous les packs Framakey (comme une loupe ou un lecteur d’écran). Après en avoir discuté avec des professionnels du métier, nous pensons pouvoir travailler avec eux pour les aider à concevoir le contenu d’une clé spécifique.

  • Date de release estimée : 2009 (Stéphanie, si tu me lis…)
La FramaGNU

Wstryder - CC byAhhhhh. Si Framasoft avait touché 1€ à chaque fois qu’on nous posait la question « La Framakey, elle marche sous linux ? », nous n’aurions même pas besoin de lancer (très bientôt) une campagne de soutien à Framasoft !

Jusqu’ici la réponse était « La Framakey fonctionne avec Wine. On peut aussi y faire tourner des distributions légères comme SLAX ou ToutouLinux en émulation. Mais on ne fera probablement jamais de clé bootable, car 1) ça prends beaucoup de place 2) les applications sur la Framakey sont déjà presque toutes présentes dans n’importe quelle distrib, et 3) booter sur une clé, Tata Jeannine elle va galérer comme une maman ourse. »

Mais il n’y a que les imbéciles (et les développeurs JSP) qui ne changent pas d’avis, et comme on n’a pas envie d’en faire partie, on va faire un peu de teasing :

  • Oui, il y aura bientôt une Framakey incluant un système GNU/Linux bootable.
  • Oui, ce système aura un disque persistant (= les documents et les applications ajoutés sous Linux resteront sur la clé, contrairement aux LiveCD/LiveUSB)
  • Oui, il y aura des liaisons entre les deux systèmes (= je suis avec portableThunderbird sous Windows, je relève mes mails. Je reboote sous Linux, j’ouvre Thunderbird, je retrouve ces mêmes mails).
  • Oui, a priori ce système sera… Ubuntu

Houla, j’en vois qui s’énervent déjà à lire le dernier point : « Encore du Ubuntu ! Pourquoi pas (Mandriva\Fedora\Hurd.*) ? » toussatoussa.

D’abord, rappelons que Framasoft – et donc la Framakey – vise le plus large public et que, sans aucunement préjuger de qualité techniques d’une distrib, l’expérience (tout a fait subjective, mais tout à fait assumée) nous a montré que des utilisateurs comme Tata Jeannine avaient de meilleurs retours sur la communauté Ubuntu-fr qu’ailleurs.

Ensuite, rappelons que la Framakey est volontairement hackable by design et 100% libre, donc aide toi et le GNU/RTFM t’aidera.

De plus, nous avons d’excellentes relations avec la communauté Ubuntu-fr, qu’on a connu à l’époque où ils étaient, oh pas plus haut que ça, alors que maintenant même le géant vert à l’air d’un nain à côté d’eux (il n’y a bien que Chuck Norris qui puisse encore leur faire de l’ombre). Je vous avais prévenu, c’est subjectif comme point de vue.

Enfin, pour ceux qui répondraient qu’on entretient un système, blablabla, je répondrai qu’on a déjà commencé à travailler sur un outil qui permettrait de choisir sa distribution avant l’installation. Un mix entre UnetBootin (pour le choix des ditribs) et Fedora LUC pour la possibilité de créer un disque persistant. Elle est pas belle la vie[8] ?

  • Avancement : une version alpha de chez alpha, disponible pour les windowsiens existe déjà, mais c’est tellement alpha que je n’ose vous livrer de lien[9]

Date de release estimée : RMLL 2009 (Juillet) (dépendra en partie de la communauté Ubuntu-fr. C’est pas parce que ce sont des amis qu’on ne va pas leur mettre la pression 😛 )

Le retour de la version Light

On nous a souvent reproché le fait d’avoir abandonné la version Light (pour les clés de 256Mo). C’était tout simplement trop lourd de maintenir 2 packages. Grâce aux outils dont je vous parlais plus haut, développés pour la Framakey 1.9, la version light fera son retour. N’espérez pas y trouver OpenOffice.org, celui-ci a pris beaucoup d’embonpoint, et son transfert sur clé peut prendre plusieurs heures sur des clés de mauvaises qualité.

  • Date de release estimée : fin mars 2009.

La Framakey Megapack

Tata Jeannine, quand elle achète un ordinateur, elle a de fortes probabilités de se retrouver avec du Windows inside (c’est le problème de la vente liée, mais je préfère ne pas l’évoquer aujourd’hui, sous peine de cumuler ça à l’exaspération générée par Hadopi). En plus, elle a plein de logiciels, dont la plupart lui diront au bout de trente jours qu’elle doit leur donner son numéro de carte bleue, sinon, ils se mettront en grève.

Par contre, elle n’a aucun logiciel libre. Alors que pour pas un rond, ils feraient tout aussi bien le travail et, accessoirement mais pas trop, lui redonnerait une prise directe et citoyenne sur sa vie numérique.
Alors, si Tata elle téléchargeait la Framakey Megapack, en 3 clics et le temps d’un épisode de Derrick, elle se retrouverait avec 60 applications libres sur son disque dur, le menu Démarrer qui va bien et tout et tout. Et même, on lui expliquerait en quoi Firefox (yeepa !) c’est plus mieux qu’Internet Explorer (bweark !), le tout avec un peu de musique libre pour bercer ces oreilles.

  • Date de release estimée : RMLL 2009 (Juillet)

D’autres éditions en perpective

Tout est possible, mais le temps n’étant pas extensible, voilà déjà un planning bien chargé. Évidemment, les idées sont les bienvenues…

Les « Framakey webapps »

Framakey - Harrypopof - Licence Art LibreDe plus en plus d’applications qu’on utilise sont des applications web. D’ailleurs, je ne vous ai pas dit que Tata Jeannine utilisait (l’excellent) Dotclear pour raconter la vie de Puffy, son caniche nain ?
Le souci, c’est que les applications web, on aime bien les tester avant, et que c’est souvent compliqué de mettre en place un système Apache/PHP/MySQL, puis d’y installer l’appli en configurant la base et tout et tout.

Alors l’idée serait donc de proposer des applis web portables pour Windows. Par exemple : PortableDotclear.zip, je dézippe, je lance PortableDotclear.exe, et hop, me voilà avec un dotclear directement utilisable.
Portable(Drupal|wordpress|joomla|mediawiki|dokuwiki|alfresco|sugarCRM|.*), c’est possible !

D’ailleurs, Bitnami le propose déjà. Mais 1) c’est pas 100% libre, et 2) ça n’est pas portable (installation de services windows).

Éventuellement, imaginez-le couplé avec Mozilla Prism, et ça peut donner un truc vraiment sympa, non ? (Évidemment, dans les endroits hyper-connectés, l’intérêt peut être limité, mais puisqu’on veut mettre vos sites sur liste blanche…)

  • Avancement : 30%
  • Dates de release estimée : 5 à 6 paquets pour les RMLL 2009 (Juillet)

Les projets à venir

La Framakey Mac

Évidemment, il n’y a pas que Windows dans la vie, il y a Mac aussi[10].
« Et pourquoi pas une Framakey pour les Mac ? »
Il y a une demande. On sait le faire. Mais on ne peut pas le faire…

C’est tout bête, mais on n’a pas de Mac, chez Framasoft (notez qu’on m’en a prêté un, une fois, j’ai trouvé que ça ressemblait furieusement à une Fedora[11]). L’appel au don[12] est ouvert. Par contre, c’est pas pour faire mon difficile, mais s’il pouvait être 1) récent et 2) portable ou mini, ça m’arrangerait pour préserver la paix de mon ménage qui commence à trouver que le bureau ressemble furieusement à la salle des machines de Star Treck IV.

  • Date de release estimée : pas de Mac, pas de Framakey Mac.

La Framakey 2

Ah, la Framakey 2, alias Winaptic, alias « ça sortira… un jour… peut être »… Tous les libristes m’ayant croisé ces 3 dernières années ont dû repartir avec un bon mal de crâne, tellement je les ai saoulé avec ce projet (les Kazé, Paul, Sonny, et j’en passe). Le principe, c’est tout simplement un Synaptic pour Windows. Avec pour système de paquets, le … .zip (volontairement, on ne gère pas de dépendances, tout étant dans le zip). Là encore, un des problèmes de Tata Jeannine, c’est qu’elle n’a jamais entendu parler de Firefox (la pauvre) ou d’Audacity, ou d’InfraRecorder. Pourtant, ça lui serait bien utile.
Elle télécharge donc la Framakey 2 (10Mo) sur son disque dur (interne ou externe) ou sa clé USB, l’exécute et là on lui demande de quoi elle a besoin. « Un navigateur web ? Mais bien sûr qu’on a cela, je vous propose de télécharger Firefox en cochant la case à côté. Ah, et un logiciel pour enregistrer vos vinyls ? bien entendu, cochez donc Audacity. Ca sera tout ? Bien. Tant que vous êtes là, je vous signale que l’application CoolPlayer que vous aviez téléchargée existe dans une version plus récente. Souhaitez vous la mettre à jour ? Parfait. Maintenant, cliquez donc sur Télécharger et installer et allez donc regarder la fin de Derrick pendant que je travaille. »

Bref, une Framakey sur mesure.

Dans mes rêves les plus fous, elle était faite en XUL, la technologie qui motorise Firefox. D’ailleurs, entre télécharger une extension et une application, il n’y a qu’un pas…(je laisse les développeurs XUL méditer cette phrase). Mais mes rêves les plus fous… Enfin bref, une version alpha est disponible depuis plusieurs mois. Mais elle est boguée et pas très à jour… Elle repose sur aSuite pour le lanceur, et AppSnap pour le gestionnaire d’applications, avec une glue maison pour faire tourner tout ça. Grâce à Mouss (de la communauté Framakey), on a pu faire le gros des adaptations nécessaires, mais il reste encore pas mal de bugs…

Vous pouvez d’ailleurs en voir une ancienne vidéo (ça commence en gros à la moitié) :

—> La vidéo au format webm

  • Avancement : 50%
  • Date de release estimée : 2009 si tout va bien… et on ne rigole pas au fond de la salle…

Pendant ce temps là, à Vera Cruz

La roadmap serait incomplète sans parler :

  • du portail d’applications portables, qu’il faut maintenir à jour (sans parler des nouvelles applications qui y seront ajoutées sous peu),
  • du rapprochement en cours avec la communauté PortableApps.com (même si je suis critique sur leur système de packaging et description d’applications, ils sont infiniment plus gros que Framakey, et nous avons donc tout intérêt à coller à leurs normes),
  • du site web Framakey, qui sera probablement refondu dans l’année,
  • du projet, récurrent, de monter une petite boutique en ligne où vous pourriez acheter des clés de qualité à prix modique, avec la Framakey de votre choix préchargée (donc, plus la peine d’enchainer Les feux de l’amour, Derrick et Arabesque, que tous les fichiers soient copiés).

Voilà, c’était un rapide (!) tour d’horizon de « où en est Framakey, et où va-t-elle ? ». Félicitations à ceux qui auront réussi à lire jusqu’ici !
Si vous le souhaitez, et si l’hôte de ce blog en est d’accord, je reviendrais régulièrement vous donner des nouvelles de l’avancement de ces différents projets.
A moins que ça ne soit pour vous parler du FramaDVD… Mais chut, je ne vous en dis pas plus…

Marius - CC by-sa

Notes

[1] Crédits photos et illustrations : 1. Nojhan (Licence Art Libre) – 2. Capture écran Framakey 1.9 par Pyg (Creative Commons By) – 3. Wstryder (Creative Commons By) – 4. Harrypopof (Licence Art Libre) – 5. Marius (Creative Commons By-Sa)

[2] Enfin, propre, propre, c’est une façon de parler.

[3] Notez que l’idée n’est pas mauvaise en tant que telle, mais elle n’est pas toujours pertinente.

[4] Au niveau mondial, je pense bien, jusqu’à ce qu’on m’indique le contraire.

[5] Imaginez ma surprise l’été dernier quand, rencontrant un ami d’ami de nationalité libanaise, il me vanta les mérites de sa clé pleine de logiciels et qu’au lancement je découvris.. un clone de la Framakey !

[6] Attention : de l’ironie un peu agacée se cache dans cette phrase, sauras-tu la retrouver ?

[7] Certes, le journalistes fait de nombreux amalgames et contre-sens, mais pour nous l’essentiel est bien que les élèves puissent avoir librement accès à Firefox, OpenOffice.org, et bien d’autres…

[8] Attention : un presque titre de série se cache dans ce titre, sauras-tu le retrouver ?

[9] Attention : un mensonge éhonté se cache dans la phrase précédente, sauras-tu le retrouver ?

[10] Attention : un troll se cache dans cette phrase, sauras-tu le retrouver ?

[11] Attention : une vérité profonde se cache dans cette phrase, sauras-tu la retrouver ?

[12] Financier, ou carrément de machine si vous êtes sur Lyon.




Musique, industrie et industrie musicale

Notsogoodphotography - CC byNous le savions déjà : « musique » et « industrie musicale » sont deux entités distinctes. La révolution numérique n’a fait que nous le rappeler mais en apportant un petit quelque chose en plus : la possibilité pour le premier de ne pas être obligé d’en passer forcément par le second pour exister. Surtout si cette industrie musicale renonce à s’adapter et préfère mettre son énergie à chercher des mesures coercitives pour ramener ses clients dans le droit chemin de la rassurante situation d’avant (qui n’est déjà plus).

Et si nous commencions par prendre conscience des évolutions avant que d’envisager une éventuellement réconciliation ?

La traduction de ce court extrait du blog de Seth Godin y participe modestement.[1].

Musique vs L’Industrie Musicale

Music vs. the music industry

Seth Godin – 13 février 2009 – Blog
(Traduction Framalang : Claude le Paih)

Quelques extraits d’une interview sur le futur de l’industrie musicale. J’abordais une industrie spécifique, mais je pense que cela peut être généralisé.

L’industrie musicale privilégie surtout l’aspect « industrie » et moins l’aspect « musique ». C’est le meilleur moment de l’histoire de la musique si votre rêve est de distribuer autant de musique que possible à un maximum de personnes, ou si votre objectif en tant que musicien est d’être écouté par une large audience. Il n’y a jamais eu une telle époque auparavant. Donc si votre intérêt est la musique, c’est génial.
Mais si votre intérêt penche vers le côté industriel et ses limousines, ses acomptes, ses juristes, son polycarbonate et ses vynils, c’est tout simplement horrible. Le changement actuel étant que les personnes persistant à vouloir garder le monde tel qu’il était avant, seront de plus en plus contrariées par la nouvelle donne, ce qui peut aller jusqu’à la perte de leur emploi. Ceux qui veulent inventer un nouveau cadre, de nouvelles de règles du jeu, un nouveau paradigme, n’en reviennent pas de leur bonne fortune et réalisent combien ils sont chanceux que le monde de l’industrie ne remarque pas une telle opportunité…

Je définis une tribu comme un groupe de personnes partageant une culture, un but, une mission commune, et aussi souvent un leader commun. Il y a des tribus de gens, sortant parfois des sentiers battus, qui se sentent en phase parce qu’ils veulent repenser l’industrie musicale. Il y a ainsi la tribu de ceux qui suivent Bruce Springsteen et paient des sommes déraisonnables pour l’écouter en concert et comparer les titres.
Cela n’a plus rien à voir avec les anciennes habitudes des labels musicaux occupés à conquérir de l’espace commercial à la radio et dans les magasins de disques. L’industrie musicale a désormais besoin de se redéfinir et d’œuvrer à la recherche, l’interconnexion et la direction de tribus d’individus désirant suivre un musicien et se connecter avec ceux qui souhaitent en faire de même…

Dans les années soixante-dix et quatre-vingt, vous écoutiez une chanson car « tous les autres » l’écoutaient aussi. C’est la définition de la pop music. À cette époque, nous définissions « les autres » comme des personnes de notre université ou des gens écoutant la radio WPLJ[2].
Aujourd’hui, « les autres » ne sont pas définis par le lieu de résidence ou la radio écoutée. Ils sont définis par le segment vertical ou horizontal du monde auquel vous vous connectez. Je peux écouter Keller Williams[3] parce que ma tribu connaît des Deadheads désenchantés[4]. N’ayant plus de nouveau Grateful Dead à écouter, nous écoutons Keller Williams : c’est de la pop music pour nous. Il n’est pas populaire chez les jeunes du collège qui n’ont jamais entendu parler de lui, n’est-ce pas ? Ainsi vous vous retrouvez avec une multitude de niches qui sont autant de manières différentes de regarder le monde…

Le tout numérique est en train de surpasser le CD, et une fois le mouvement amorcé cela va de plus en plus vite. Le plus intéressant pour moi est de connaître celui qui contrôlera la programmation musicale (NdT : la playlist). S’il y a une quantité infinie de musique offerte (et dès que la quantité de musique excède le temps disponible d’une vie, elle est infinie !), quelqu’un sera-t-il assez influent pour me suggérer quoi écouter ? Ce quelqu’un sera-t-il payé pour me le dire ou bien paiera-t-il pour me le dire ? La question reste pour le moment ouverte mais les réponses sont dans toutes ces niches. Qui sont les personnes influentes et comment se diffusent cette influence ?
L’analogie que j’aime donner est que si vous êtes un écrivain et qu’Oprah Winfrey[5] vous appelle, vous ne dites pas : « combien allez vous me payer pour participer à votre show et présenter mon livre ? » En fait, si vous le pouviez, vous paieriez pour collaborer avec Oprah.
Pendant très longtemps, l’industrie musicale a eu deux grandes idées : d’un côté, payer pour passer sur Clear Channel[6] ou MTV, de l’autre, faire payer pour écouter sa musique en concert ou sur votre chaîne Hi-Fi. Ces temps sont tous en train de se diluer actuellement. « Si je suis le directeur des programmes de ma propre radio, que devient mon bakchich ? »[7].

Notes

[1] Crédit photo : Notsogoodphotography (Creative Commons)

[2] Radio populaire aux USA

[3] Keller Williams est un chanteur américain un peu « décalé »

[4] Les Deadheads sont des fans du groupe Grateful Dead

[5] Oprah Winfrey est l’animatrice du célèbre talk-show qui porte son nom

[6] Clear Channel est un groupe de médias américains possédant de nombreuses radios et télévisions

[7] Bakchich ou payola dans le texte




Projet de loi Création et Internet : l’April s’insurge et appelle à la mobilisation

Qualifié, malheureusement à juste titre, de DADVSI 2, le projet de loi « Création et Internet » (ou Hadopi) vient de chauffer aux oreilles de l’April. Il faut dire qu’il y a de quoi et le rapporteur (et benjamin) de l’UMP Franck Riester d’en prendre pour son grade.

Je vous laisse, je dois contacter mon député…

Riposte graduée : le rapporteur s’oppose à l’interopérabilité, l’April appelle à la mobilisation

URL d’origine du document

APRIL – 23 février 2009 – Communiqué de presse

Trois ans après DADVSI, le gouvernement et la majorité semblent n’avoir rien retenu des débats sur l’interopérabilité[1] et le logiciel libre. Lors de l’examen du texte « Création et Internet » en commission des lois de l’Assemblée nationale, le rapporteur UMP Franck Riester s’est opposé à l’interopérabilité des moyens de sécurisation imposés par le projet de loi, au motif que l’interopérabilité empêcherait le libre choix de l’utilisateur ! L’April s’insurge et appelle chacun à contacter son député pour l’alerter.

Véritable DADVSI 2, le projet de loi « Création et Internet » déjà validé par le Sénat est actuellement programmé à l’ordre du jour de l’Assemblée nationale. Après un examen en commissions, le texte sera examiné en séance à partir du 10 mars 2009.

L’essentiel du projet de loi est bien d’échafauder une nouvelle autorité administrative – l’Hadopi[2] – qui aura pour but de faire une répression de masse sur la base de relevés informatiques. Mais il prévoit également d’imposer aux titulaires d’un accès à Internet des « moyens de sécurisation » visant à empêcher que leur connexion soit utilisée pour commettre des infractions.

« On ignore tout de la nature de ces moyens de sécurisation : on ne sait pas ce qu’ils font, ni où ils s’installent, et quelle est la maîtrise que l’utilisateur pourra en avoir, » déplore Alix Cazenave, responsable des affaires publiques de l’April. « Qu’ils ne fassent pas le jeu d’éditeurs pratiquant la vente liée serait un minimum ! » L’April a d’ailleurs été reçue par des députés de tous les groupes pour leur faire part de ses questions et de ses inquiétudes[3].

Pourtant sur la question précise de l’interopérabilité, les députés Jean Dionis du Séjour (Nouveau Centre) et Patrick Bloche (Socialiste, Radical et Citoyen) se sont heurtés à un refus catégorique du rapporteur, motivé par un argument que nul n’aurait imaginé : il est simplement défavorable à l’interopérabilité[4] ! Il s’est de même opposé à ce que l’abonné soit exonéré de sa responsabilité lorsqu’il n’existe pas de moyens de sécurisation adaptés à sa configuration. L’April avait pourtant, dès le 6 mars 2008[5], alerté le conseiller juridique de la ministre de la culture sur le risque que comporte ce genre de mesures pour l’interopérabilité et le logiciel libre. À l’époque déjà, aucune réponse n’avait été apportée quant à la nature de ces moyens de sécurisation, le conseiller Henrard se contentant d’affirmer que la loi créerait le marché (sic).

« Ce que Franck Riester ne comprend pas, c’est que l’interopérabilité est le libre choix des consommateurs. On se croirait de retour en 2006 avec le benjamin de l’époque, Laurent Wauquiez, qui avait au moins eu l’honnêteté de reconnaître son incompétence[6]. En 2005, la SACEM voulait nous faire changer nos licences[7] ; Franck Riester voudrait-il nous obliger à changer de système d’exploitation ?», s’interroge Frédéric Couchet, délégué général de l’April.

« Monsieur Riester est la preuve qu’il reste encore à l’Assemblée nationale des députés opposés à l’interopérabilité et au logiciel libre[8]. Il soutient un dispositif qui va, une fois de plus, pénaliser sans aucune justification les auteurs et utilisateurs de logiciels libres, les mettant dans une situation d’insécurité juridique absolument inacceptable. Le groupe UMP a décidément bien choisi son rapporteur : tout comme cette loi, il nie la réalité technique, protège des intérêts particuliers et souffre d’un archaïsme affligeant » s’insurge Benoît Sibaud, président de l’April.

Comme pour DADVSI, l’urgence est déclarée. Comme pour DADVSI, ce texte est annoncé comme le remède miracle contre le téléchargement non autorisé d’œuvres en peer-to-peer. Comme pour DADVSI, des mesures « techniques » de contrôle d’usage sont imposées. Comme pour DADVSI, l’interopérabilité est méprisée. Comme pour DADVSI, le logiciel libre est ignoré, et ses utilisateurs menacés.

C’est pourquoi, comme pour la loi DADVSI, l’April appelle tous les citoyens attachés au logiciel libre à contacter leurs députés[9] et à les alerter afin qu’ils s’opposent à cette nouvelle menace. Elle les invite également à écrire au rapporteur Riester pour lui demander de revenir sur ses positions inacceptables.

Notes

[1] rappelons au passage l’article 7, adopté le 16 mars en seconde délibération à l’unanimité, faisant de la France le premier pays d’Europe à véritablement défendre activement l’interopérabilité, première mondiale saluée Outre-Atlantique. Communiqué du 18 avril 2006 « Projet de loi "DADVSI" : à contre-courant, le Sénat rejette l’interopérabilité et prône la brevetabilité du logiciel ».

[2] Haute Autorité pour la diffusion et la protection des œuvres sur Internet, créée à partir de l’Autorité de régulation des mesures techniques de la loi DADVSI.

[3] Notamment les porte-paroles des groupes Nouveau Centre (NC), Socialiste, Radical et Citoyen (SRC), Gauche Démocratique et Républicaine (GDR), ainsi que par la rapporteure pour avis (UMP) de la commission des affaires culturelles. Elle doit également être auditionnée par le rapporteur pour avis (UMP) de la commission des affaires économiques.

[4] Extrait du compte-rendu n°28 de la réunion de la commission des lois, mercredi 18 février 2009, séance de 9h30 : — Art. L. 331-30 (nouveau) du code de la propriété intellectuelle : Liste des moyens de sécurisation efficaces : La Commission adopte un amendement du rapporteur précisant les consultations auxquelles la HADOPI devra procéder avant de rendre officielles les spécifications fonctionnelles des moyens de sécurisation et supprimant l’établissement d’une liste officielle de ces spécifications. Elle est ensuite saisie d’un amendement de M. Jean Dionis du Séjour précisant que les moyens de sécurisation devront être interopérables et mis à la disposition des consommateurs gratuitement. – M. le rapporteur : Les moyens de sécurisation mis en place ne sauraient être gratuits, à l’image des logiciels de contrôle parental, mis à la disposition des consommateurs à titre payant, même si leur prix est modique. – M. Jean Dionis du Séjour : J’accepte de supprimer de mon amendement la condition de gratuité. – M. le rapporteur : J’en viens au second objet de l’amendement : l’interopérabilité. Je n’y suis pas favorable. Il faut laisser au consommateur sa totale liberté de choix en fonction de son système d’exploitation. L’interopérabilité n’est pas nécessaire pour les consommateurs et elle est trop contraignante pour les éditeurs de logiciels. La Commission rejette l’amendement, puis adopte deux amendements du rapporteur, le premier visant à préciser que la HADOPI établit une liste labellisant les moyens de sécurisation, le second de nature rédactionnelle. Elle rejette ensuite, par cohérence, un amendement de M. Patrick Bloche précisant que les moyens de sécurisation devront être interopérables et mis à la disposition des consommateurs gratuitement.

[5] Voir le compte rendu de la réunion avec Laurent Ladouari et Olivier Henrard.

[6] « Nous devons reconnaître honnêtement les limites de nos compétences techniques – certains d’entre nous en ont apporté la preuve, moi le premier hier soir – sur des sujets extrêmement techniques comme le MP4 ou les fichiers MP3. » – Laurent Wauquiez, député UMP benjamin de l’AN sous la XIIème législature, porteur de la partie civile de l’amendement Vivendi, lors de l’examen du DADVSI. Franck Riester est « benjamin du groupe UMP et troisième plus jeune député de l’hémicycle » selon ce portrait.

[7] « Vendredi 18 novembre 2005, au ministère de la Culture, le SNEP et la SCPP déclarent aux auteurs de Logiciel Libre : « Vous allez changer vos licences. » La SACEM ajoute : « Vous allez arrêter de publier vos logiciels. » Et se déclare prête à « poursuivre les auteurs de logiciels libres continuant de divulguer leur code source » – Extrait du communiqué de presse de la FSF France du 25 novembre 2005.

[8] Contrairement au prédécesseur de Franck Riester sur la 5ème circonscription de Seine-et-Marne, Guy Drut, UMP lui aussi, qui a été un des questeurs à l’origine de la migration vers le logiciel libre du poste de travail des députés français.

[9] Pour une liste des députés, leurs fiches individuelles et leurs coordonnées, voir également le Mémoire Politique disponible sur le wiki de la Quadrature du Net.




Wikipédia et éducation : un exemple de réconciliation 2/6

Cet article fait partie du dossier Wikipédia et éducation : un exemple de réconciliation.

C’est la traduction du témoignage de l’enseignant qui est ici présentée.

Copie d'écran - Wikipédia - Jon Beasley-Murray

Introduction de Wikipédia dans les salles de classe : le loup est-il dans la bergerie ?

Was introducing Wikipedia to the classroom an act of madness leading only to mayhem if not murder?

Jon Beasley-Murray – avril 2008 – Wikipédia
(Traduction Framalang : Olivier)

Réflexions sur l’utilisation de Wikipédia dans le cadre du cours SPAN312 à l’Université de la Colombie Britannique, « Murder, Madness, and Mayhem: Latin American Literature in Translation » (NdT : « Meurtre, Folie et Chaos : la littérature latino-américaine en mouvement »), printemps 2008.

Wikipédia : mal aimée mais omniprésente dans l’éducation

Tel un membre non invité, Wikipédia s’aventure aujourd’hui très près du monde universitaire. Les objectifs de Wikipédia sont éminemment académiques : l’encyclopédie se focalise sur la collecte, le traitement, l’enregistrement et la transmission du savoir. À en juger par le nombre d’articles et de lecteurs, elle a particulièrement bien réussi à encourager une culture de curiosité intellectuelle. Elle est pourtant régulièrement sujette aux critiques formulées par les universitaires eux-mêmes.

Et pourtant tout le monde en fait usage d’une manière ou d’une autre, même si c’est difficile à admettre. Et surtout, nos étudiants l’utilisent, ouvertement ou non (puisqu’on leur impose souvent de ne pas citer les articles de Wikipédia dans leurs travaux), mais sans nécessairement en connaître véritablement le fonctionnement. On leur dit que l’usage de Wikipédia n’est pas conseillé, mais on leur dit rarement pourquoi, alors qu’eux la voient comme une ressource incroyablement utile.

La consigne : créer un « Article de Qualité »

J’ai décidé de faire de Wikipédia un axe central d’une matière que j’enseignais, en pensant que c’est seulement en y contribuant activement que les élèves découvriraient ses points faibles et ses points forts. J’avais aussi en tête l’idée qu’ils pourraient par la même occasion améliorer les articles dans un domaine qui à mes yeux manquait cruellement de contenu, en l’occurrence la littérature latino-américaine.

Wikipédia devait être un point important du cours mais sans en être pour autant l’essentiel. Ce n’était pas un cours sur Wikipédia mais, comme mes autres cours, il devait plutôt se concentrer sur l’Amérique Latine ainsi que sur la lecture d’un corpus de textes littéraires d’Amérique Latine. Dans ce cours intitulé « Murder, Madness, and Mayhem » (NdT : Meurtre, Folie et Chaos), les textes choisis comportaient une série de romans sur la dictature de la période du dix-neuvième siècle avec l’argentin Domingo Faustino Sarmiento jusqu’à l’époque contemporaine avec certains des auteurs d’Amérique Latine les plus en vue comme Gabriel García Márquez et Mario Vargas Llosa. Ces livres n’étant ni simples ni courts, les étudiants devaient passer une bonne partie de leur temps personnel à la lecture, la majeure partie du temps en classe étant consacrée aux explications et à la discussion.

Wikipédia n’était que peu abordé durant les cours. La tâche qui leur était assignée était plutôt d’éditer (ou, dans deux cas, de créer), en groupe, les articles de Wikipédia se rapportant aux œuvres et aux auteurs étudiés. Au cours de la session ils devaient réussir à faire obtenir à ces articles ce qu’on nomme dans le jargon Wikipédia le grade d’Article de Qualité.

Lorsque je leur ai assigné cette tâche je ne réalisais pas à quel point c’était ambitieux. Wikipédia définit un Article de Qualité comme un article qui « représente ce que l’on peut de trouver de mieux, et qui répond à des standards professionnels d’écriture et de présentation ». Et ces standards placent de fait la barre très haut. C’est manifestement un des paradoxes de Wikipédia : ses standards sont irréprochables alors même que la majeure partie de son contenu en est fort éloigné. Pour vous donner une idée, moins de 0,1% des articles de Wikipédia possèdent le label Article de Qualité.

En effet, alors que Wikipédia a déjà fait l’objet de nombreux projets pédagogiques au sein d’universités aussi dispersées que celles de Sydney, Hong-Kong, Minnesota et Leiden, c’était à ma connaissance la première fois qu’on demandait explicitement à des étudiants de créer des Articles de Qualité.

Considérations initiales : les avantages de Wikipédia

En plus d’enseigner (même indirectement) aux étudiants les faiblesses et les forces de Wikipédia et en même temps (peut-être incidemment) d’améliorer le contenu de l’encyclopédie concernant l’Amérique Latine, d’autres raisons plus positives venaient étayer ce choix de travail.

L’idée que les étudiants se lançaient dans un projet concret ayant des effets tangibles et publics, à défaut d’être éternels, me plaisait. Après tout, une dissertation ou un examen est un parfait exemple de travail inutile : souvent rédigé à la hâte pour un lecteur unique, le professeur, et ensuite mis de côté.

Je trouve regrettable qu’à de rares exceptions près, comme par exemple dans les ateliers d’écriture, les étudiants ne soient pas plus encouragés à relire et à réfléchir à leur propre travail, où trop souvent ils ne font que jeter un coup d’œil aux commentaires que le professeur aura laborieusement griffonné. C’est compréhensible, puisqu’ayant à ce stade très peu de chances de pouvoir retravailler leur devoir, ils ne s’intéressent alors qu’à leur note et c’est tout. Les étudiants ne découvrent que rarement l’importance des corrections dans un bon travail d’écriture. Alors qu’au contraire, sur Wikipédia, les corrections font (presque) tout : les contributeurs sont appelés « éditeurs » justement parce que leurs écrits sont en permanence au stade de la correction.

De plus ils participeraient à l’élaboration de pages qui, pour certaines (l’article sur Gabriel García Márquez par exemple), reçoivent plus de 60 000 visiteurs par mois. Même les articles les moins visités sur lesquels ils travaillaient recevaient plusieurs centaines de visites par mois. Ici ils écrivaient des articles pour un lectorat ayant la possibilité rare de répondre, de ré-écrire et de commenter le contenu qu’ils produisaient. En effet, travailler sur Wikipédia ouvre la porte au travail collaboratif : les étudiants devaient non seulement collaborer entre eux, mais aussi avec d’autres éditeurs ou des wikipédiens qu’ils ne rencontraient que sur le wiki.

Pour finir, l’idée même que l’attribution de la note soit extérieure à la classe m’attirait. L’idée que le travail soit jaugé à l’aune de son impact et non par le jugement personnel d’un professeur (aussi professionnel soit-il) me plaisait. Dès le départ, j’ai établi avec eux que les groupes qui réussiraient à faire obtenir à leur article la mention Article de Qualité seraient notés A+, c’est aussi simple que ça. Ceux qui atteignaient la mention Bon Article (la barre est placée moins haut, mais les Bons Articles ne représentent tout de même que 0,15% de tous les articles de Wikipédia en anglais) recevraient un A. La note pour ce devoir, en d’autres termes, serait déterminée par l’appréciation collective et publique des autres auteurs.

Considérations initiales : pièges potentiels

J’avoue que je n’ai pas beaucoup pris en considération les écueils de ce plan. Je reconnais que c’était un peu une expérience, mais la tenter me rendait enthousiaste. Ce n’était de toute façon pas le seul point sur lequel le cours serait noté et l’évaluation ne reposerait pas entièrement dessus : les étudiants devaient également tenir à jour un blog hebdomadaire sur leurs lectures et rendre deux devoirs, un à mi-session et un autre à la fin.

(En fin de compte le devoir de fin de session a été abandonné à la majorité des 2/3 de la classe après un vote des étudiants à bulletin secret : 85% d’entre eux ont voté pour l’annulation du devoir final et pour un plus gros coefficient du travail sur Wikipédia.)

J’avais surtout peur que les étudiants soient pris dans une guerre d’édition non constructive et potentiellement décourageante. Une guerre d’édition est un débat sans fin entre des éditeurs qui n’arrivent pas à s’accorder sur le contenu de l’article. Comme dans beaucoup d’interactions en ligne, ces désaccords deviennent rapidement désagréables et provoquent l’intervention d’un administrateur de Wikipédia qui peut décider de « bloquer » l’un des individus impolis, voire les deux. Je n’étais que trop conscient de ce problème puisque dans mes tentatives d’exploration de Wikipédia quelques mois avant de donner ce cours, je me suis retrouvé (plutôt par inadvertance) pris dans de telles guerres, et je me suis fait bloquer pendant quelque temps.

C’est toujours un peu risqué d’amener les étudiants à interagir directement avec la sphère publique. Et, d’une certaine manière, nous devons veiller sur eux. C’est peut-être la raison pour laquelle tellement de technologies de l’éducation (dont WebCT est le meilleur exemple) sont hermétiquement isolées du « monde réel ». Et ça ne serait pas très productif si l’un de mes étudiants se retrouvait bloqué et ne pouvait pas poursuivre son travail ! J’ai donc croisé les doigts en espérant que cette éventualité ne se présente pas.

Premiers pas : « notre » projet se met en route

Wikipédia ne m’était pas totalement inconnue puisque j’avais déjà à mon actif de nombreuses éditions d’articles et même quelques créations (même si ces derniers n’étaient rien d’autre que des ébauches, des versions courtes et préliminaires). Mais jusque là je n’avais pas encore travaillé de manière durable sur un article de Wikipédia. Et bien que j’avais quand même un sentiment de familiarité ainsi qu’un certain sens de la culture Wikipédia, j’avoue que j’étais malgré tout (et le suis d’ailleurs toujours) perplexe devant certains des détails les plus impénétrables des techniques et procédures de ce qui est maintenant devenu une gigantesque et labyrinthique entreprise.

D’un autre côté, cela m’a permis de comprendre l’intimidation que les élèves ne manqueraient pas de ressentir devant la tâche qui se présentaient à eux. Seuls un ou deux étudiants avaient déjà fait des modifications sur Wikipédia et ils étaient peu nombreux à montrer des signes de familiarité avec les conventions du Web. Et ne parlons même pas du code spécifique à Wikipédia (même si celui-ci est simplifié). Je crois que je peux comprendre leur étonnement quand, ayant cliqué pour la première fois sur le bouton « Modifier », ils sont tombés sur une masse confuse de gribouillis caractéristiques des logiciels de wiki.

Pour poser les bases du projet et obtenir du soutien, j’ai enregistré le projet sur une page Wikipédia dédiée à ce genre de choses, j’ai fait apparaître sur tous les articles du projet qu’ils faisaient partie d’une tâche pédagogique, et j’ai démarré une « page projet » décrivant nos objectifs. J’ai aussi laissé des messages sur d’autres projets Wikipédia jugés connexes (principalement des groupes d’éditeurs de Wikipédia qui se concentrent sur un sujet particulier comme par exemple la littérature ou l’Amérique du Sud); j’ai même laissé un mot au journal maison de l’encyclopédie, le Wikipédia Signpost (NdT : le Wikimag en français). J’ai ensuite présenté le projet à la classe, demandé aux étudiants de se créer un compte sur Wikipédia et j’ai croisé les doigts pour que ça marche.

Vous avez peut-être remarqué que je parle de « notre » projet et de « nos » objectifs. J’essaie en général d’inclure tout le monde quand je parle en classe : « nous » lisons les textes « ensemble  », « nous » essayons de comprendre comment les interpréter. Mais ici la sensation était presque palpable : dès le départ je sentais que je faisais aussi partie du projet, sentiment qui n’ira qu’en s’amplifiant dans les semaines suivantes.

Leçon numéro 1 : « ceci pourra être effacé »

Assez rapidement, quand tout le monde fut censé s’être enregistré et avoir commencé à jouer un peu avec les modifications, j’ai apporté mon ordinateur en cours et j’ai présenté les bases aux étudiants. Raccordé à un vidéoprojecteur, je leur ai montré sur grand écran où se trouve l’onglet « Modifier », comment faire une modification mineure (en changeant un mot sur la page Wikipédia de notre université) et comment faire une modification majeure (en vaporisant un article associé à l’université qui était manifestement un plagiat d’un autre site Web).

Un élève m’a par la suite demandé de leur montrer comment créer une nouvelle page. Deux des articles sur lesquels ils travaillaient n’existaient pas alors et j’ai alors décidé de créer El Señor Presidente, dont le seul contenu initial était : « El Señor Presidente est le titre d’un roman de Miguel Ángel Asturias ». J’ai ensuite poursuivi sur d’autres pages avant de revenir à celle-ci quelques instants plus tard… et c’était tout pour la première leçon. Sauf que, à mon grand embarras (et devant la classe entière) j’ai découvert qu’en à peine une minute d’autres éditeurs de Wikipédia avaient déjà collé une énorme bannière rose sur notre tout frais nouvel article avec la mention suivante : « Cette page est susceptible de remplir les critères de Wikipédia pour suppression rapide ». « Les salauds ! » murmurai-je dans ma barbe et je me suis dépêché de modifier le contenu de l’article pour y afficher « El Señor Presidente est le titre du roman le plus important du romancier, lauréat du prix Nobel, Miguel Ángel Asturias », inquiet que notre petit projet se fasse torpiller à peine commencé.

Si j’avais voulu montrer aux étudiants que la modification de Wikipédia est un exercice de négociation avec l’entière communauté d’éditeurs et de lecteurs, je n’aurais pas pu mieux choisir mon exemple. J’ai découvert (depuis) que pour d’autres projets pédagogiques sur Wikipédia, les étudiants sont souvent encouragés à faire un brouillon de leurs articles à l’abri des regards et de les enregistrer sur les pages publiques uniquement lorsqu’ils sont prêts à affronter un examen général. Ici tout était exposé et ouvert dès le début. Mais je n’ai aucun regret. C’est en effet là que le projet a puisé certains de ses meilleurs atouts.

La FA-Team : synergies, du bon et du mauvais

Mais on a rapidement eu un gros coup de chance, alors même que les messages que j’avais envoyés aux différents projets Wikipédia pré-existants semblaient lettre morte (la plupart, d’après ce que j’ai pu voir, étant enterrés ou plus souvent simplement débordés). Il s’est en effet trouvé qu’un groupe d’éditeurs expérimentés de Wikipédia avait commencé à lancer des idées pour augmenter le nombre d’Articles de Qualité sur Wikipédia. Ils se sont baptisés la « FA-Team » (NdT : L’équipe des Articles de Qualité, FA pour Featured Articles) et cherchaient alors un projet auquel participer. Or ils « nous » ont repéré et nous ont écrit pour savoir si nous désirions un coup de main.

Est-ce que nous désirions un coup de main ? Évidemment !

La FA-Team s’est répartie les articles du projet, ils ont laissé des messages d’accueil sur la page de discussion de chaque étudiant (les pages personnelles spécifiques à chaque utilisateur enregistré de Wikipédia et qui fonctionnent comme des pages où les éditeurs peuvent entrer en contact directement avec l’utilisateur) et ils ont débuté leur mission d’encouragement, de conseil et de guide auprès de notre groupe afin de nous pousser à rédiger des articles de Wikipédia de haut niveau. Ce sont des gens très méticuleux, dévoués, et par dessus tout généreux.

Je réalise maintenant que la FA-Team nous a fait la démonstration de la plus grand force (et peut-être aussi la plus grande faiblesse) de Wikipédia : la synergie. Les éditeurs de Wikipédia sont attirés par l’activité. J’irai même plus loin : ils sont particulièrement attirés par l’activité qui aboutit à l’ajout de contenu nouveau à l’encyclopédie. Un bon exemple de cette attraction est l’avertissement que j’ai reçu après avoir créé une page : il existe un noyau de volontaires de Wikipédia qui scrute sans cesse la création de nouvelles pages, prêts à se jeter dessus si un sujet déplacé ou non-encyclopédique est proposé. N’importe qui peut créer une page Wikipédia, mais si vous en créez une sur vous, votre petit groupe de musique ou votre chat, attendez vous à la voir disparaître sans avoir le temps de dire ouf.

De même, beaucoup de personnes émettent des critiques à l’encontre de Wikipédia, la plus connue étant peut-être celle du comédien américain Stephen Colbert, justement parce que n’importe qui peut ajouter n’importe quelle bêtise à un article. Mais je crois que ces personnes ne réalisent pas que des équipes dévouées de wikipédiens surveillent les modifications récentes pour éliminer rapidement ces bêtises flagrantes.

Mais l’aspect vraiment constructif de la réactivité de Wikipédia s’est également manifesté quand, dans les deux jours suivants la création de la page El Señor Presidente, une petite armée d’éditeurs a apporté des modifications mineures qui, combinées, ont apporté des changements importants dans la mise en page. Un des étudiants a ensuite ajouté un fragment d’information qu’il avait trouvé sur un autre site Web. Un petit coup de mise en page réalisée par d’autres éditeurs et au cours suivant cet article ressemblait déjà aux autres pages Wikipédia. Un peu court peut-être, plutôt incomplet et avec quelques sources tirées un peu au hasard d’Internet, mais il apportait des informations sur le sujet aux lecteurs, au moins le minimum, et surtout il était intégré au grand vaisseau Wikipedia.

(Je devrais préciser ici que j’étais indifférent au fait que le travail final des étudiants pourrait ne pas être « entièrement leur travail ». Pour moi, réussir à persuader d’autres personnes de travailler avec eux, travailler en harmonie avec des inconnus faisait également partie du projet. On peut évidemment se dire qu’ils pouvaient tricher pour accomplir leur devoir, comme pour n’importe quel autre devoir, par exemple en payant une tierce personne pour écrire les articles à leur place. Mais en fait le logiciel wiki qui suit les contributions de chacun offre une transparence inégalée, on sait ce que les étudiants font, étape par étape, qui, quoi et quand.)

Ainsi, l’intervention de la FA-Team n’était donc pas exceptionnelle. Ce n’est qu’un exemple de ce principe de synergie porté à une échelle légèrement plus importante et développée. On peut énoncer le principe de synergie ainsi : plus vous contribuez à Wikipédia, plus votre activité résonne et est développée et multipliée par l’activité d’autres personnes. Certes, les guerres d’édition existent, mais d’après mon expérience elles n’affectent en général pas l’ajout de nouveaux contenus. Ce n’était pas juste de la chance, on était tombé sur l’un des principes de base du fonctionnement du wiki.

L’inconvénient de ce principe est que là où Wikipédia est moribond, il le demeure. Bien qu’en théorie l’activité sur Wikipédia bourdonne en continu, en pratique un coup d’œil à l’historique de quelques pages (une information à portée de clic) suffira à vous convaincre que ces pages sont en fait plutôt stables. Un mauvais article pourra le rester pendant une très longue période. Ainsi dans notre projet nous avions les exemples de deux articles plus anciens (et donc plus importants) : les entrées pour Gabriel García Márquez et Mario Vargas Llosa, restées presque inchangées pendant des années, mis à part un petit peaufinage ça ou là. Nous nous devions donc d’y remédier.

Chercher et… chercher encore

C’est alors devenu un travail de recherche. Les étudiants devaient trouver ce qui est appelé en jargon wikipédien des sources sûres. Une doctrine fondamentale de Wikipédia (même si cela peut sembler étrange voire paradoxal, particulièrement pour des universitaires) est qu’elle ne sert pas à la publication de résultats inédits. Une entrée encyclopédique n’est pas faite pour introduire un débat. C’est la différence principale entre dissertation traditionnelle et Wikipédia.

La FA-Team ayant pris en charge le travail de mise en page ainsi que les tâches routinières, les étudiants étaient libres de s’adonner entièrement à la recherche. Mais c’était sans compter un autre piège qui nous a beaucoup ralenti et que nous aurions dû pourtant anticiper puisque ses racines plongent au cœur même des règles de Wikipédia : le fait que les étudiants n’évaluent pas suffisamment leurs sources.

Il faut se rappeler que le problème à la base de ce projet est que les étudiants se fient trop à Wikipédia sans vraiment en considérer les risques et les inconvénients. Il n’était en fait guère étonnant de les voir reproduire les mêmes erreurs en cherchant des sources pour les articles qu’ils devaient rédiger. Ainsi, il n’était pas rare qu’ils ajoutent des informations non vérifiables ou mal documentées (et trop souvent plagiées) ou qu’ils usent et abusent de citations d’autres pages Web et encyclopédies en ligne.

Et pourtant c’est de là aussi qu’a été tirée l’une des meilleures leçons de ce travail. Parce que Wikipédia exige que chaque information soit étayée par une référence (ce que les membres de la FA-Team répétaient inlassablement), les étudiants se sont retrouvés forcés de citer leurs sources. Ces sources pas forcément fiables se sont donc retrouvées exposées, ce qui n’aurait pas nécessairement été le cas pour un examen de session. De plus, justement parce que la rédaction sur Wikipédia est un processus de révision permanente, il a été demandé à certains de reprendre leur travail de recherche pour ré-évaluer leurs sources, pour en trouver de plus fiables avant de reprendre la rédaction. Par la même occasion le problème des plagiats a été réglé simplement parce que plus personne ne recopiait de passages en les faisant passer pour un produit fini.

Pour résumer, ce travail a fait ressortir les faiblesses initiales des étudiants dans le domaine de la recherche, mais ces faiblesses étaient bien la raison d’être de ce devoir. Ils ont cependant appris que rechercher des informations (et les mettre en forme) est un processus, souvent long, où l’on commence avec des sources parfois douteuses (comme Wikipédia lui-même) pour progresser vers des éléments ou preuves toujours plus solides, jusqu’à découvrir de nouvelles informations occultées par les premières sources.

Autres observations : un travail professionnel

Au moment où j’écris ceci, l’accouchement sous péridurale du projet n’est toujours pas terminé. Un article, celui que j’avais ironiquement créé devant la classe, a passé sa première inspection avec succès, une inspection particulièrement rigoureuse d’ailleurs, ce qui lui vaut maintenant le grade de Bon Article. Mes étudiants sont donc à l’origine d’une partie des 0,15% de ce que Wikipédia a de meilleur à offrir et tout cela en partant de rien. De plus, parmi ces 0,15% ne figure aucun autre travail littéraire d’Amérique Latine. Ils (nous ?) ont toutes les raisons d’être fiers d’eux[1]. Pour autant que je sache, c’est le seul travail éducatif sur Wikipédia à avoir directement abouti à un Bon Article[2].

Évidemment tout ne s’est pas fait sans accroc. Deux articles n’ont pour le moment pas vraiment progressé. Le rêve de créer douze nouveaux Articles de Qualité ne restera sans doute qu’un rêve (signifiant par là-même que toute la classe aurait eu la note A+ à un devoir représentant désormais 40% de leur note finale). Mais je suis sûr qu’il en sortira encore une série de Bons Articles (deux autres sont en cours d’évaluation), et certains seront sûrement nominés pour le grade d’Article de Qualité.

Voici donc la résultante d’un travail rigoureux qui, parce qu’il avait pour cadre ce site Web tant décrié qu’est Wikipédia, était loin d’être une solution de facilité. C’était même plutôt le contraire.

Je ne suis toujours pas aveuglé par Wikipédia, loin s’en faut. Il faut bien se dire que c’est une encyclopédie dont seulement une infime fraction de ses articles sont considérés comme de « bons » articles, même par ses propres éditeurs. D’autres faiblesses de Wikipédia sont plus apparentes que jamais, on les retrouve même à un certain degré dans ce projet : un article moribond aura tendance à le rester, et certaines sources sont discutables et souvent plagiées.

Mais, pour la défense de Wikipédia, je dois dire que je n’avais jusqu’alors pas réalisé à quel point ses propres critères sont ambitieux et avec quelle rigueur ils sont appliqués, ni même remarqué l’efficacité du processus collaboratif… si vous êtes prêt à apporter votre contribution et surtout si vous êtes prêt à faire les recherches nécessaires à l’ajout d’informations vérifiables. Là encore je dois dire que nous avons été particulièrement chanceux dans les rencontres que nous avons faites, mais je pense aussi que d’autres bénéficieront de la même bonne fortune.

En ce qui concerne le travail, qui je le répète est loin d’être achevé… j’aimerais croire qu’il enseigne aux étudiants l’art de la recherche et de l’écriture dans un environnement proche du monde réel. Il leur a été assigné au début du semestre un but à moyen terme, voire à long terme, et il leur a été demandé de travailler en collaboration au sein de leurs propres groupes mais aussi avec des inconnus dans un environnement ouvert afin d’établir comment parvenir à ce but et comment le réaliser. Ce travail devait déboucher sur un résultat professionnel, visible par des milliers de personnes, une ressource qui dans la plupart des cas serait la première escale de chercheurs futurs, qu’ils soient étudiants comme eux ou qu’ils fassent simplement partie des millions de visiteurs de Wikipédia de par le monde. La plupart de ces articles sont en effet le premier résultat affiché (ou presque) lors d’une recherche sur Internet sur le sujet traité.

En comparaison, les dissertations et les examens classiques que nous donnons à nos étudiants paraissent plutôt anecdotiques.

Inutile ? Pas d’argumentation

Ce que les étudiants n’apprennent pas par contre à travers ce projet est le développement d’un argument. L’argumentation, la construction cohérente d’une série d’idées, la défense et l’étayement d’une thèse convaincante, est évidemment au cœur de l’enseignement académique. J’attache beaucoup d’importance à cette compétence.

Mais on peut également dire que dans la plupart des emplois qu’occuperont les étudiants après la fin de leur cursus, l’argumentation ne tiendra pas une place aussi importante que dans le monde académique. À l’opposé, la recherche d’informations, la présentation, l’exactitude, l’aptitude à travailler en équipe et la capacité à négocier avec la sphère publique leur seront bien plus utiles (même si ça me fait un peu mal de l’admettre).

De plus, l’écriture sur Wikipédia leur inculque la pensée critique, peut-être pas celle qui est en général abordée à l’université… mais peut-être le devrait-elle. Les éditeurs de Wikipédia sont sans cesse encouragés à faire preuve d’esprit critique vis-à-vis des informations qu’ils trouvent et également vis-à-vis de leurs propres écrits.

J’ai un peu peur d’avoir trop enjolivé la chose. Je le ferai différemment si je suis un jour amené à le refaire. Et je dois vous avouer que j’ai souvent eu l’impression de faire un numéro d’équilibriste, que tout pouvait s’écrouler à tout moment. D’ailleurs nous ne sommes toujours pas à l’abri. Mais si quelque chose tourne mal je pourrai toujours modifier ce texte…

Oh, et si ça vous dit, n’hésitez pas à donner un coup de main sur Murder, Madness, and Mayhem !

El Senor Presidente - Accueil Wikipédia - 5 mai 2008

Les autres articles du dossier

  • 1/6 – Introduction
    Un projet pédagogique « de qualité ».
  • 2/6 – Le projet vu par l’enseignant
    Présentation, chronique et analyse du projet par le professeur Jon Beasley-Murray (à lire en premier).
  • 3/6 – Le projet vu par un éditeur de Wikipédia
    Le point de vue d’un éditeur de Wikipédia, membre de « l’équipe des Articles de Qualité », ayant accompagné et soutenu les étudiants pendant la durée de leurs travaux.
  • 6/6 – Liens connexes
    Une sélection de liens francophones autour de Wikipédia et l’éducation.

Notes

[1] Le 10 avril 2008, El Señor Presidente est devenu le 2000ème Article de Qualité de Wikipedia. Cet article apparaîtra sur la première page de Wikipédia le 5 mai. Au final, les étudiants ont porté deux autres articles au niveau d’exigence requis pour obtenir le grade d’Article de Qualité (Mario Vargas Llosa et The General in His Labyrinth) tandis que huit autres ont obtenu le grade de « Bon Article ». Les seuls autres articles portant sur la littérature Latino-américaine à ce niveau sont Mário de Andrade et Jorge Luis Borges (bien qu’aujourd’hui ils n’obtiendraient certainement plus cet honneur, il est en effet intéressant de noter que les critères de qualité de Wikipédia augmentent régulièrement avec le temps). Grâce à nous, le nombre d’Articles de Qualité sur la culture latino-américaine a donc très fortement augmenté

[2] Plus de détails ici.




Wikipédia et éducation : un exemple de réconciliation 6/6

Cet article clôt le dossier Wikipédia et éducation : un exemple de réconciliation.

Il propose une sélections de liens pour informer, débattre et aller plus loin.

Liens francophones connexes

Revue de « presse » de ce dossier

  • Wikipédia comme support de travail universitaire ? – Adrienne Alix – Compteurdedit – 17 février 2009
    « Il va encore plus loin en se demandant s’il est plus formateur et plus utile à un étudiant de savoir argumenter sur un sujet donné (cadre d’une dissertation) ou de savoir présenter les connaissances liées à ce sujet, d’être capable de faire des recherches sur un sujet, de synthétiser des sources, de confronter son travail au regard des autres et de travailler en collaboration. C’est le genre de débat qui créerait immédiatement des hurlements dans une assemblée d’enseignants, mais je crois que c’est très intéressant si on se demande un peu ce que Wikipédia peut apporter à l’enseignement universitaire. Le volet argumentation pure, très académique, est une chose sans doute essentielle à maîtriser. Mais l’écriture collaborative, avec des exigences de qualité formelle et de sourçage, la synthétisation du savoir existant, la confrontation au regard des autres, toutes ces choses qui sont le principe même du fonctionnement de Wikipédia, je crois très sincèrement que c’est une part de pédagogie qui n’existe pas dans l’enseignement et qui serait pourtant très bonne pour l’esprit et très utile dans le monde professionnel, où on argumente rarement par dissertation. »
  • Une expérience canadienne réconcilie Wikipedia et éducation – Mathieu Grégoire-Racicot – Le Quotidien Jurassien – 20 février 2009
    « Avenir et partage de la connaissance pour les uns, royaume du plagiat et l’opinion mal formulée pour les autres, l’encyclopédie collaborative Wikipedia a une réputation controversée, sulfureuse, spécialement dans le monde de l’éducation. Or une petite histoire, rapportée par le très fouillé et très actif Framablog, tenu par un professeur de lycée français, montre à quel point des projets pédagogiques pourraient se trouver enrichis, encadrés et davantage formateurs en utilisant Wikipedia, non comme une source, mais comme aboutissement de travaux de recherche. »

Autour de l’éducation

  • Projets pédagogiques – Wikipédia
    « Si vous êtes un enseignant dans une école ou dans une université, nous vous encourageons à utiliser Wikipédia dans votre classe non seulement comme source d’information mais comme espace de rédaction et de construction de connaissances. »
  • Wikipédia : la rejeter ou la domestiquer ? – Eric Bruillard – Médialog 61 – mars 2007
    « Le phénomène Wikipédia interpelle le monde enseignant. Quelle confiance peut-on accorder à une encyclopédie rédigée par ses lecteurs et dont les articles sont modifiés en permanence ? Quelle place l’École peut-elle lui faire ? »
  • D’un Club Histoire à un Club Wikipédia – Sylvain Négrier – septembre 2008
    « Quels usages vos élèves font-ils de Wikipédia ? Wikipédia est visiblement une source d’information importante pour eux. Sa valorisation par les moteurs de ucation-a-education-exemple-projet-pedagogique-6exemple-projet-pedagogique-6recherche (dont Google) en fait un point de départ quasi obligé. C’est particulièrement net pour les TPE et l’ECJS. Le problème majeur, mais ce n’est pas une découverte, c’est le manque de recul (voire de compréhension) de certains élèves. Cela leur joue parfois des tours : lors d’une composition à faire à la maison (…) Ceci dit les élèves ne sont pas totalement naïfs, et je les invite à exercer leur esprit critique, y compris envers ce que je leur enseigne : je ne me considère pas comme infaillible. »
  • Wikipédia et le cours d’histoire – Les Clionautes – septembre 2008
    « L’encyclopédie en ligne est devenue un des pôles majeurs sur le web, et une référence de choix pour beaucoup d’élèves et enseignants. Elle fait néanmoins l’objet de réticences et a suscité des débats très vifs ces dernières années. Ce premier article, qui prolonge la page Wikipédia en débats, a pour objectif de revisiter les étapes et les enjeux d’un débat très médiatisé, sur fond de divergences quant à la vision de la société et de l’éducation. Une réflexion sur la place de Wikipedia à l’école invite à interroger nos pratiques, et à proposer des pistes pragmatiques, à court et à moyen terme. »
  • L’histoire peut-elle être Open Source ? Les historiens et Wikipedia – Roy Rosenzweig (traduction Clioweb) – juin 2006
    « L’histoire est un art (un métier ?) éminemment individualiste. Les travaux signés d’une seule personne sont la règle dans la profession (…) Cet individualisme qui caractérise la recherche en histoire est aussi très possessif. Afin de travailler honnêtement, et éviter les accusations de plagiat, nous autres historiens devons attribuer idées et expressions à ceux qui les ont émises (…) Il est donc presque impossible d’envisager dans notre culture professionnelle des travaux historiques dénués de propriétaire, effectués par une multitude d’auteurs anonymes. C’est pourtant la définition exacte de Wikipedia. »
  • Wikipédia tente de pénétrer le milieu éducatif – François Jarraud – Café Pédagogique – décembre 2005
    « Le problème c’est que Wikipédia n’est malheureusement plus un outil recommandable pour les enseignants. Le projet, fort sympathique au départ, sert des intérêts qui suscitent des interrogations (…) Tant que la clarté ne sera pas faite sur le fonctionnement de Wikipédia et le ménage dans ses articles, nous déconseillons aux enseignants de l’utiliser avec les élèves. »
  • Wikipédia, une encyclopédie sans auteurs ? – Serge Pouts-Lajus – Les dossiers de l’Ingénierie Educative n°58 – juin 2007
    « Wikipédia est un projet apparemment sympathique. Il possède des qualités qui ne peuvent lui être contestées et auxquelles je suis, comme tout le monde, sensible : l’encyclopédie libre est utile, gratuite et d’accès facile. Mais justement, lorsqu’il s’agit de savoirs, d’œuvres de l’esprit et de culture, les considérations utilitaristes ne suffisent pas. Tant que l’on reste attaché au principe de responsabilité des individus et des collectifs particuliers relativement aux œuvres qu’ils produisent, il n’est pas possible d’adhérer à un tel projet. »
  • De sévères critiques de Wikipédia – Alithia – Blog : Wikipédia ou le mythe de la neutralité – janvier 2007
    « Cet article et le suivant qui le complète, cite un très grand nombre de critiques faites à wikipedia, par des professionnels de l’enseignement, de la recherche et de l’éducation. »
  • L’édition de référence libre et collaborative : le cas de Wikipédia – INRP – mars 2006 (le dossier complet en pdf)
    « Selon Cormac Lawler, Wikipedia n’est pas simplement une encyclopédie, ni même un nouveau modèle éditorial : le projet présente en effet les caractéristiques d’une organisation apprenante tant dans sa structure que dans son fonctionnement. A la lumière des recherches sur les communautés virtuelles ou les communautés de pratique, il identifie les éléments de convergence suivants : Wikipedia est auto-gérée, auto-sélective et auto-évolutive. Le potentiel de la communauté réside selon lui dans la promotion d’une pédagogie de la découverte et dans le développement de l’esprit critique nécessaire à son fonctionnement. Le conflit est perçu comme un ingrédient nécessaire à la négociation car il requiert une mise en perspective des différents points de vue et une prise en compte des différences culturelles (…) La confrontation des partis-pris culturels est un signe d’action critique manifeste dans un contexte où l’adhésion à la règle de neutralité est partagée et où la convivialité est assumée comme essentielle. »
  • Le phénomène Wikipédia : une utopie en marche – Christian Vandendorpe – Le Débat, no 148 – janvier 2008
    « Au lieu d’élever un pare-feu autour de Wikipédia, l’École aurait donc tout intérêt à s’en servir comme d’un outil pédagogique. Outil d’éducation pour apprendre à respecter le bien public et à ne pas vandaliser des articles ; outil de formation à la lecture critique, surtout, afin d’apprendre à ne pas prendre pour argent comptant tout ce qui s’écrit : en vérifiant la présence de sources crédibles, en comparant divers états d’un article, en comparant la version française avec des versions rédigées dans d’autres langues, en faisant des recherches complémentaires dans d’autres sources, numériques ou imprimées. Une telle attitude critique est plus nécessaire que jamais, alors que le mensonge et la dissimulation s’épanouissent dans la culture anonyme du web et que les plus hautes sphères de l’administration de pays qui se présentent comme des modèles de démocratie pratiquent la désinformation à grande échelle, comme on l’a vu lors de la campagne qui a conduit les États-Unis à envahir l’Iraq. »
  • Wikipédia, un objet problème en information-documentation – Pascal Duplessis et Laure Endrizzi – mai 2008
    « En premier lieu, certainement, Wikipédia s’affiche en tant qu’objet documentaire, support de ressources informationnelles, et dont l’usage doit pouvoir être garanti : l’information offerte, même si elle est gratuite et facilement accessible, est-elle pour autant « consommable », c’est-à-dire sans risque de préjudice pour la santé intellectuelle ? Si de nombreux collègues de discipline ne s’offusquent pas de cette incertitude, sans doute par insuffisance d’expertise, le garant de l’information documentaire en circulation dans l’établissement, lui, s’en inquiète. Quel statut accorder à cet apport d’information au regard des autres ressources disponibles dans ou à partir du CDI ? Quelles précautions prendre ? Quel type d’accompagnement proposer aux élèves ? Quel discours tenir au sujet de Wikipédia ? »
  • Wikipédia – Une encyclopédie libre, gratuite et écrite coopérativement – Alain Caraco – BBF – août 2004
    « Wikipédia est-elle l’encyclopédie qu’attendaient les bibliothèques publiques françaises ? J’aurais tendance à répondre oui et non à la fois. Non dans son état actuel : trop de domaines sont insuffisamment couverts, trop d’articles sont encore à l’état d’une ébauche rédigée hâtivement. Mais, très certainement, oui dans un état futur (…) La Wikipédia en ligne ne peut être qu’en travaux permanents. C’est une sorte de chaudron bouillonnant, où l’on produit la matière première, toujours instable. Des éditions stabilisées, monolingues ou multilingues, sur cédérom, sur papier ou en ligne pourraient en être dérivées. Elles pourraient même être vendues par des éditeurs commerciaux, avec de la valeur ajoutée, notamment en matière de présentation ou d’illustration. Ce modèle économique existe déjà pour les logiciels libres : on peut télécharger Linux auprès de la communauté des développeurs, ou bien acheter une version commerciale, avec un mode d’emploi et une assistance téléphonique. »
  • C’est rien qu’à cause de Wikipédia si nos enfants échouent ! – Framablog – octobre 2008
    « Hier on apprenait en Écosse que c’est Internet qu’il faut blâmer pour le taux d’échec aux examens (…) Wikipédia, parmi d’autres sources, était cité comme étant la raison pour laquelle les étudiants échouent. Est-ce que Internet les rend stupides ? Ou bien est-ce que les étudiants ont seulement besoin d’apprendre à utiliser les nouveaux outils de recherche du Web de façon plus appropriée ? »
  • Ceux qui disent non… à Wikipédia – Astrid Girardeau – Les Écrans – janvier 2008
    « Diaboliser et interdire des sites Internet sous prétexte que les étudiants n’utilisent pas assez leurs propres cerveaux et les contenus académiques, on a vu plus constructif et efficace. Quand on observe l’ergonomie ou la disponibilité des outils d’information académiques accessibles à l’université pour les étudiants, fait remarquer Ertzcheid, on comprend hélas très facilement pourquoi ils préfèrent utiliser Wikipédia ou Google. S’en désoler ne servira à rien. »
  • Wikipédia est un projet encyclopédique et un bien commun de l’humanité – Astrid Girardeau – Les Écrans – janvier 2008
    « Pour 1 enseignant ou 1 université interdisant d’utiliser Wikipédia, 100 autres forment les étudiants à son usage, les aident à décrypter ses contenus. Ce faux-procès en incompétence qui est de plus en plus souvent fait à Wikipédia est d’autant plus horripilant que Wikipédia affiche clairement sur sa page d’accueil le fait qu’elle ne doit pas être utilisée comme une source primaire d’information. »

Plus général

  • Wikipédia – Wikipédia
    « Comme l’indique la première ligne de sa page d’accueil, Wikipédia a pour slogan : Le projet d’encyclopédie librement distribuable que chacun peut améliorer. Ce projet est décrit par son cofondateur Jimmy Wales comme un effort pour créer et distribuer une encyclopédie libre de la meilleure qualité possible à chaque personne sur la terre dans sa langue maternelle (…) En revanche, Wikipédia n’a pas pour but de présenter des informations inédites. Comme pour les encyclopédies classiques, son ambition se limite à exposer des connaissances déjà établies et reconnues. Les travaux personnels ou originaux n’ont pas leur place dans Wikipédia. »
  • Critiques de Wikipédia – Wikipédia
    « Sébastien Blondeel, dans un livre sur Wikipédia, a écrit en 2006 : Wikipédia est un projet avec lequel il faudra compter. Et si les critiques commencent à se faire entendre, c’est paradoxalement plutôt bon signe : justifiées, elles permettent de prendre conscience des problèmes ; gratuites ou exagérées, elles confirment l’influence et le succès du projet. »
  • Wikipédia : constats et propositions – Nat Makarevitch – avril 2006
    « Ce document expose des problèmes et incohérences de Wikipedia, projet d’encyclopédie libre publiée sur le Web, dans le but de l’améliorer, non de dénigrer. Nous y montrons le caractère abusif de certaines actions menées par certains contributeurs. »
  • WikiGrill – Les articles de Wikipédia passés sur le gril de Books
    « Pour remarquable qu’elle soit, et globalement salutaire, l’entreprise Wikipédia invite à la critique. Si beaucoup d’articles de cette encyclopédie d’inspiration démocratique sont de grande qualité, d’autres ne résistent pas à un examen attentif. Soit parce que leur contenu est léger ou inconsistant, soit parce qu’il est manipulé, parfois avec une grande habileté, par des internautes ou des lobbies qui défendent un intérêt. Or, Wikipédia est devenu le premier mode d’accès au savoir pour les jeunes et les moins jeunes qui, sans avoir reçu de formation universitaire poussée, naviguent quotidiennement sur le web. Avec sa rubrique WikiGrill, Books souhaite attirer l’attention sur l’existence de biais qui influencent de manière plus ou moins cryptée la qualité ou l’objectivité de certains articles de Wikipédia. »
  • La réponse de Sylvain Négrier à l’initiative WikiGrill (décembre 2008) : Une lecture critique de Wikigrill
    « Les wikipédiens s’interrogent depuis longtemps sur ce qu’est un bon article. Ils ont défini progressivement deux labels, attribués après un vote des contributeurs, représentant chacun un palier dans le niveau des articles. Il s’agit du label Article de Qualité, le plus prestigieux, pour le moment décerné à un peu plus de 500 articles, et du label Bon Article, qui concerne près de 500 articles et qui récompense ceux qui sont satisfaisants mais qui paraissent encore améliorables. Les conditions d’attribution de ces labels se sont considérablement durcies ces derniers mois, au grand dam de certains wikipédiens, essentiellement pour que ces articles, proposés comme vitrine de Wikipédia (notamment en page d’accueil), puissent échapper aux critiques les plus évidentes. Cela ne constitue toutefois pas une garantie totale : ces articles ne sont que très rarement relus par d’authentiques spécialistes, et les discussions lors des votes se portent assez volontiers sur les aspects formels. Il aurait donc été particulièrement intéressant que les auteurs de Wikigrill™ s’attachent prioritairement à ces articles labellisés. Sont-ils réellement d’un bon niveau ? La procédure d’attribution des labels telle qu’elle existe est-elle à même de repérer les meilleurs articles ? Ne faudrait-il pas la remplacer par une relecture par un/des spécialiste(s) ? »
  • La réponse de Jean-Claude Guédon à l’initiative WikiGrill (janvier 2009) : Wikipedia ? Moi, j’aime plutôt bien
    « Wikipedia n’est pas un produit textuel fixe offert à la consommation; il s’agit d’un processus incessant qui nous convie à la table du plus grand banquet intellectuel jamais construit dans l’histoire de l’humanité. Déjà étonnamment utile, essayons d’imaginer ce que ce sera dans dix ou vingt ans. »
  • L’encyclopédie de non-référence – Denis Berger – février 2005
    « On sait que l’idée de Wikipedia, comme sa licence LGPL, viennent de l’univers du logiciel libre, tendance Stallman, et visent à reproduire dans le domaine de la connaissance ce qui a si bien réussi dans celui de l’informatique : l’élaboration d’un bien commun par la participation de tous, en fonction des moyens de chacun, puisque tout un chacun est présupposé dépositaire d’une parcelle de connaissance qui, si menue soit-elle, est susceptible d’intéresser l’ensemble. Mais la ressemblance entre un programme et une encyclopédie se limite au fait que, dans un cas comme dans l’autre, il faut commencer par les écrire ; le programme, lui, ensuite, s’exécute, et dispose donc de son propre système de correction d’erreurs, brutal mais efficace : s’il est mal écrit, il plante. Il offre donc, paradoxalement pour un logiciel libre par définition livré sans, une garantie quant à son fonctionnement, la disponibilité des sources comme des programmeurs permettant, de plus, en l’espèce, de résoudre rapidement les problèmes. Autrement dit, l’exportation de ce concept, tel qu’il est présenté, vers un projet encyclopédique se révèle privé de pertinence puisque, là, rien, en dehors d’une éventuelle relecture d’un participant qui pourra peut-être se trouver contredite un peu plus tard par un autre, ne garantit la qualité de l’information publiée ; ici, le mécanisme cumulatif et automatique qui permet l’amélioration continue du logiciel libre ne joue pas.  »
  • Inside Wikipédia – Camille Gévaudan – Les Écrans – juillet 2008
    « Ecrans.fr s’invite à l’intérieur de Wikipédia et vous propose d’aller voir comment un projet aussi pharaonique peut fonctionner au quotidien. »
  • Wikifeuilleton – Le Tigre
    « Les coulisses de l’encyclopédie collaborative Wikipedia. »
  • À propos de Wikipédia – Rui Nibau – Framasoft – mars 2006
    « Ici, je n’ai fait que voir un verre à moitié vide en n’abordant qu’un unique aspect des critiques formulées à l’encontre de Wikipédia. D’autres internautes peuvent – à juste titre – le voir à moitié plein. A un moment de son histoire où l’encyclopédie acquiert une visibilité croissante dans d’autres médias, et attire donc l’attention d’acteurs aux intérêts divergents, l’avenir proche nous dira si ce verre finira par se remplir ou par se briser. » (et la réponse de Nojhan : Wikipédia, l’encylopédie asymptotique)
  • Wikipédia : le refus du pouvoir – Mémoire de fin d’étude de Sylvain Firer-Blaess – Institut d’Etudes Politiques de Lyon – 2006/2007
    « Wikipédia refuse le pouvoir : elle refuse la possession de l’information aux plus fortuné, en rendant l’information libre. Elle refuse aussi la production du savoir par quelque uns, en donnant ce pouvoir à tous. Elle refuse dans son organisation les statuts spéciaux, elle refuse la centralisation de la surveillance et de la décision. Ainsi elle dissout le pouvoir et en donne une parcelle à chacun : le pouvoir de décider, le pouvoir de créer le savoir, le pouvoir de s’informer. Elle empêche ainsi fortement les processus de domination dans son organisation interne. Elle a aussi un impact sur le monde réel, impact certes minime, mais donner la possibilité aux personnes qui disposent d’une connexion internet de disposer d’un savoir libre et gratuit, c’est déjà quelque chose. »
  • D’Amour & de Neutralité : Ce(ux) qui résiste(nt) – Martin Erpicum – Mémoire universitaire – juillet 2005
    « L’objet empirique de ce mémoire est l’encyclopédie libre Wikipédia. De tout temps, les encyclopédies ont été un support à l’apprentissage d’un intérêt certain. L’apparition d’un type d’encyclopédie rédigée coopérativement par des pairs sur le réseau Internet a entraîné bon nombre de questionnements : critères de validation de la connaissance, contrôle des actes de vandalisme, régulation des contributeurs, etc. Afin d’éclairer en partie ces questionnements, le présent travail va tenter de décrire les pratiques de régulations inhérentes à la tâche de rédacteur encyclopédique, et de rendre compte des contraintes et normes émergentes qui encadrent l’activité des pairs. »

Succincte bibliographie

  • « Wikipédia, Découvrir, utiliser, contribuer » – Florence Devouard et Guillaume Paumier – Presses universitaires de Grenoble – janvier 2009
    « Ce livre vous guide à la découverte de cette gigantesque fourmilière et vous explique comment utiliser efficacement son contenu. Il vous incite ensuite à devenir acteur et à participer à la rédaction de l’encyclopédie, quels que soient votre âge et vos domaines de compétences. »
  • Wikipédia, Média de la connaissance démocratique ? Quand le citoyen lambda devient encyclopédiste – Marc Foglia – FYP Éditions – novembre 2007
    « Cherchez n’importe quel mot sur Google… Les deux premières pages de résultat, celles qui comptent, renvoient presque invariablement à un article de Wikipédia. Comment cette encyclopédie d’un nouveau genre s’est-elle installée comme une source universelle de connaissance, et désormais comme un réflexe intellectuel ? L’origine de ce phénomène, son fonctionnement et son évolution fulgurante sont autant d’appels à la réflexion.Wikipédia c’est la dématérialisation de la connaissance et la progression de son accessibilité : peut-on parler d’un nouveau média ? d’une Toile dans la Toile ? Que devient la propriété intellectuelle dans ce partage gratuit de la connaissance ? Pourra-t-on parler d’une « génération Wikipedia » ? Quels sont les risques que fait courir l’encyclopédie libre à la connaissance, au jugement et à l’esprit critique ? Ces interrogations nous permettent d’éclairer d’autres phénomènes contemporains comme le travail collaboratif en réseau, la frontière entre biens marchands et biens non-marchands, la frontière entre travail et bénévolat, la démocratie à l’ère du numérique, etc. Par une approche critique, philosophique et sociologique, l’ouvrage analyse en profondeur cette « l’encyclopédie collaborative » comme un phénomène émergent, comme expression de tendances de fond de la modernité au XXIe siècle, et une innovation remarquable susceptible d’éclairer d’autres évolutions de la société contemporaine. »
  • Wikipédia – Comprendre et participer – Sébastien Blondeel – Eyrolles – avril 2006
    « Qui n’a entendu parler de Wikipédia, l’encyclopédie collaborative de l’Internet la plus vaste et la plus consultée ? Qui ne connaît ce projet international auquel des experts de tous domaines contribuent ? Née en 2001, Wikipédia compte plus de trois millions d’articles début 2006, 120 langues actives, un million d’articles en anglais, 250 000 en français. Ce livre explique comment l’explorer et y participer, dans quelles limites réutiliser son contenu et quels sont ses secrets de fonctionnement (financement, contexte politique). »

El Senor Presidente - Accueil Wikipédia - 5 mai 2008

Les autres articles du dossier

  • 1/6 – Introduction
    Un projet pédagogique « de qualité ».
  • 3/6 – Le projet vu par un éditeur de Wikipédia
    Le point de vue d’un éditeur de Wikipédia, membre de « l’équipe des Articles de Qualité », ayant accompagné et soutenu les étudiants pendant la durée de leurs travaux.
  • 6/6 – Liens connexes
    Une sélection de liens francophones autour de Wikipédia et l’éducation.