Il était une fois un livre sur et avec Richard Stallman

Biographie de Stallman - Couverture Eyrolles - 3D HarrypopofLe livre Richard Stallman et la révolution du logiciel libre – Une biographie autorisée, qui est sorti le 21 janvier aux éditions Eyrolles, possède trois auteurs.

Il y a bien entendu Sam Williams, auteur de la version d’origine en anglais. Mais si nous n’étions qu’en face de sa simple traduction, il demeurerait alors le seul auteur de l’ouvrage. Or deux autres noms apparaissent : Richard Stallman lui-même et Christophe Masutti de Framasoft.

Pourquoi cette originalité et pourquoi méritent-ils tous deux de venir s’associer à Sam Williams ? Vous le saurez en parcourant l’histoire peu commune de ce livre, telle qu’elle a été vécue par Christophe.

Il nous propose une très jolie formule pour expliquer les intentions et les apports de Stallman :
il a souhaité « hacker » le livre.

Avec le même état d’esprit, ou plutôt la même éthique, que lorsqu’il se trouvait, plusieurs dizaines d’années auparavant, jeune programmeur parmi les siens au département de recherche en intelligence artificielle du MIT.

Il était une fois un livre sur et avec Richard Stallman

Christophe Masutti – janvier 2010 – GNU Free Documentation License

Christophe MasuttiTout a commencé en mars 2007, lorsque Alexis Kauffmann a posté un message sur le forum du réseau Framasoft, invitant les volontaires à participer à la traduction du livre de Sam Williams, Free as in Freedom: Richard Stallman’s Crusade for Free Software, publié en 2002 chez O’Reilly sous la licence libre GNU Free Documentation License.

Framasoft a une certaine habitude des traductions et s’est même constitué avec le temps une équipe entièrement dédiée à cela, le groupe Framalang. Il se trouve qu’à cette époque Framalang ne chômait pas et nous ne souhaitions pas leur rajouter une charge de travail supplémentaire avec un livre de quelque 300 pages !

Nous avons donc fait le choix de proposer directement le projet dans un wiki public, et pas n’importe lequel d’entre eux : Wikisource, la bibliothèque libre du réseau Wikimedia. Lors d’une conférence tenue aux Rencontres mondiales du logiciel libre 2009 de Nantes, Alexis donne plus de détails sur le mode opératoire : quelqu’un avait déjà traduit la préface et le premier chapitre du livre sur un site personnel, ce qui nous a servi de base pour créer la structure de l’ensemble du projet sur Wikisource. L’objectif était bien entendu d’arriver à nos fins mais il s’agissait également d’une expérience, celle d’une ambitieuse traduction collaborative et spontanée ouverte à tous, exactement comme on crée, modifie et améliore les articles de Wikipédia.

Un an plus tard, le bilan était contrasté. Nous avions bénéficié de l’exposition de Wikisource et de nombreuses personnes étaient venues participer. Mais quantitativement il restait encore beaucoup à faire et qualitativement ce qui avait été fait manquait singulièrement de cohérence et d’harmonie (ne serait-ce que pour se mettre d’accord sur la traduction de tel ou tel terme important et récurrent). Et puis nous butions sur des questions aussi élémentaires que la décision de « clore » un chapitre traduit, ce qui sur un wiki aussi fréquenté ne va pas de soi.

Ne nous en déplaise, il fallait mettre un peu de « cathédrale dans le bazar », c’est-à-dire un peu de verticalité dans l’horizontalité du projet. Alexis a alors pris la décision de relancer le projet sur le blog de Framasoft, en invitant les bonnes volontés à se regrouper sur une liste de discussion dédiée et créée pour l’occasion. Pour ma part, je pris l’initiative d’animer cette liste qui compta rapidement une bonne dizaine d’inscrits (dans le livre vous trouverez en préambule les remerciements à cette liste nominative de participants).

Notre première décision consista à créer ailleurs un deuxième wiki, mais cette fois-ci loin des regards du réseau Wikimedia. Il ne s’agissait pas de jouer les cachottiers, mais nous en étions arrivés à la conclusion qu’il n’était plus possible de continuer à travailler sur Wikisource, dans la mesure où à tout moment une personne externe à la liste pouvait s’en venir tout « bouleverser » (c’est, j’en conviens fort bien, ce qui fait tout le charme de Wikipédia, mais à cette période d’un projet si spécifique nous souhaitions avant toute chose être efficaces et coordonnés dans notre travail).

Nous nous trouvions cependant face à un dilemme : d’un côté la traduction d’origine sur Wikisource restait bien entendu ouverte et continuait sa vie de texte wiki (bien que fort peu active, puisque la liste avait capté une bonne part de l’énergie disponible) et de l’autre côté, le travail sur notre nouveau wiki prenait forme et la traduction avançait plutôt bien. Une fois terminée, notre intention était de reverser la traduction de Free as in Freedom dans Wikisource, quitte à « écraser » les contributions effectuées dans l’intervalle (ces contributions peuvent néanmoins être réhabilitées grâce à l’historique des modifications). Aujourd’hui, on peut donc trouver sur Wikisource cette traduction française de Free as in Freedom publiée par Sam Williams en 2002. Modulo le fait que quelqu’un est peut-être venu en déplacer un mot il y a une heure 😉

Notre traduction avançait donc plutôt bien jusqu’à obtenir une forme convenable à la relecture en novembre 2008, avec en prime la décision définitive d’en faire un volume de plus de la collection de livres libres Framabook.

Une petite parenthèse est ici nécessaire. En effet, nous travaillions depuis peu en étroite collaboration avec l’équipe de La Poule ou l’Oeuf, qui est une chaîne éditoriale en ligne pour la production de livres, pensés comme unités d’une collection, permettant un rendu final de type TeX, PDF, ePub ou HTML. Ce livre était aussi pour nous l’occasion d’implémenter dans le système non seulement l’ouvrage mais aussi la maquette générale de notre collection Framabook. Nous sommes très heureux du résultat car non seulement la Poule ou l’Oeuf a servi pour la mise en page du livre publié chez Eyrolles, mais ce sont désormais tous les framabooks qui vont bénéficier de la puissance de cet outil et des compétences de l’équipe de la Poule ou l’Oeuf.

Parenthèse fermée. Un mois plus tard, en décembre 2008, j’écrivis à Sam Williams pour lui demander une préface. Il accepta, tout en me précisant qu’il aurait bien aimé que Richard Stallman eût participé aux éventuelles modifications de l’ouvrage en anglais mais que finalement cela ne s’était pas produit. À ce moment-là, je ne compris guère l’allusion qui trouva son explication quelques jours plus tard.

Nous réfléchissions également aux illustrations possibles de l’ouvrage. Il y avait une belle photo de Richard Stallman dans le livre d’origine chez O’Reilly, tirée du site web personnel de Richard. Je contacte donc ce dernier, non seulement pour lui demander l’autorisation d’utiliser sa photo, mais aussi pour l’informer que nous comptions publier la traduction en français (une traduction en italien avait été publiée en 2003).

C’est là que tout a basculé (positivement).

Il faut savoir que le livre Free as in Freedom n’a jamais obtenu l’appui formel de Richard Stallman. Pire : Richard aurait déjà affirmé qu’il était hors de question de venir lui demander un autographe sur le livre. On peut légitimement se demander pourquoi… Certes le travail de Sam Williams est d’abord un travail de journaliste, et il dresse un portrait sans concession de la personnalité de Richard Stallman : introverti, controversé, irascible et intransigeant. Tous ceux qui se sont rendus au moins une fois à l’une de ses conférences et qui sont au courant de ses activités, ont une bonne idée de ce que je veux dire.

Mais ce n’est pas sur ce point que Richard Stallman était en désaccord avec l’ouvrage : il y avait des erreurs manifestes voire des interprétations faussées dans les faits concrets relatés dans l’ouvrage. En somme, un travail mené un peu trop vite et sans assez de recul. Par ailleurs, un programmeur de l’envergure de Richard Stallman met un point d’honneur à vouloir reformuler avec exactitude les approximations, même lorsqu’elles ont été commises volontairement dans le but de rendre l’ouvrage plus accessible. Il n’en demeure pas moins que sous le prétexte de l’accessibilité, certaines approximations transformaient carrément le propos ou les évènements. La manière dont Richard a agit sur le texte est relatée dans sa préface et lorsque le propos relève notamment de l’interprétation personnelle de Sam Williams, les ajouts de Richard sont clairement identifiés dans le livre par des encarts et des notes de bas de page. Les lecteurs pourront donc se faire une bonne idée des transformations ainsi opérées, quitte à aller voir et comparer avec l’original de Sam Williams.

Je prends un exemple : lorsque Sam Williams relate la tension entre Eric S. Raymond et Richard Stallman, on comprend que Raymond accuse Richard d’être la principale cause du manque de réactivité du projet Hurd (le projet de noyau du système GNU), et que cette accusation est fondée (on se doute néanmoins que Raymond n’a pas bien digéré la fin de non recevoir pour les modifications de l’éditeur Emacs qu’il voulait imposer). Pour Williams, et aussi pour Raymond, c’est le « micro-management » à la Stallman, c’est à dire sans concession, qui a freiné Hurd, avec pour conséquence la popularisation du noyau Linux, qui obéit, lui, à un schéma de développement beaucoup plus ouvert. Il serait pourtant simpliste de se contenter de cette interprétation. Richard l’explique autrement, tant en montrant que Hurd n’est pas une mince affaire qu’en montrant aussi que le noyau Linux n’est pas la panacée du point de vue technique comme du point de vue éthique (le plus important à ses yeux).

Bref, suite à mon courriel, Richard me répondit qu’il désirait apporter quelques précisions sur l’épisode LMI et Symbolics, deux entreprises qui débauchèrent le gros de l’équipe de hackers du MIT au début des années 1980. Cet épisode était très important, mais il ne touchait en gros qu’une dizaine de paragraphes dans l’ouvrage. Lorsque j’en fis référence à l’équipe de notre liste de discussion, tout le monde approuva l’idée.

Pourtant, au fil des échanges, Richard me confia qu’il n’avait jamais lu le livre de Sam Williams, et qu’en lisant les chapitres en anglais que je lui envoyais (repris depuis le site personnel de Sam Williams), il ressentait fortement le besoin de le réécrire.

Et tout l’art du hacker se révéla.

Alors que je lui suggérais d’écrire lui-même son autobiographie (d’un certain côté, j’anticipais sur mes craintes : la retraduction de l’ensemble à partir de toutes ces nouvelles modifications !), il se contenta de me renvoyer des chapitres réécris, sur lesquels je faisais un « diff » (une commande Unix permettant d’afficher les différences entre deux fichiers) pour pouvoir implémenter ces modifications dans la traduction française.

Après tout, qu’est-ce qu’un hacker ? Le lecteur en trouvera une bonne définition historique en annexe de l’ouvrage. L’essentiel est de comprendre que « hacker » signifie surtout améliorer, et qu’un bon hacker qui se respecte ne supporte pas l’imperfection. En toute logique, Richard ressentait tout simplement l’envie irrésistible de « hacker » le livre de Sam Williams. Qui d’autre sinon lui ?

J’énonce tout ceci avec le recul que me permet la parution de l’ouvrage. Dans les faits, je recevais plusieurs courriels par semaine contenant les modifications de Richard. Je les implémentais après les avoir lues, demandé des précisions, et argumenté lorsqu’elles étaient discutables. Bref, un travail soutenu qui nous amena Richard et moi jusqu’au début de l’été 2009.

Un mois auparavant, Alexis avait rencontré Muriel Shan Sei Fan, directrice de la collection Accès Libre aux éditions Eyrolles. Et entre la poire et le fromage, il évoqua « l’aventure » de cette traduction qu’il continuait à suivre attentivement. Muriel trouva le projet tant est si bien intéressant qu’elle nous proposa de le publier chez eux.

Nous acceptâmes, mais ce serait vous mentir que d’affirmer que ce fut une décision facile et unanime dans l’équipe. En effet, nous avons, et nous avons encore, nos habitudes chez InLibroVeritas, l’éditeur si particulier et attachant de tous les autres framabooks, avec qui nous travaillons main dans la main depuis des années pour défendre et faire la promotion du logiciel libre et sa culture.

Plusieurs arguments ont cependant pesé dans la balance. Tout d’abord nous n’avions plus affaire cette fois à un livre sur un logiciel libre particulier (Thunderbird, OpenOffice.org, LaTeX, Ubuntu…). Nous étions face à un livre mutant, une traduction devenue « biographie autorisée » car modifiée et enrichie pour l’occasion par son sujet même. Et pas n’importe quel sujet : la plus illustre des personnalités de la jeune histoire du logiciel libre. Cela méritait assurément de rechercher la plus grande exposition possible. Outre sa capacité de diffusion et distribution, Eyrolles nous offrait aussi son expertise et expérience. Le livre avait été traduit et une première fois relu, mais nous étions néanmoins conscients de sa perfectibilité de par les conditions mêmes de sa réalisation mentionnées plus haut (sachant de plus qu’à ce moment précis de l’histoire Richard n’en avait toujours pas fini avec ses propres modifications). Eyrolles a ainsi retravaillé le texte et mis à disposition du projet plusieurs personnes non seulement pour effectuer de nouvelles relectures mais parfois même pour retraduire certains passages. J’ajoute que nous appréciions la collection pionnière Accès Libre qui abrite en son sein de nombreux ouvrages de qualité sur le logiciel libre. Et enfin dernier argument et non des moindres : sous notre impulsion, Eyrolles allait pour la première fois publier d’emblée un livre sous licence libre, avec tous les avantages et inconvénients que cela suppose.

Nous nous rencontrâmes in the real life, Muriel, Richard, Alexis et moi, au cours d’un déjeuner en marge des Rencontres mondiales du logiciel libre de Nantes en juillet 2009. Nous discutâmes des modalités de publication et surtout, justement, de la question de la licence. L’ouvrage d’origine étant sous licence GNU Free Documentation License (à cause d’un Stallman insistant, Sam Williams s’en explique à la fin de son livre), sa traduction ne pouvait que l’être également. Or publier sous licence libre n’était pas dans les habitudes d’Eyrolles et cela ne rentrait pas forcement dans les « cases » de ses contrats types (rien que le fait d’interdire la classique interdiction de photocopier était une nouveauté). De plus nous connaissons les positions sans concession de Stallman dès que l’on touche à ces questions de licence. Mais nous avons néanmoins réussi sans trop de mal à nous mettre d’accord, et il faut rendre ici hommage aux éditions Eyrolles d’avoir su s’adapter et innover.

La dernière ligne droite fut en tout cas aussi passionnante que stressante, avec ses nombreux va-et-vient entre Richard (apportant ses dernières modifications), Eyrolles (éditant à la volée l’ensemble de l’ouvrage), La Poule (obligée à mettre en forme un texte sans cesse en mouvement) et moi (dispersé un peu partout). Toujours est-il que vers la fin décembre 2009, ouf, nous étions prêts et le projet bouclé. Nous méritions tous ce beau cadeau de Noël que nous nous offrions là 😉

De leur côté, Richard Stallman et John Sullivan vont très prochainement publier en anglais le livre dans sa nouvelle version, aux éditions internes à la Free Software Foundation, ajoutant ainsi une dimension supplémentaire au projet. Non seulement nous touchons les lecteurs francophones, mais le monde anglophone pourra aussi se délecter de ce « hack biographique ». Grâce à la licence libre (et aux efforts de quelques uns), le livre, parti des États-Unis, revient à la maison après un détour par la France qui l’aura transformé !

Pour moi, ce livre n’est pas seulement une biographie, même s’il en a l’apparence et la saveur. Il s’agit d’une histoire, celle du mouvement pour le logiciel libre, qui a influencé profondément l’histoire générale de l’informatique depuis la fin des années 1960. On considère généralement cette histoire à travers celle de l’industrie logicielle ou des composants d’ordinateurs. Mais il manque souvent une approche en termes de pratiques d’ingénierie et de circulation de l’information. Le logiciel libre constitue en cela une belle illustration de l’ingénierie logicielle, qui avance non seulement par projet, mais aussi parce qu’elle est fondamentalement un débat permanent sur la disponibilité et le partage de l’information. Lorsque le partage d’idées est impossible (notamment à cause des brevets) et lorsque les développeurs et les utilisateurs sont restreints dans leurs libertés, alors c’est la société toute entière qui pâti de la pénurie de code et de libertés.

Tous les métiers ont leur déontologie. Les informaticiens ont une éthique et ceux qui la distillent sont les hackers. Par delà ses actes et ses programmes, l’un des principaux mérites de Richard Stallman est d’avoir réussi à concentrer et matérialiser cette éthique dans une simple licence (la fameuse GNU General Public License), qui va non seulement fonder, défendre et diffuser le logiciel libre mais qui constitue aujourd’hui une référence et une source d’inspiration pour d’autres mouvements émancipateurs. En fait, les programmes ont toujours été libres, et c’est un non-sens éthique qui les a rendu privateurs à un moment donné. L’histoire de l’informatique est heureusement loin d’être terminée.

Celle de ce livre touche par contre à sa fin, puisqu’il sera officiellement publié le 21 janvier prochain sous le titre Richard Stallman et la révolution du logiciel libre – Une biographie autorisée. Je remercie chaleureusement tous ceux que cette aventure a mis sur notre chemin. Toutes ces rencontres qui font aussi le sel d’un tel projet. À Framasoft, nous sommes fiers d’avoir pu le mener à son terme. Et malgré le labeur qui n’a pas manqué, ce fut un réel plaisir. Plaisir que nous espérons désormais partager avec le lecteur…

Cette histoire touche donc à sa fin, disais-je, mais, licence libre oblige, rien ne dit qu’il ne subisse pas à l’avenir d’autres métamorphoses. Ne serait-ce que parce que Richard est heureusement toujours parmi nous et qu’il lui reste encore certainement de belles pages à écrire dans le livre de sa vie.




L’école Châteaudun d’Amiens ou le pion français de la stratégie planétaire Microsoft

Lee Carson - CC by-saLe saviez-vous ? Grâce à la caution de partenaires associatifs et institutionnels a priori au dessus de tout soupçon, Microsoft entre comme dans du beurre (ou presque) à l’Éducation nationale, en déployant tranquillement son vaste et ambitieux programme globalisé « Innovative Schools ».

Si il ne s’agissait que de se substituer financièrement à un État de plus en plus désargenté, ce serait déjà grave, mais on en profite également pour marquer voire manipuler les esprits, sous le vernis d’un discours pédagogique soit disant progressiste et « innovant » (adjectif préféré du département marketing de la société).

Principales victimes collatérales : non seulement le logiciel libre et sa culture mais aussi et surtout les enseignants et donc les élèves[1], à qui on ne donne pas accès à cette culture.

Attention, cette histoire est un peu longue et un peu triste. Mais elle se termine bien à la fin !

Mondialisation mon amour

Qu’est-ce que le programme « Innovative Schools » ? C’est un peu le jeu des poupées russes, car il s’insère dans le programme « Partners in Learning », lui-même intégré au programme « Unlimited Potential ».

Commençons par la plus grande poupée, telle que décrite sur le site de Microsoft :

Microsoft Unlimited Potential vise à aider les personnes et les communautés du monde entier à réaliser leurs objectifs et leurs rêves par l’intermédiaire de la mise à disposition de technologies adaptées, accessibles et abordables. Nous nous sommes fixé pour mission d’ouvrir de nouvelles voies de développement social et économique, en particulier pour les cinq milliards de personnes qui, selon les estimations, ne bénéficient pas encore des avantages des nouvelles technologies. Avec nos partenaires publics comme privés, nous axons notre action sur la transformation de l’éducation, la stimulation de l’innovation locale et le soutien à la création d’emplois et de débouchés afin de créer un cercle vertueux de croissance économique et sociale durable pour tous.

Poursuivons en donnant quelques chiffres significatifs avec cette présentation maison du programme « Partners in Learning » :

Microsoft Partners in Learning est une initiative internationale conçue pour rendre la technologie plus accessible aux écoles, à stimuler des conceptions innovatrices de l’éducation et à fournir aux éducateurs les outils pour gérer et mettre en oeuvre des changements. Depuis sa création en 2003, le programme Partenaires en apprentissage a bénéficié à plus de 123 millions de professeurs et d’étudiants dans 103 pays. Microsoft apporte un soutien financier continu à cette initiative depuis déjà cinq ans, et l’investissement d’une durée de dix ans atteint presque 500 millions USD, ce qui témoigne de l’engagement de la société à rendre la technologie plus adaptée et plus accessible à chacun grâce à des programmes, des formations et des partenariats de licence abordables.

Un demi-milliard de dollars… Ne cherchez pas plus loin la réponse à la question de la légitimité d’une entreprise américaine de logiciels que rien ne prédisposait au départ à vouloir ainsi participer à « transformer l’éducation » à l’échelle mondiale. Ce n’est pas avec le vinaigre des beaux discours philanthropiques (cf ci-dessus) que l’on attrape les mouches, mais bien avec cet argument massue d’un compte en banque qui donne le vertige.

Toujours est-il que c’est dans le cadre du programme « Microsoft Partners in Learning », que l’on trouve le réseau des « Microsoft Innovative Teachers », enseignants cooptés en charge notamment de mettre chaque année en place dans leur propre pays des « Microsoft Innovative Teachers Forums », dont le point d’orgue est le « Microsoft Innovative Education Forum » où sont invités tous les lauréats des forums nationaux (en 2009 c’était au Brésil).

C’est également dans ce cadre que s’inscrivent les « Microsoft Innovative Schools ». Il s’agit d’investir un établissement scolaire et d’en faire une école pilote de l’innovation à la sauce Microsoft, en mettant là encore le paquet sur les moyens.

Une nouvelle fois, tout réside dans l’art de présenter la chose :

Le programme « Écoles Innovantes » fait partie de l’initiative internationale « Partners in Learning » au travers de laquelle Microsoft engage d’importants investissements matériels et financiers pour développer la formation dans le domaine des TICE , la personnalisation de l’enseignement, le support technique et, plus généralement, l’accès aux technologies informatiques de pointe dans l’éducation. Dans ce cadre, le projet « Écoles innovantes» fondé sur l’innovation pédagogique et l’utilisation des technologies de l’information, a été lancé au niveau mondial. La première « Ecole innovante» a ouvert ses portes au début de l’année 2006 à Philadelphie. Douze autres établissements à travers le monde font aujourd’hui partie de ce projet. L’objectif de ce projet est d’accompagner les établissements et plus largement l’institution dans son évolution vers l’école du XXIème siècle.

Du discours et de la méthode

Les citations ci-dessus donnent déjà une bonne idée de l’enrobage, pour ne pas dire de l’enfumage, d’un discours faussement lisse, neutre et consensuel dont l’objectif est de rencontrer l’adhésion des enseignants.

La société a évolué et l’école se doit de se mettre au diapason, mais cet inéluctable modernisme, où la technique semble omniprésente, ne doit en rien être anxiogène, c’est au contraire une formidable opportunité d’innovation. Ne vous inquiétez pas, Microsoft est là pour vous faciliter la tâche, accompagner votre créativité et vous aider à vous concentrer sur votre seule préoccupation : la pédagogie et la réussite de vos élèves.

Le mantra est le suivant : l’important ce n’est pas la technique, c’est l’usage que l’on en fait, si possible « innovant ».

L’informatique en tant que telle est volontairement occultée. Parce que si elle se fait oublier alors son choix n’a plus aucune importance. Et dans ces cas-là autant prendre « naturellement » les produits et les logiciels du généreux mécène (qui n’a absolument pas besoin de les mettre en avant, et il s’en garde bien, ça se fait tout seul !).

Concentrons-nous donc sur les pratiques. Rassurons les enseignants et montrons-leur ce que l’on peut faire aujourd’hui de « formidable » avec les nouvelles technologies (ils se trouvent que les démonstrations se font avec des logiciels Microsoft mais c’est à peine si on a besoin de l’évoquer, c’est juste que c’est plus pratique et qu’on les avait sous la main). Mieux encore, construisons ensemble des « écoles 2.0 », mettons les enseignants en relation et organisons de grandes manifestations où les plus dynamiques d’entre eux auront l’occasion de se rencontrer pour échanger, et éventuellement recevoir la « Microsoft Innovative Médaille du Mérite ».

Deux conséquences (fâcheuses)

Puisque l’informatique est un sujet plus que secondaire qui se doit de s’effacer pour être pleinement au service de la pédagogie, il n’y a pas lieu d’en parler, et moins encore d’en débattre. Il n’y a pas de choix à faire et le logiciel libre n’est ni cité, critiqué ou comparé, il est tout simplement nié. Jamais, ô grand jamais, vous n’y verrez la moindre référence sur les sites officiels des programmes « Microsoft Innovative MachinChose ».

Soit, le logiciel libre n’existe pas. Ce n’est pas si grave après tout si on a l’assurance que nos élèves sont entre les bonnes mains des professeurs innovants. Sauf que malheureusement ça ne peut pas être véritablement le cas, parce que ces professeurs sont sans le savoir handicapés car manipulés.

En effet, le logiciel libre à l’école va bien au delà du souhait d’installer et d’utiliser telle application plutôt que telle autre dans son ordinateur. Pris au sens large, c’est d’une véritable culture dont il s’agit, englobant les formats ouverts, les ressources en partage, les pratiques collaboratives spécifiques, la vigilance sur la propriété intellectuelle et la neutralité du réseau, etc.

Il me revient en mémoire cette citation extraite d’un billet sur la politique pro-active du Canton de Genève :

Dans sa volonté de rendre accessibles à tous les outils et les contenus, le « libre » poursuit un objectif de démocratisation du savoir et des compétences, de partage des connaissances et de coopération dans leur mise en œuvre, d’autonomie et de responsabilité face aux technologies, du développement du sens critique et de l’indépendance envers les pouvoirs de l’information et de la communication.

Pensez-vous que ces objectifs soient important et qu’ils aient toute leur place dans une « école du XXIème siècle » ? Si oui, alors ne comptez ni sur Microsoft ni sur ses enseignants sous influence pour sensibiliser réellement nos élèves sur ces questions pourtant devenues majeures aujourd’hui.

Autonomie et responsabilité face aux technologies, mais surtout sens critique et indépendance envers les pouvoirs, sont autant de thèmes qui ne font pas partie de la stratégie éducative de Microsoft. Et pour cause, ils risqueraient de dévoiler quelque chose que l’on cherche pernicieusement à cacher aux enseignants et à leurs élèves : le fait qu’une autre informatique soit possible, impliquant par là-même une autre pédagogie. Et, ne vous en déplaise, cette prise de conscience est déjà « innovante » en soi.

De la déclinaison française du programme

Et en France me direz-vous ?

Je ne connais pas l’étendue du programme « Microsoft Partners in Learning » de notre beau pays. Mais pour avoir ici-même participé à lever certains lièvres par le passé, je puis toutefois émettre quelques solides hypothèses.

Les « Microsoft Innovative Teachers » c’est avant tout l’équipe du Café pédagogique. Ce n’est pas moi qui l’affirme mais le site officiel répertoriant pays par pays les membres de ce réseau d’enseignants. Lorsque vous cliquez sur « France », vous êtes automatiquement renvoyé sur la page d’accueil du Café.

Le Café est accompagné par l’association d’enseignants Projetice (lire à ce sujet Projetice ou le cas exemplaire d’un partenariat très privilégié entre Microsoft et une association d’enseignants), dont la création a, semble-t-il, été directement souhaité et suggéré par Microsoft.

En toute logique, c’est à eux qu’il incombe de monter les « Microsoft Innovative Teachers Forums » dont la création a, c’est certain, été directement souhaité et suggéré par Microsoft. Nous avons ainsi eu Rennes en 2008 et Roubaix en 2009 (lire à ce sujet Du premier Forum des Enseignants Innovants et du rôle exact de son discret partenaire Microsoft et surtout le fort instructif Forum des Enseignants Innovants suite et fin).

Quant à la grande messe qui réunit les lauréats des forums du monde entier, vous pouvez compter sur le Café pour nous en faire de magnifiques et élogieux reportages, comme le dernier en date à Salvador de Bahia (lire à ce sujet En réponse au Café Pédagogique).

Pour le supérieur, il pourrait également y avoir les chercheurs du Groupe Compas (cf la présentation Microsoft) dont la création, elle aussi, aurait été fortement souhaité et suggéré par Microsoft, mais là je manque clairement d’informations.

Toujours est-il qu’on retrouve bien tout ce petit monde dans les encadrés de la brochure commerciale Microsoft 2010 en direction des établissements scolaires.

Un petit monde que l’on peut mobiliser à tout moment, comme par exemple lorsqu’il s’agit de relayer une campagne médiatique autour d’un nouveau produit de la société (lire à ce sujet L’influence de Microsoft à l’école n’est-elle pas disproportionnée ?, campagne qui valu à Microsoft de recevoir le Grand Prix « Acquisition et Fidélisation Clients »).

L’école Châteaudun ou la « Microsoft Innovative School » de chez nous

Pour compléter cet impressionnant dispositif Microsoft, il ne manquait plus que « l’École Innovante ». Et c’est à l’école publique Châteaudun d’Amiens qu’est revenu cet insigne honneur, et ce depuis deux ans déjà.

Le Café pédagogique en a parlé ici, , et tout récemment . Rien d’anormal à cela puisque le Café étant la tête de pont des « Microsoft Innovative Teachers » français, c’est bien le moins que de relayer les annonces de cette grande famille. C’est du reste cette dernière annonce, vendredi 15 janvier, qui a motivé la rédaction de cet article (d’autant plus que chez eux, il est impossible de commenter). Et plus particulièrement cette histoire de « fées autour du berceau ».

À l’origine de ce projet, la rencontre entre le directeur de l’école primaire qui voulait améliorer l’expression écrite et orale de ses élèves, son maire, ministre de l’éducation à ce moment, et le groupe Microsoft qui soutient plusieurs écoles innovantes dans le monde avec le projet d’observer et retenir les innovations. Voilà beaucoup de fées autour du berceau et cela a joué sur le projet car l’équipe éducative a été très sollicitée par les accompagnateurs du projet.

Abondance de fées pourrait-elle nuire ? En tout cas, il y a une fée singulièrement différente des autres, et l’on pourra toujours évoquer une « rencontre » entre les différents acteurs, c’est bien plus sûrement la fée Microsoft, en pleine « Innovative Prospection », qui a su murmurer de manière convaincante à l’oreille du ministre (en l’occurrence, à l’époque, c’était Gilles de Robien).

On remarquera donc d’emblée que les fées du projet et l’équipe éducative sont deux entités bien distinctes. Des fées qui savent manifestement manier leur baguette avec, quand il le faut, l’autorité nécessaire, puisque la décision est venue d’elles, c’est-à-dire d’en haut, et non du terrain, c’est-à-dire des professeurs qui auraient eu vent des « Microsoft Innovative Schools » et qui auraient choisi d’inscrire collectivement et spontanément leur école.

Pour plus de détails sur le projet, il y a, avec toutes les précautions d’usage quant à leur objectivité, cette présentation sur le site de Microsoft (voir aussi ce reportage vidéo interne, au format propriétaire wmv) et cette visite du Café pédagogique.

On pourra également se rendre sur le blog et le site de l’école, créés à l’occasion, dont je vous laisse juge de la qualité et du dynamisme (reposant tous deux sur des solutions libres soit dit en passant).

Quant à la communication, il faut croire qu’avoir aussi bien le ministre que Microsoft penchés au dessus du berceau, aident à la mise en lumière médiatique du projet, avec titres et contenus qui ont dû faire plaisir aux fées : La première école innovante de France (Le Point – février 2008) et Amiens invente l’école numérique de demain (Le Figaro – mai 2008). Ajoutez juste un mot de plus au titre du Point et vous obtenez quelque chose qui oriente sensiblement différemment la lecture : « La première école innovante Microsoft de France ».

Mais plus intéressant et a priori plus rigoureux, on a surtout ce rapport tout chaud réalisé par l’INRP, c’est-à-dire rien moins que l’Institut National de Recherche Pédagogique. Aujourd’hui c’est donc l’heure d’un premier bilan et c’était bien là le motif principal de l’annonce du Café.

Première phrase du rapport : « Cette étude a bénéficié du soutien de Microsoft Éducation ». Et un peu après :

Sollicité par Microsoft Éducation France pour être évaluateur du projet Innovative Schools, d’une durée de deux ans (de septembre 2007 à décembre 2009), au niveau national et international, l’INRP a signé une convention de recherche-évaluation pour (…) faire un suivi du projet et du process des 6i

On retrouve notre constante : c’est toujours Microsoft qui sollicite et non l’inverse. Quant au « process des 6i », c’est absolument fascinant car il s’agit d’un véritable choc culturel.

Nous connaissons un peu les américains. Ils raffolent de ces méthodes en plusieurs points censés améliorer notre vie professionnelle, personnelle ou spirituelle (un exemple parmi d’autres, les douze étapes des Alcooliques Anonymes). On ne le leur reprochera pas, c’est dans leur ADN et certaines méthodes sont au demeurant tout à fait efficaces.

Et c’est ainsi que Microsoft, dans sa volonté universalisante (et uniformisante) de « transformer l’éducation » de ce nouveau millénaire, nous a pondu ce processus à 6 niveaux, ainsi résumé sur cette page :

Cette méthode, les 6i, se déroule en 6 étapes réparties sur 2 années scolaires. Le processus des 6i (Introspection, Investigation, Inclusion, Innovation, Implémentation, Insight) de Microsoft, est un plan de route sur l’élaboration, la mise en œuvre et la gestion des changements basés sur les TIC. Il constitue un guide à l’intention des leaders scolaires pour mettre en place des changements éducatifs sur la base d’approches éprouvées.

Pour ceux que cela intéresse, Microsoft donne plus de détails sur son site anglophone (mais, là encore, méfiance, l’enfer est pavé de bonnes intentions pédagogiquement innovantes).

Le problème (enfin, ça dépend pour qui) c’est qu’à l’école française on n’est pas forcément familier avec cette manière d’appréhender les choses. Je vous laisse imaginer la tête du professeur des écoles, qui pour rappel a subi et non voulu le projet, lorsqu’on lui met une telle méthode entre les mains ! Euh… ça veut dire quoi « Insight » déjà ?

Toujours est-il que malgré le fait que ce « process des 6i » figurait donc noir sur blanc sur la feuille de route de l’étude commandé, le rapport n’en parle presque pas. Il se contente de le décrire à un moment donné (p. 18 à 21) mais sans que cela ait visiblement donné lieu à la moindre tentative d’application avec l’équipe pédagogique puisqu’on n’y revient plus par la suite. Pour tout vous dire, on sent l’INRP comme un peu gêné aux entournures ici (comme ailleurs du reste).

Résistance passive

Les rapports au sein de l’Éducation nationale, c’est tout un poème. Il faut parfois avoir le décodeur, en particulier lorsque l’on évoque les TICE où très souvent, politique moderne oblige, aussi bien l’auteur que le lecteur ont intérêt à ce que l’on décrive, quoiqu’il arrive, une situation positive et un projet réussi. Le projet fonctionne ? On dira qu’il fonctionne très bien. Il ne fonctionne pas ? Et l’on dira alors qu’il est un peu tôt pour en faire un bilan, ou que les conditions d’observation n’étaient pas optimales, etc., mais que malgré quelques « résistances », on note d’ores et déjà de significatives avancées, etc.

Et d’ailleurs, petite parenthèse, lorsqu’il s’agit d’un projet d’envergure dont le rapport remonte en passant par les indispensables étapes de la hiérarchie, on peut se retrouver au final avec un beau décalage entre ce qui se trouve sur le bureau du Ministre et la réalité du terrain (le B2i fournissant à cet égard un excellent exemple, on tient certainement là une cause principale de son étonnante longévité).

Bref ici, je vous invite à lire la conclusion du rapport (muni du fameux décodeur). Entre les lignes, on ne décrypte pas un échec patent mais on ne peut pas dire non plus, et loin de là, que ce soit l’enthousiasme qui prédomine.

Cette conclusion comporte deux parties (c’est déjà mauvais signe) : « Quelques failles constitutives sont repérables pour diverses facettes de l’opération » (on craint le pire), mais heureusement il y a aussi « Les avancées d’une école innovante ».

Morceaux choisis :

Les circonstances de la mise en œuvre de l’innovation dans l’école observée n’ont pas été idéales de ces points de vue et sont, sans l’ombre d’un doute, à l’origine des difficultés éprouvées à la fois par les acteurs locaux et par tous ceux qui ont été chargés de les suivre. L’empilement de dispositifs, de choix, de procédures, jamais clairement négociés avec les enseignants, a pu dérouter. Pour autant, les bénéfices de la démarche d’innovation sont visibles à l’échelle de l’école et encouragent à poursuivre.

On retrouve le plan d’un rapport-type tel que décrit théoriquement ci-dessus.

L’initiative est venue du ministre de l’Éducation nationale lui-même, maire de la ville. Le faible nombre d’enseignants réellement engagés dans l’opération traduit des réticences face à une opération (…)

La forme recherche-évaluation choisie par le Stanford Research Institute (SRI) comme cadre général du pilotage de l’innovation est très éloignée des principes courants d’observation et de suivi habituellement mis en œuvre en France.

C’est peu de le dire. Mais quand on s’embarque ainsi avec des américains, il faut en être bien conscient au départ. Là c’est un peu tard et il convient donc d’assumer.


La charge de travail imposée aux acteurs de l’école, dépassant de très loin la mise en place de l’innovation elle-même, a d’autant plus vite atteint un niveau insupportable qu’elle était inattendue et incompréhensible faute d’avoir été expliquée à l’avance.

L’extrême médiatisation de l’opération (à l’échelle locale puis nationale), avec ses inexactitudes, ses excès, ses effets pervers a achevé d’exacerber une situation dont la dimension politique était relancée par le changement de majorité municipale aux élections du printemps 2008.

Rien d’étonnant à ce que ces dispositions aient accentué la circonspection des enseignants et aient pu conduire au refus de toute observation de situations de classe à partir du mois d’avril 2008. Pour autant de nombreux aspects authentiquement innovants sont apparus dans le déroulement du projet d’école.

Ce dernier paragraphe est symptomatique. Des enseignants ont carrément refusé de jouer le jeu. C’est une lourde et concrète information impossible à censurer. Mais elle est tout de suite suivie et contre-balancée par un argument positif vague et flou, que vient corroborer l’ultime phrase du rapport :

L’innovation est ainsi reconnue et même souhaitée. Ce n’est pas l’innovation en tant que telle qui est recherchée, mais c’est, bien davantage, l’amélioration des résultats de tous les élèves, y compris les moins performants, qui est attendue. Cette exigence s’inscrit dans la droite ligne de l’histoire de notre école républicaine.

Certes, certes. Mais pourquoi notre école républicaine à la si riche histoire aurait-elle besoin de s’appuyer ici sur la « méthode des 6i » tout droit sortie de la cuisse de la multinationale Microsoft ?

Et le Café pédagogique, de s’adonner lui aussi à la conclusion positive aux forceps :

S’il est trop tôt selon l’étude pour constater des changements chez les élèves, elle confirme l’impact sur l’équipe pédagogique. Le projet a bien développé sa capacité d’adaptation aux changements – une faculté tant individuelle que collective qu’exige une société en constante évolution. Ça donne déjà une longueur d’avance à cette école.

En gros, on est venu perturber des professeurs qui n’avaient au départ rien demandé. Et comme il a bien fallu qu’ils s’adaptent, on les félicite d’avoir fait face aux changements. Que l’adaptation ait été vécue positivement ou négativement ne compte pas, c’est une qualité en soi. Voilà une bien maigre « longueur d’avance ».

Et pour en avoir le cœur net, l’idéal serait de recevoir dans les commentaires de ce billet, quelques témoignages de professeurs de cette école.

Parce que, autant appeler un chat un chat , malgré la débauche d’énergies et de moyens matériels et humains mis à disposition, l’expérience Innovative School Châteaudun d’Amiens n’a semble-t-il pas forcément donné tous les résultats escomptés. Microsoft pourra toujours cocher la case « école française » sur sa jolie mappemonde, on ne m’ôtera pas de l’idée que nous sommes face à une belle déception qui ne veut dire son nom.

Résistance active

Mais il y a des résistances bien moins passives et donc bien plus intéressantes que celles de l’école Châteaudun d’Amiens.

Infiltrer une école primaire ne suffisait semble-t-il pas aux responsables de Microsoft France Éducation. Il leur fallait également un établissement du secondaire pour parfaire le tableau.

Ils avaient ainsi repéré un lycée de l’Académie de Créteil. Et là encore il s’agissait de faire passer le projet par le haut, sans en référer au préalable à l’équipe pédagogique de l’établissement.

Mais il y eut un magnifique grain de sable, quelque chose d’imprévisible et inattendu s’est alors produit. Deux enseignantes ont pris leur plume pour courageusement protester publiquement sur le site d’informations rue89. Ce qui a donc donné l’article Pour ses « innovations », l’Éducation nationale s’en remet à Microsoft, qui figure en bonne place dans ma rétrospective personnelle de l’année 2009.

Je vous invite à le lire dans son intégralité (on notera que le logiciel libre y est évoqué et même souhaité), mais je n’ai pu résister à en reproduire ici la percutante introduction :

Nous sommes professeurs de lettres et de philosophie dans un établissement public de France et nous voulons dire notre tristesse. Notre colère. Nous avons appris, il y a peu, que notre établissement déposait un projet d’« école innovante » auprès du rectorat, mené en partenariat avec Microsoft !

Les établissements publics français ont une mission publique d’éducation. Ils doivent, cela va sans dire, évoluer avec leur société : si l’on tient absolument au novlangue actuellement en vigueur à l’Éducation nationale, disons qu’ils doivent « innover » ; mais quel besoin de le faire sous le coaching de Microsoft ?

Que vient donc faire une multinationale dans nos innovations pédagogiques ? Et comment comprendre que ce soit le responsable des technologies de l’information et de la communication pour l’enseignement (TICE) au rectorat, autrement dit l’Éducation nationale elle-même, qui encadre ce « partenariat » ?

Nous, enseignantes du service public français, sommes choquées d’avoir à innover par la « méthode des 6i » (« introspection, investigation, inclusion, innovation, implémentation, insight ») mise au point – et brevetée ! – par le groupe Microsoft pour pouvoir formater de façon homogène l’innovation pédagogique de pays différents, et faire émerger l’école du XXI siècle, comme on peut le lire sur le site de Microsoft.

Quelle éloquence, mais surtout quelle évidence !

On remarquera que l’INRP s’est quant à elle tout à fait accommodée de la « méthode des 6i » à Châteaudun. Les « experts pédagogiques » sont semble-t-il plus flexibles et malléables que les profs d’en bas.

Suite à cette tribune, l’une des auteurs m’a contacté pour échanger, voire prendre conseil, parce que figurez-vous qu’elle subissait du coup menaces et pressions de la part de sa hiérarchie !

Mais la hiérarchie s’est ravisée. Je pense qu’elle a réalisé que plus cette histoire allait se médiatiser, plus sa position deviendrait intenable, car les collègues se rangeraient plus que majoritairement derrières les arguments des enseignants.

Autrement dit, victoire, on n’a plus du tout entendu parler de ce projet Microsoft depuis ! La prochaine « Innovative School » française devra attendre. Comme quoi quand on veut…

Et l’article de s’achever ainsi :

L’école en a, des profs « innovants », si l’on tient absolument à les appeler ainsi.

Non, ce n’est vraiment pas le désir d’inventer et de créer qui manque, à l’Éducation nationale.

Mais un prof qui s’entend dire qu’il devra accepter comme une condition nécessaire pour accéder aux moyens de mettre en œuvre ses projets de travailler avec telle entreprise privée, sous sa direction et dans son formatage, dans l’idéologie de ce que doit être l’école du XXIe siècle (sic) selon ladite entreprise, ce prof, dès lors, ne sent plus tellement en lui le désir d’« innover ».

Parce qu’il pressent qu’« innover » dans ces conditions impliquera qu’il abdique une part de sa liberté pédagogique au nom du modèle idéologique en question.

Ce sera également notre conclusion.

Notes

[1] Crédit photo : Lee Carson (Creative Commons By-Sa)




Reportages libres d’Al Jazeera sur l’Irak d’aujourd’hui

Al Jazeera - The child Abdullah ReportC’est le troisième billet du Framablog sur Al Jazeera et son dépôt de vidéos sous licence Creative Commons By.

Il annonce le fait que désormais on n’y trouve plus uniquement des documents sur la récente de guerre de Gaza, mais également de reportages sur la vie quotidienne en Iraq.

Le blog des Creative Commons se félicite de la nouvelle (traduit ci-dessous).

Après, c’est une question de point de vue et d’appréciation, parce que, même si moi aussi je ne parle pas arabe, les thèmes choisis peuvent tout aussi bien entrer dans la catégorie « vie quotidienne en Irak » que dans la catégorie moins neutre « difficultés de la vie quotidienne en Irak sous occupation américaine » (cf cet enfant gravement blessé de l’image ci-contre issue du reportage The child Abdullah).

Vie quotidienne en Irak – De nouvelles vidéos Al Jazeera

Daily life in Iraq – new footage at Al Jazeera

Jane Park – 14 janvier 2010 – Creative Commons Blog
(Traduction Framalang : Quentin et Pierre)

Al Jazeera a inauguré l’an passé son dépôt d’archives sous licence Creative Commons : 12 vidéos filmées à Gaza, placées sous la plus libre des licence CC, la CC-Attribution. Depuis lors, la collection d’Al Jazeera a grossi ; des vidéos sur la vie quotidienne et la culture en Irak comptent parmi leurs derniers reportages.

Regardez la vidéo de cet artiste iraquien sculptant un Minaret et peignant un arbre. Les sculptures semblent être enrobée dans de l’or ou une autre matière – je ne suis pas tout à fait sûr car je ne parle pas couramment arabe. La bonne nouvelle est que ce film, ainsi que toutes les autres vidéos archivées, est sous licence BY, ce qui permet à quelqu’un d’aider à les traduire en anglais ou dans une autre langue, pour être utilisées par les diffuseurs concurrents ou intégrées à des documentaires.

D’autres vidéos traitent du réseau de communication en Irak, de l’usine pharmaceutique de Samarra et des fermes de volailles.

Vous pouvez aussi monter ces vidéos pour raconter une histoire fascinante, que ce soit par un clip de 30 secondes ou un film de 20 minutes. Peut-être même l’accompagnerez-vous d’une bande sonore sous licence CC… Soyez créatif ! Énormément de matériel est disponible sous licence CC. Toutes les vidéos de la vidéothèque Creative Commons d’Al-Jazeera sont disponibles via la licence CC BY. Ceci signifie que vous pouvez les éditer, les adapter, les traduire, les remixer ou en faire tout autre usage tant que vous créditez Al-Jazeera. Les personnes intéressées pourront ajouter le dépôt d’archivage d’Al-Jazeera dans leurs flux Miro.




Courte interview de Richard Stallman avant sa venue en France

Richard Stallman - Copyright Sam OgdenLa biographie de Stallman, dont nous sommes à l’initiative, et qui est au final bien plus qu’une traduction suite aux nombreuses modifications effectuées par Stallman lui-même (cf cette vidéo), sortira donc officiellement jeudi 21 janvier 2010.

Sauf pour les chanceux qui assisteront à la rencontre avec Richard Stallman demain aux éditions Eyrolles[1] (c’est malheureusement complet depuis des lustres) et qui auront la possibilité de repartir avec les premiers tirages encore chauds sortis de l’imprimerie (et accessoirement une dédicace de Stallman). C’est Christophe Masutti, co-auteur du livre, qui représentera Framasoft.

Outre Paris donc le 12 janvier, Richard Stallman sera à Lyon le 13, Grenoble le 14 et Autrans le 15 (plus d’infos sur cette dépêche LinuxFr)[2].

En attendant, nous avons posé par email quelques questions à Richard autour de ce livre, dont les réponses ont été rédigées directement en français par l’intéressé.

Entretien avec Richard Stallman

Framablog : Bonjour Richard, est-il vrai que tu as lu pour la première fois le livre d’origine de Sam Williams à l’occasion du projet de sa traduction en français, et si oui pourquoi ?

RMS : Avant sa publication, j’ai lu le texte préliminaire et j’ai donné des critiques à Sam Williams. Après la publication, il n’y avait plus rien à faire, donc je n’ai pas lu le livre publié avant d’être invité à le corriger pour la traducion française. Quand je l’ai vu, il était évident qu’il avait besoin de plus que de petits changements.

Une biographie sur toi, cela te gène, cela flatte ton ego ou bien tu y vois un document de plus pour diffuser tes idées et celle du Mouvement pour le Logiciel Libre ?

Tous les trois.

Était-il difficile et délicat de ne corriger que des éléments factuels de la première version ? As-tu eu la tentation de corriger également des éléments plus subjectifs sur ta personnalité ?

Il y a ici un malentendu. Mes changements vont au dela des éléments factuels, je n’avais jamais l’intention de les limiter si étroitement. J’ai préservé les citations critiques, et les impressions personnelles de Sam Williams quand présentées comme telles. Et parfois j’ai ajouté des réponses.

Bien sûr, suivre cette politique était parfois une tache délicate, mais elle était nécessaire pour éviter de produire un livre qui ne présentait que mon point de vue sur moi.

Peut-on dire que l’histoire de ta vie, c’est aussi un peu l’Histoire de l’informatique et de son combat pour rester libre ?

L’histoire de l’informatique est longue et large, et les événements de ma vie n’en touchent qu’un peu. Mais une grande portion du livre concerne le mouvement du logiciel libre que j’ai lancé.

Quand sortira la nouvelle version en anglais ?

Je ne sais pas, mais j’ai proposé de le publier tout de suite.

Penses-tu que Nicolas Sarkozy lira ta biographie ?

Si les français luttent très fort contre ses lois injustes, comme la DADVSI et l’HADOPI, peut-être il ordonnera que quelqu’un le lise pour lui. Mais ce ne serait pas une victoire. La victoire, c’est qu’il soit remplacé par quelqu’un qui aime plutôt les Droits de l’Homme que les grands éditeurs, quelqu’un qui supprime ces lois et légalise le partage numérique.

Notes

[1] En avant-première de la sortie du livre Richard Stallman et la révolution du logiciel libre, disponible en librairie le 21 janvier 2010, les éditions Eyrolles organisent à la librairie une conférence publique avec Richard Stallman, suivie d’une séance de dédicaces, mardi 12 janvier 2010 à 17h.

[2] Crédit photo : Copyright Sam Ogden (avec son aimable autorisation)




Le Monde et Libé main dans la main pour nous pondre des éditos serviles et crétins

Hamed Saber - CC byJe me souviens d’un temps que les moins de vingt ans ne peuvent pas connaître. C’était avant Internet. La presse avait un surnom : le quatrième pouvoir. Et il me plaisait d’y croire à ce contre-pouvoir, face aux autres pouvoirs incarnés par l’État.

Aujourd’hui, j’ai de plus en plus de peine à y croire. Jusqu’à ne plus y croire du tout lorsqu’il s’agit d’aborder « Internet ».

Que Sarkozy s’empare d’un rapport pour venir nous faire une proposition qui frise le ridicule avec sa « taxe Google », nous y sommes malheureusement désormais habitués, Hadopi étant encore (et pour longtemps) dans toutes les mémoires. Mais que des journaux aussi prestigieux que Le Monde et Libération, reprennent le même jour, sans aucun recul, cette proposition, en tentant bien maladroitement de la justifier, c’est nouveau et c’est plus que décevant[1].

Mais qu’est-ce donc que cette « taxe Google » ?

Florent Latrive (journaliste à… Libération !) la résume fort bien dans son excellent et cinglant billet La taxe Google, symbole cache-misère sur son blog Caveat Emptor :

Il n’est surtout nulle part question que cette taxe soit une source de revenus supplémentaires pour les artistes et créateurs. Elle vise simplement à compenser dans le budget de l’Etat une série de dépenses en faveur des industries culturelles, et notamment la carte jeune musique ou l’extension du crédit d’impôt pour la production musicale. Si ces dépenses auront, c’est le minimum, pour effet indirect d’assurer quelques rentrées à la filière, on ne trouve pas là trace d’une nouvelle ligne de recettes susceptibles d’apporter un revenu pérenne et conséquent aux créateurs. On taxe la pub, et on subventionne la vente de musique. Il ne s’agit pas là de rémunérer la filière sur la base d’une nouvelle circulation des oeuvres et de nouveaux partages de la valeur ajoutée, mais d’instaurer un micro-bricolage fiscal, tout en continuant, via Hadopi, la guerre au public et à ses pratiques de partage sur les réseaux.

Et Guillaume Champeau de surenchérir sur Numerama, un brin énervé :

Puisque la France et l’Europe sont incapables de favoriser l’émergence de grands acteurs de l’internet, autant taxer les sucess stories américaines pour financer ses industries vieillissantes.

Ajoutons à cela qu’elle s’annonce techniquement inapplicable (ça ne vous rappelle rien ?), puisque comme nous le précise Rue89, il sera fort délicat, pour ne pas dire impossible, de tout aussi bien choisir les sites à taxer, empêcher l’évasion fiscale et dénombrer les internautes français.

L’idée est donc définitivement mauvaise. Et, même si ça n’est pas forcément agréable à lire, on ne s’étonnera pas de se faire plus ou moins gentiment chambrer par le reste du monde.

Mais nos deux grands quotidiens ont eux décidé de passer outre…

Qu’est-ce que l’éditorial, ou l’édito, d’un journal ? C’est en quelque sorte la « signature » du journal, voire même parfois sa « vitrine idéologique ». Et comme c’est important, on ne va pas en confier la plume à n’importe qui : ce sont souvent les directeurs ou les rédacteurs en chef qui s’y collent.

Or donc ici, c’est rien moins que l’éditorial de ces deux journaux qui est sollicité pour jouer, j’exagère à peine, les porte-paroles du gouvernement. Les titres de l’un comme de l’autre sont évocateurs et en parfaite symbiose : « Juste » pour Libération et « Une taxe juste » pour Le Monde. Le parallèle est saisissant, à croire qu’ils se sont passés le mot.

L’édito de Libération : « Juste »

URL d’origine du document
Par Laurent Joffrin (directeur du journal) – 8 janvier 2010

Internet, notre ennemi ? Voilà bien la manière la plus niaise de poser le problème de la création et de la presse en ligne. Le réseau mondial porte en lui un tel progrès de civilisation – culture et information à la disposition de tous sur un simple clic – qu’il est ridicule d’invoquer cette dichotomie sommaire.

Ce serait effectivement ridicule, mais alors pourquoi le rappeler en introduction ? On est à la limite de la faute avouée à moitié pardonnée.

Non, l’ennemi est plus insidieux, et plus dangereux : c’est le tout gratuit, en ligne ou ailleurs.

Qu’est-ce que le « tout gratuit » ? Je n’en ai personnellement aucune idée. Toujours est-il que « l’ennemi » est donc désigné et que l’on se trouve face à une autre dichotomie sommaire dans laquelle on souhaiterait nous enfermer : gratuit contre payant. Le refrain est désormais connu, occultons totalement la constitution de biens communs, le partage de ressources sous licences libres et ouvertes (gratuites ou payantes) et les échanges non marchands. C’est pourtant aussi et surtout là qu’Internet est susceptible d’être un « progrès de civilisation ».

Pendant des lustres, les ravis de la fausse modernité nous ont expliqué que la gratuité totale, par des sources principalement publicitaires, créerait son modèle économique. On s’aperçoit aujourd’hui que cette prophétie n’a aucune réalité pour les producteurs de contenus culturels (musique, livres, cinéma, information…)

Merci de cet aveu. Il fallait effectivement être bien naïf pour croire ces « ravis de la fausse modernité » (on veut des noms !).

Quelques géants, agrégateurs comme Google ou fournisseurs d’accès Internet, ont capté l’essentiel des revenus. Le libre marché a créé cette originale répartition des tâches : les créateurs de contenu supportent les dépenses, les diffuseurs perçoivent les recettes.

Mélangeons allègrement deux entités aussi hétéroclites que Google et un fournisseur d’accès pour en faire d’étranges boucs émissaires à qui on reproche d’avoir « capté » les revenus des contenus.

Les premiers subissent déficits, précarité et licenciements, les autres amassent des montagnes d’argent.

Non, non, on ne nous parle pas de la crise des subprimes mais bien de la crise des industries culturelles (qui, contrairement à la première, n’inquiète qu’elles-mêmes). Toujours est-il que « les autres », vautrés sur des montagnes d’argent injustement récolté, sont coupables. Il est alors sain et logique de les punir par une taxe en faveur des pauvres victimes.

Dès lors, le rapport Zelnik est dans le vrai quand il cherche le moyen de rééquilibrer une situation qui mènera sans cela à l’anémie et au formatage des contenus.

Classique. On confond un problème (réel) avec l’une des solutions (plus que discutable) pour le traiter. On ne s’y est pas pris autrement pour justifier l’Hadopi. « Dès lors… », le raisonnement est un peu court et l’affirmation péremptoire. Si vous ne voulez pas d’une presse malade (anémie) et uniforme (formatage des contenus) alors vous ne pouvez qu’adhérer au rapport Zelnik et à sa taxe Google. La ficelle est un peu grosse mais CQFD.

Et ce qui vaut pour la musique vaut, a fortiori, pour l’information, dont le rôle civique est évident.

Journalisme et musique, même combat dans l’adversité, d’où l’existence de cet édito. Et c’est encore pire avec le journalisme dont l’évidence du rôle civique est telle qu’il convient tout de même de le rappeler.

A moins de considérer, dans un rêve ultralibéral, qu’en raison d’un commandement du Saint Marché, créateurs et journalistes doivent désormais vivre d’amour et d’eau fraîche.

J’ai connu Libération moins critique vis-à-vis de l’économie de marché. Mais résumons-nous : Internet tend vers un tout gratuit capté par un Google causant tristesse et désolation dans le monde des « vrais » producteurs de contenus culturels. La taxe est juste, la taxe est la solution.

L’édito du Monde : « Une taxe juste »

URL d’origine du document
Non signé – 8 janvier 2010

Taxer Google. En prenant position, jeudi 7 janvier, lors de ses voeux à la culture, en faveur d’une fiscalisation des revenus publicitaires en ligne des géants d’Internet, Nicolas Sarkozy fait-il preuve de démagogie ou, au contraire, de cohérence ? Un peu des deux. Il est facile de pointer uniquement le grand méchant loup américain. Les maisons de disques, par exemple, ont longtemps refusé de prendre au sérieux les évolutions technologiques, préférant profiter des revenus considérables qu’elles tiraient du CD.

Départ identique à l’édito précédent (Internet n’est pas l’ennemi, etc.). On est lucide parce qu’on a bien compris la démagogie de la proposition, mais comme c’est aussi de nous, les journalistes et notre avenir dont il s’agit, on va tenter malgré tout de vous en montrer sa cohérence (si possible sans recourir aux forceps).

D’un autre côté, la position des moteurs de recherche, Google en tête – l’immense majorité des internautes français entrent sur la Toile avec lui -, devient intenable.

Intenable pour qui exactement ? On pourrait d’ailleurs faire également le même procès à Microsoft et ses ventes liées (lui aussi basé fiscalement en Irlande soit dit en passant). Ce qui donne alors : « D’un autre côté, la position des systèmes d’exploitation, Windows en tête – l’immense majorité des utilisateurs français entrent en informatique avec lui -, devient intenable ».

Depuis des années, Google profite de contenus qu’il n’a pas créés et qui ne lui appartiennent pas : musiques, films, livres, presse, produits audiovisuels… Google ne paie presque rien et il rend les contenus gratuits. Pire, il capte des pages de publicité, et donc des revenus, qui devraient aller à d’autres.

Pareil que tout à l’heure. Google capte, profite sans donner, et rend tout gratuit. On ne va pas dire que Google est un voleur, mais on en a tout de même fortement envie. « Il est facile de pointer uniquement le grand méchant loup américain », disait-on pourtant en préambule. Que Google pose de nombreuses questions et de nombreux problèmes est une évidence, mais aborder aussi radicalement le débat ne risque pas de faire avancer les choses.

Le résultat est ravageur : hormis le cinéma, qui se porte bien – la magie de la salle opère toujours -, la musique est sinistrée, la presse souffre, le livre est menacé.

Et n’oublions pas aussi qu’en 2012 c’est l’Apocalypse. Et il semblerait, mais c’est à vérifier, que Google n’y soit cette fois-ci pour rien.

Comment convaincre des consommateurs de musique de payer pour un produit qu’ils peuvent trouver gratuitement ? Lorsque l’on a 20 ans, que l’on a grandi une souris à la main, que le plaisir d’un meilleur son ou d’une belle pochette de disque compte moins, la mission paraît impossible.

J’invite l’éditorialiste du Monde, fin connaisseur de la jeunesse, à lire l’article de Jean-Pierre Archambault, Gratuité et prix de l’immatériel, pour constater qu’à l’impossible nul n’est tenu.

Ces dernières années, les gouvernements ont, pour punir les fraudeurs, multiplié les textes de loi et accumulé les maladresses. La filière musicale, elle, a pris beaucoup de retard dans la mise en place d’une offre riche et attractive.

Donc, en toute logique, si on tire les leçons du passé, il n’y a aucune raison de ne pas se trouver en face d’une nouvelle maladresse. Mais pas du tout…

Dès lors, les mesures incitatives, préconisées par le rapport de la mission Création et Internet, présidée par l’éditeur Patrick Zelnik, sont justes. Et juste aussi l’idée de financer celles-ci par une taxe sur la publicité en ligne. Le rapport aurait pu aller plus loin en mettant à contribution les autres grands bénéficiaires du système que sont les fournisseurs d’accès.

Le mimétisme avec Joffrin me laisse songeur. Ils ont dû s’enfermer ensemble dans une pièce commune pour nous rédiger cela, c’est la seule explication. Jusqu’à la même locution « Dès lors… ». En tout cas, le raisonnement (bancal) et la conclusion (partiale) sont en tout point identiques, jusqu’à l’inclusion des fournisseurs d’accès dans le même galère que Google.

Restent deux difficultés. La faisabilité, d’abord. Dans un monde dématérialisé, évaluer les recettes spécifiquement françaises et contraindre des entreprises étrangères à acquitter leur dû fiscal en France ne sera pas simple.

Cette première difficulté est une impossibilité.

Cela suppose aussi de bouleverser la philosophie d’Internet, réseau créé pour permettre la circulation libre du savoir. Pour les artistes et auteurs, ce serait justice. Pour les utilisateurs, ce sera une révolution culturelle.

Pincez-moi ! Suis-je bien en train de lire un éditorial du Monde ? S’en prendre à la libre circulation du savoir sur Internet serait une nouvelle « révolution culturelle » ???

Une partie de moi-même s’en trouve glacé d’effroi ! (surtout la partie « bobo de gauche », qui n’a pas encore totalement disparue)

On pourrait en rire si ça n’était point si grave. Parce que, mine de rien, ces deux éditos, consciemment ou non, nous préparent magnifiquement à l’épisode suivant qui participe du même état d’esprit, à savoir la mise en place du filtrage du Net et la remise en cause de sa neutralité.

La peur est décidément mauvaise conseillère. Monsieur Joffrin, vous aviez raison tantôt de rappeler le rôle civique de la presse, parce qu’il y a des jours, comme ce 8 janvier 2010, où il peut nous être permis d’en douter.

Notes

[1] Crédit photo : Hamed Saber (Creative Commons By)




L’avenir d’Internet selon Laurent Chemla

Roby Ferrari - CC by-saÉcrivain, informaticien et cofondateur du registrar français Gandi, Laurent Chemla est l’une des rares personnes en France capables de véritablement « penser l’Internet », et ce depuis ses origines ou presque.

Je me souviens ainsi avoir particulièrement apprécié son livre Confessions d’un voleur : Internet, la liberté confisquée et la vision pertinente qu’il donnait alors du réseau. Et son article, plus de dix ans déjà, Internet : Le yoyo, le téléporteur, la carmagnole et le mammouth demeure pour moi une solide référence.

C’est pourquoi je félicite InLibroVeritas d’avoir eu la bonne idée de le solliciter pour conclure l’excellent livre chorale La bataille Hadopi. Et pour se rappeler que ce livre, tout comme l’Agenda 2010 Wikimedia d’ailleurs, est plus que jamais disponible à la vente (et au bénéfice de La Quadrature du Net), nous avons choisi d’en reproduire donc ci-dessous ce deuxième extrait, après La neutralité du réseau de Benjamin Bayart.

L’article est, par sa longueur (et non sa pertinence), à la limite du format blog, puisqu’il dépasse allègrement, pensez-donc, la centaine de messages Twitter à lui tout seul ! Mais, que vous le parcouriez ici ou ailleurs, il vaut la peine de s’extirper quelques minutes du flux pour faire le point et tenter d’anticiper ensemble un avenir qui s’annonce mouvementé pour les uns et passionnant pour les autres[1].

Analyse, Synthèse, Prospective

URL d’origine du document

Laurent Chemla – Octobre 2009 – La Bataille Hadopi (InLibroVeritas)
Licence Creative Commons By-Sa et Licence Art Libre

Je l’avoue, j’ai vu le film « District 9 » un mois avant sa sortie en France, en version Hadopisée.

Certes, les extra-terrestres étaient sous-titrés en russe, mais la bande-son était bien en français. Et il s’agissait d’un « cam », c’est à dire d’une capture faite dans une salle de cinéma dans des conditions plus ou moins bonnes et un cadrage quelquefois défaillant.

Est-ce que je le regrette ? Pas davantage que quand je regardais sur ma petite télévision noir et blanc d’étudiant des films que je n’avais pas pu aller voir sur un grand écran en couleurs. Dans les deux cas, l’œuvre est dénaturée, redécoupée, adaptée à un usage qui n’est pas celui que l’auteur avait prévu.

J’ai économisé le prix de la place : pour un film que je n’ai pas aimé et que je n’aurais pas été voir en salle, je ne vois pas très bien où est le problème. Il me semble d’ailleurs que le statu quo ante, même s’il était passé dans les mœurs, n’était peut-être pas si normal que ça : quand j’achète un produit qui s’avère défectueux, ou qui ne convient pas à l’usage que le vendeur m’avait promis (ici : me divertir), je suis en règle générale remboursé… Payer pour voir, je veux bien le faire au poker – c’est un jeu – mais pas pour mes loisirs : quand je paie ma place de cinéma, je ne vois pas au nom de quel droit je devrais avoir une chance de perdre.

Pourtant, c’est illégal. Aujourd’hui.

Les lois changent. Elles naissent, vivent, et meurent. Elles suivent l’évolution des pratiques sociales et des connaissances scientifiques. L’esclavage a existé pendant des millénaires, et le statut de l’esclave a fait l’objet de bien des lois, mais personne, aujourd’hui, n’oserait s’attribuer la propriété d’un autre être humain. Le droit d’auteur n’existe comparativement que depuis peu, mais les tenants de l’ordre établi semblent vouloir absolument qu’il n’évolue que dans le sens où l’auteur aurait toujours plus de droits sur son œuvre et la société toujours moins. Est-ce bien raisonnable ?

À première vue ça semble une évidence : l’auteur est le propriétaire de ce qu’il crée. Mais si on creuse un peu ?

Sans tous ceux qui l’ont précédée et inspirée, une œuvre pourrait-elle exister ? Et sans la société qui l’entoure, ses modes, ses espérances et ses souffrances, l’auteur pourrait-il puiser dans sa seule expérience ce qui fera que son émotion sera partagée par le plus grand nombre ? Bien sûr que non, et c’est la raison pour laquelle les premières lois encadrant le droit d’auteur, à commencer par le statut d’Anne en 1710, étaient des lois d’équilibre entre les intérêts de l’auteur et ceux de la société.

Depuis, loi après loi, siècle après siècle, cet équilibre a largement été rompu au profit non seulement des auteurs mais aussi de tous leurs représentants, au point peut-être de nuire – bien plus que le piratage – à la diffusion de la culture. Que penser par exemple de la durée de protection des œuvres après la mort de l’auteur : passée de 5 ans à l’époque de Mirabeau, 50 ans au 19ème siècle et dans la convention de Berne, puis 70 ans en Europe aujourd’hui, ces durées excessives créent des rentes de situation pour des éditeurs qui ont, du coup, bien d’avantage intérêt à rééditer des ouvrages déjà rentabilisés que de risquer la publication d’œuvres nouvelles. Elle est loin l’époque du Front Populaire où Jean Zay prévoyait – avant d’être assassiné par la milice de Vichy – de limiter de nouveau à 10 ans cette durée avant laquelle un livre pouvait être diffusé par n’importe qui.

Il semble pourtant qu’un tel rééquilibrage soit non seulement devenu nécessaire, mais surtout résolument inévitable.

Et pour commencer : si les privilèges excessifs des auteurs n’étaient pas si criants, il est probable que je me sentirais bien plus coupable lorsque je bafoue leurs droits. Car la loi ne fait pas tout, et l’éthique, ici, pourrait jouer un bien plus grand rôle si seulement le public ne se sentait pas lui-même bafoué. Devenu par la volonté des producteurs un simple consommateur d’une œuvre transformée en produit de supermarché, comment s’étonner s’il ne respecte pas davantage une chanson qu’une pomme tombée d’un étalage ? Et quand a-t’on vu un chanteur ou un acteur remercier lors d’une remise de prix – au-delà de sa famille et de ses amis – la société qui a rendu sa création possible ?

Les droits de paternité de la société sur les œuvres qu’elle produit sont niés, refusés, abrogés au point que l’on oublie jusqu’à leur existence. Mais ils se rappellent d’eux-mêmes au bon souvenir de chacun par le biais de la morale. Car qui se sent aujourd’hui coupable de pirater une chanson dont l’auteur a vendu des millions d’exemplaires et qui fera la fortune de ses enfants et de ses petits-enfants après lui, quelle que soit la quantité de copies illicites qui seront diffusées ? Qui se sent coupable de regarder sans payer un blockbuster qui a déjà plus que largement été un succès outre-atlantique ?

On aura beau agiter l’épouvantail ridicule de la fin de toute création (il suffit de s’être connecté un jour à Internet pour constater de soi-même l’inanité de cet argument, la création est partout et n’a jamais été aussi vivante) : le public, lui, sent bien qu’il ne commet là rien de répréhensible, et aucune loi ne peut aller contre un tel sentiment de justice.

Il faudra donc, si le monde de la culture ne veut pas se couper définitivement de sa base populaire et voir ainsi disparaître le lien qui fait qu’on a envie de rémunérer celui qui nous montre une image de ce que nous sommes, que quelque chose change. Et justement, quelque chose a changé.

Par sa seule existence, Internet a plusieurs effets incontournables : la disparition des intermédiaires, la disparition des frontières, un modèle déflationniste et une nature décentralisée qui le rend non régulable.

D’abord, il tend à faire disparaître les intermédiaires. Ce qui aura surtout des effets dans le monde de la musique et de l’édition. Pourquoi en effet s’encombrer d’un éditeur ou d’une maison de disque quand on peut distribuer soi-même son livre, ou son album, à la terre entière ? Et se faire connaître sur YouTube en filmant un clip suffisamment décalé pour créer du buzz ; et en multipliant ses contacts sur FaceBook et ses followers sur Twitter, et en publiant des billets bien cinglants sur son blog de manière à préparer la sortie de son livre sur InLibroVeritas ?

Bien sûr, ces pratiques ne concernent pas encore la grande majorité des œuvres. Mais la tendance est là pourtant. Sans vouloir être exhaustif, on peut citer des artistes comme Yelle, les Artic Monkeys, Lilly Allen, Lorie et encore beaucoup d’autres qui sont arrivés dans le show business sans passer par les voies habituelles. Et ça ne fait que commencer bien sûr.

Et que dire de la diminution drastique des ventes de musique physique : ironiquement ce sont les majors qui ont initié le mouvement. En préférant la grande distribution aux réseaux de petits disquaires (ils étaient près de 3000 dans les années 70, il n’en restait que moins de 300 à l’aube du 21ème siècle), l’industrie musicale a choisi de pouvoir mieux contrôler les offres de têtes de gondole sans avoir à passer par la critique d’un vendeur passionné. Seulement voilà : Internet se développe, et la logique de concentration de l’offre disparaît du jour au lendemain. à l’espace physique limité dans les bacs des hypermarchés et des FNAC répond la mise à disposition de tous les trésors de nos discothèques, depuis longtemps sortis des stocks et introuvables légalement. Ces albums, qui auraient pu continuer à être vendus par des petites échoppes spécialisées, ont disparu partout, sauf sur Internet. Et Internet fait, bien sûr, de la concurrence à ces chaînes de distribution contrôlées, menant à une réaction toute logique de la grande distribution : ce qui ne se vend plus n’est plus mis en rayon. Le disque se vendant moins, la surface qu’il occupait dans les supermarchés diminue, créant de nouveau un appel d’air pour la distribution en ligne. C’est un cercle vertueux qui lui aussi ne fait que commencer.

On peut sans grand risque parier que, dans un futur proche, l’offre physique aura ainsi presque totalement disparu. Mais elle ne disparaîtra pas seule.

Car qui dit disparition des intermédiaires dit aussi et très logiquement baisse des coûts. Là où il fallait presser des milliers de disques pour être présent dans tous les points de vente physiques en nombre suffisant, il n’y aura plus que de petits pressages, destinés aux passionnés qui ne se satisferont pas de la dématérialisation totale de l’œuvre numérique. Un stock réduit, donc, qui entraînera avec lui quelques industriels spécialisés dans le packaging des CD. Et puisque les majors n’auront plus à leur service une chaîne de distribution captive, il leur deviendra bien difficile de diriger le client vers le dernier chanteur sorti du néant pour vendre de la soupe industrielle préformatée. Alors, que va-t’il se passer ?

D’abord, il faudra bien que soit répercutée sur le prix public la disparition des intermédiaires et des stocks. Le client n’est pas idiot, et si on persiste à vouloir lui vendre de simples fichiers de musique compressée au prix où on lui vendait dans le passé un objet physique de qualité supérieure et disponible immédiatement là où il avait l’habitude de faire ses courses, il n’aura pas de scrupule à aller voir du côté de l’offre pirate. Faire payer autant pour un service et une qualité moindres, c’est à l’évidence un non-sens commercial qui ne pourra que se retourner contre ses tenants.

Ensuite, il faudra bien que les majors acceptent de s’adapter à la réalité plutôt que de vouloir plier celle-ci à des modèles dépassés. Quand dans le passé un artiste devait accepter des contrats léonins pour avoir une chance de convaincre une maison de disque de le « signer », il est probable que dans le futur le rapport de force soit inversé.

L’auteur, surtout celui qui aura pu commencer à se faire un nom sans l’aide de personne, sera dès lors courtisé par des éditeurs qui auront grand intérêt à écumer le web pour ne pas rater la future star. Et il faudra lui offrir autre chose qu’un simple réseau de distribution pour le convaincre : si elle ne lui offre pas des services bien réels, un musicien talentueux n’aura aucune raison de traiter avec une major. Il faudra que celle-ci lui accorde non seulement de bien meilleures conditions, tant matérielles que techniques, mais aussi qu’elle assure sa promotion autrement qu’en lui promettant la tête d’une gondole qui aura coulé depuis longtemps.

C’est ainsi que, probablement, on verra les petits labels indépendants prendre de plus en plus d’importance. Ironiquement, ce sont ceux qui souffrent le plus de la situation actuelle – ils sont bien plus précaires que ces intermédiaires inutiles qui se plaignent de voir fondre leurs bénéfices – auront leur revanche. Une infrastructure moins lourde et plus à même de naviguer dans les réseaux sociaux et les nouveaux médias à la mode, une spécialisation qui leur permettra de cibler un public moins large, mais plus fidèle, et qui leur sera reconnaissant de faire le tri entre le bon grain et l’ivraie, des packagings innovants pour ceux qui souhaitent posséder un objet physique et une qualité d’enregistrement supérieure pour ceux qui se satisferont de musique dématérialisée, tels seront les atouts de nouveaux intermédiaires à valeur ajoutée.

Encore plus important pour l’avenir : la disparition des frontières de l’information.

On mesure encore mal toutes les implications d’une telle révolution. Encore aujourd’hui, il n’est pas rare par exemple de trouver le même disque, le même DVD, pour un tarif 2 ou 3 fois moins élevé sur la version grand-bretonne d’Amazon que sur son équivalent français (le dernier disque du duo « Basement Jaxx, « Scars », sorti le mois dernier, coûte 11 euros sur amazon.co.uk contre 17 euros sur amazon.fr). La preuve est ainsi faite que l’internaute moyen n’est pas encore très au fait du fait qu’il est libre de comparer les prix bien au-delà de ses propres frontières nationales, puisque les marchands n’hésitent pour le moment pas à établir des tarifs en fonction des marchés nationaux.

Mais les choses changeront vite et j’en veux pour preuve l’émergence de services tels que « myus.com », qui permettent aux plus malins de déjouer les tentatives des marchands d’interdire l’achat à qui ne dispose pas d’une adresse postale sur leur territoire. Il semble bien que – même pour les biens matériels – la notion de territoire n’en ait plus pour très longtemps.

Et dans les nombreux effets qu’une telle disparition va causer, il y aura la révolution de ce qu’on appelle la « chronologie des médias », qui va toucher de plein fouet l’industrie cinématographique.

Mise en place dans les années 1980 pour protéger les exploitants de salles de cinéma de la concurrence de la télévision et des supports enregistrés, cette « chronologie » établit une durée minimale entre la sortie d’un film en salle et sa diffusion sous forme d’abord de DVD ensuite télévisuelle.

Dans un monde de frontières intangibles, il fallait pour voir un film avant sa sortie en France se déplacer physiquement dans un pays où il était déjà diffusé (et de préférence en comprendre la langue). Dans le monde où Internet abolit toute notion de frontière physique pour les contenus culturels, il ne passe pas 24 heures avant qu’un petit malin n’enregistre discrètement sur sa caméra vidéo ce qui passe sur le grand écran qu’il regarde. Et pas plus d’une semaine avant que des équipes de toutes nationalités ne sous-titrent le film ainsi mis à la disposition de tous sur les réseaux P2P.

Et c’est ainsi que je peux regarder « District 9 » un mois avant sa sortie en France.

Alors, bien sûr, on pourrait mieux surveiller toutes les salles obscures de tous les pays en y mettant quelques forces de l’ordre chargées d’interdire l’enregistrement du film, on pourrait ensuite faire fermer tous les sites web qui diffusent des liens vers la copie pirate, on pourrait enfin interdire la traduction et punir les gens qui auront téléchargé le film.

On pourrait faire tout ça, mais force est de dire que ce serait très difficile, pour ne pas dire impossible. Alors qu’il serait si simple d’abolir, purement et simplement, toute cette notion de « chronologie des médias ».

C’est entendu : le producteur d’un film ou d’une série américaine aurait dès lors bien du mal à vendre son produit aux télévisions étrangères pour une diffusion décalée dans le temps. Mais ce type de commerce avait un sens lorsqu’il n’existait pas de moyens de diffusion planétaire : aujourd’hui qu’est-ce qui empêcherait – sinon les usages établis – la chaîne Fox de diffuser via son site web des versions de bonne qualité, et sous-titrées dans toutes les langues, de sa série « Dr House » ? Des accords commerciaux, d’accord, mais nul n’oblige cette chaîne à passer de tels accords dans le futur pour ses prochaines séries.

On verrait alors des coupures de publicité – pourquoi pas spécifiques à telle ou telle langue – dans les fichiers librement diffusés par leurs auteurs, sur des serveurs à fort débit. Rien de bien différent de ce qui se passe sur leur télévision nationale, donc. Quant aux diffuseurs des autres pays, il leur restera la possibilité de diffuser des versions doublées plutôt que sous-titrées, ou mieux encore ils feront le choix de créer eux-mêmes des séries d’une qualité suffisante pour attirer un public devenu mondial. C’est la conséquence logique d’une disparition des frontières, et tout mouvement pour contrer cette pente naturelle finira tôt ou tard par se heurter au réel. La chaîne CBS semble l’avoir compris la première, elle qui a récemment annoncé qu’elle n’avait pas l’intention de demander le retrait des séries diffusées sans autorisation sur YouTube : selon elle, la diffusion pirate n’a causé aucun préjudice à l’audience.

Quant aux films de cinéma, qui font de plus en plus souvent l’objet de sorties mondiales, il deviendra de plus en plus difficile de retarder de plusieurs années leur diffusion sur d’autres médias : il existera toujours une attente pour voir sur petit écran des films même pendant qu’ils seront diffusés en salles obscures. L’évolution la plus probable est peut-être à chercher du côté du film de Yann Arthus Bertrand : « Home » a en effet été diffusé dans le même temps à la télévision et sur grand écran, et cela dans tous les pays à la fois. Ce qui ne l’a pas empêché d’être un succès en salle, et d’être pendant plusieurs semaines en tête des ventes de DVD à la FNAC alors même qu’il était parallèlement disponible gratuitement sur Internet. De quoi réfléchir à un futur de la diffusion cinématographique moins sclérosé ?

On entend souvent, comme justification pour la loi Hadopi, qu’il faut absolument empêcher le piratage pour qu’une offre légale puisse se développer. Selon les tenants de cet argument, il serait impossible d’offrir une offre payante s’il existe en face une offre gratuite.

Ca semble logique, mais est-ce pour autant recevable ? Cet état de fait n’est nullement limité aux industries culturelles. Partout, depuis l’avènement du Web, les offres payantes sont concurrencées par des alternatives gratuites. L’information, en premier lieu, en sait quelque chose : toujours à la recherche d’un modèle économique qui tienne un peu la route, les sites d’information payants doivent tous faire face à la diversité et à la gratuité des sources. Et que dire de l’industrie du logiciel commercial, qui doit faire face à la concurrence de plus en plus importante du logiciel libre ? Faudrait-il aussi interdire Linux pour que Windows puisse rester payant ? Et quid des sites de petites annonces, de comparaison des prix et de la qualité des produits… La liste serait aussi longue que celle des activités commerciales au-delà des seuls biens matériels.

Il est bien rare qu’il n’existe aucune contrepartie gratuite, créée par des passionnés, ou financée par d’autres moyens, d’autres modèles économiques, à un site payant. Pour autant, nul n’oserait affirmer qu’à cause de cette concurrence aucun site payant ne peut exister : là encore le réel viendrait démentir lourdement l’argument. Mais il est certain que cet état de fait pousse l’offre commerciale vers la plus grande valeur ajoutée possible – pour se démarquer des offres gratuites moins étoffées – et vers des tarifs toujours plus bas : c’est l’effet déflationniste d’Internet.

Alors, bien sûr, on rétorquera que Linux n’est pas une copie de Windows et qu’à ce titre il n’enfreint pas les lois sur la propriété intellectuelle. Outre qu’une telle affirmation devrait être fortement nuancée (on vient par exemple d’apprendre que certains brevets de Microsoft avaient été rachetés par les grands groupes qui soutiennent Linux pour éviter de futurs procès), la question n’est pas tant la contrefaçon en elle-même que dans le mensonge sous-tendant l’argument de l’impossibilité d’une offre dite « légale » en face de l’offre dite « pirate ».

En 2003 – 6 ans déjà – Philippe Chantepie, alors chargé de mission au ministère de la Culture, affirmait « Il ne s’agit pas d’interdire le P2P, mais d’imaginer une offre alternative cohérente ». On mesure là non seulement l’immense recul de la réflexion politique depuis que le problème se pose, mais surtout le retard pris par l’industrie du disque dans la mise en place d’une telle offre.

Car si l’on reprend les différents modèles des services payants d’Internet, il n’est pas difficile de voir comment une offre légale cohérente pourrait prendre toute sa place sans pour autant légiférer dans l’urgence pour interdire toute alternative comme condition d’une telle offre.

D’abord, le maximum de valeur ajoutée, ensuite un tarif cohérent avec l’existence d’une offre gratuite. Or, que manque-t’il à l’offre « pirate » ? Pas mal de choses en réalité.

À l’évidence, sinon une centralisation de l’offre contraire aux usages d’Internet, au moins la mise en place d’un index centralisé permettant de savoir où acheter la version numérisée du disque que l’on cherche : que ce soit sur le site de l’artiste ou chez un revendeur, il sera nécessaire de faciliter l’achat en laissant à Google le soin de se charger – forcément moins bien – de l’offre concurrente.

Ensuite il faut bien entendu qu’à chaque titre de l’album soient attachées les paroles (s’il y a lieu), mais aussi l’index du titre dans l’album, la date de publication, le genre musical… Et qu’à chaque album soient attachés l’image de la jaquette ainsi que tous les textes et photos présents dans le boitier du CD physique. Bref, tout ce qui fera la différence entre une offre professionnelle et la numérisation faite au bon gré des amateurs qui ne prendront jamais le temps d’être aussi complets que des professionnels.

Il faudra aussi passer aux oubliettes le format MP3 : quelle que soit la qualité de numérisation choisie, ce format implique une perte de qualité par rapport à l’original numérique. Or si la compression des fichiers ainsi obtenue avait une raison d’être il y a quelques années, l’énorme augmentation de la taille de stockage des disques durs ainsi que de la bande passante des accès modernes ne nécessite plus depuis longtemps qu’on se contente d’une qualité moindre. Il faudra donc que les industriels se mettent d’accord sur un format « sans perte » qui sera adopté n’en doutons pas très rapidement par les fabricants de lecteurs portables.

Enfin, bien entendu, il faudra revoir à la baisse le prix d’un album numérique. Outre le fait qu’il coûte moins cher à produire que le disque physique – fait qui à lui seul devrait impliquer un tarif largement moindre – il faudra aussi que ce prix prenne en compte la disparition des intermédiaires que l’on a déjà vue, et qu’en soit donc déduite la part qui leur revenait.

Ainsi, si l’industrie musicale cessait de croire qu’elle pourra forcer le monde à faire marche arrière, on voit aisément la forme que devrait avoir la fameuse « offre légale » pour concurrencer avec succès tout ce que le monde de la flibusterie pourra lui opposer : l’exhaustivité de l’offre, des albums numériques aussi complets que leur équivalent physique, d’une qualité numérique irréprochable et à un prix « défiant toute concurrence ». Là sera le salut du modèle payant, et certainement pas dans la lutte illusoire pour faire disparaître toute concurrence.

Gageons qu’un jour viendra bientôt où nos majors cesseront de dépenser leur fortune en lobbying pour enfin se mettre au travail et nous présenter une alternative payante digne de ce nom. Il est plus que temps. Car, pendant qu’elles combattent des moulins à vent, l’offre pirate de qualité s’étoffe et – surtout – les artistes, auteurs, interprètes qu’elles avaient laissés de côté ont bel et bien commencé à s’organiser pour diffuser leurs albums sur les plates-formes de musique libre (dogmazic, jamendo, magnatune…) et pour mettre en place des systèmes de rémunération innovants (SARD).

Pourtant, quoi qu’elles fassent, l’essor de la culture libre semble largement irréversible aujourd’hui, comme l’était celui du logiciel libre il y a 10 ans.

Si les informaticiens ont compris les premiers que le partage de l’information était nécessaire à la création de logiciels toujours plus innovants, ce n’est peut-être pas un hasard. Le droit d’auteur dans le domaine du logiciel est récent, et avant les années 1970 il n’était même pas certain qu’il s’y applique. D’autant plus que les fabricants d’ordinateurs, en concurrence les uns avec les autres, se devaient d’offrir à leurs clients une base logicielle la plus large possible, et à cet effet n’hésitaient pas à diffuser très largement les outils permettant de développer ces logiciels (y compris le code source de ceux qu’ils avaient eux-même développés). Aujourd’hui encore, il n’est guère surprenant de voir des fabricants comme IBM soutenir le logiciel libre : la main-mise d’un unique vendeur de logiciel – Microsoft – sur le marché qui le fait vivre est un risque industriel qu’une grande entreprise ne peut pas se permettre. Il se doit donc de faire en sorte que la concurrence s’exerce au maximum pour ne pas dépendre d’une offre unique.

L’art libre, au-delà des aspects philosophiques qui président à sa nécessaire existence, n’est lui-même pas étranger à ces notions économiques. Entre des majors toutes-puissantes et des indépendants peu connus qui ont du mal à exister dans un marché en pleine crise, les artistes ont peu de choix s’ils n’ont pas eu la chance d’être remarqués par les unes ou les autres. Ainsi, l’image du musicien qui se déplaçait avec sa maquette pour tenter d’obtenir quelque passage à la radio est désormais remplacée par celle du génie qui, par son seul talent, va émerger de la masse anonyme qui diffuse ses œuvres sur Internet.

L’histoire n’est évidemment pas si simple, et il ne suffit pas d’être excellent pour être remarqué. Il faut aussi savoir se servir de cet outil, en connaître les moteurs, comprendre comment faire du « buzz » ou disposer du temps nécessaire pour se créer peu à peu une audience, bref : être un bon commerçant de sa propre image. Là où dans le passé l’artiste se reposait sur ses producteurs pour être mis en avant, il doit désormais apprendre à faire ce travail préalable seul, à peine aidé par les plates-formes de diffusion de culture libre. Sans même parler de vendre assez pour vivre, l’urgence sur Internet est de savoir se faire connaître. Et dans cette optique, il sera mal vu de demander à ses futurs clients de payer d’abord. La culture « libre » a de beaux jours devant elle, de la même manière qu’à mon époque il fallait, pour se faire un nom dans le milieu de la programmation, faire des « démos » largement diffusées pour prouver son talent.

À cet égard, la nouvelle génération née avec un clavier d’ordinateur entre les mains aura à court terme un avantage décisif sur ses parents, et il est probable que de plus en plus de nos idoles soient issues de cette culture du libre. Rompues aux réseaux sociaux, disposant depuis toujours d’une base « d’amis » et de « suiveurs », habituées à partager leur quotidien, nos nouvelles stars n’auront pas à apprendre ces notions pour atteindre une renommée que les anciens espéraient à peine. Élevés dans la logique de partage d’Internet, nos enfants n’hésiteront pas à diffuser librement leurs œuvres tant qu’ils n’auront pas atteint la notoriété nécessaire pour vivre de leur passion. Et même alors, ils sauront sans doute éviter les pièges d’une logique entièrement commerciale tant qu’ils seront eux-mêmes concurrencés par leurs pairs et l’offre gratuite qui persistera.

Loin de risquer la sclérose annoncée par les hérauts du tout-marchand, la culture va connaître, grâce à Internet, une nouvelle Renaissance.

Reste que pour qu’il soit le moteur annoncé de l’évolution du droit d’auteur, ainsi que d’une offre culturelle plus large, moins chère et de meilleure qualité, il faudra qu’Internet ne soit pas bâillonné par des lois rétrogrades visant à empêcher son essor.

Il ne passe guère de jour sans que tel ou tel homme politique ne nous assène qu’il faut – à tout prix – réguler ce « far-west » où seule la loi du plus fort s’appliquerait.

Bien sûr, cette caricature tient beaucoup au fait que la plupart d’entre eux n’apprécient guère de se voir porter la contradiction par de simples citoyens sur la place publique, habitués qu’ils étaient à disposer seuls de l’attention des médias anciens. Mais pour certains cela va plus loin, et la volonté de contrôler tout l’espace médiatique est telle qu’ils n’hésiteront pas à tenter de museler un espace de liberté qu’ils considèrent comme un vrai danger.

Ils ont raison.

Non pas qu’Internet soit un espace de non-droit : cette idée ridicule a toujours été battue en brèche tant les divers procès qui ont accompagné son évolution ont montré que le droit s’y appliquait avec toute sa rigueur. Quant aux fantasmes du pirate néo-nazi pédophile, nos élites sont plus promptes à les dénoncer dans le cyberespace (où la très grande majorité d’entre nous ne les a jamais croisé) que dans les rangs de leurs amis politiques ou médiatiques… La démagogie a du mal à exister dans un lieu où la contradiction est accessible à tout un chacun et où rien ne s’oublie.

Non : le vrai danger, pour eux, est dans la démonstration quotidienne de leur aveuglement. Plus ils crient que la gratuité n’existe pas et que le marché est tout-puissant, plus leurs concitoyens constatent l’inverse dans ce vaste réseau de partage des connaissances et des opinions. Plus ils affirment que la liberté de parole est dangereuse pour la démocratie, plus le succès des blogs politiques augmente. Plus ils expliquent qu’ils ne maîtrisent pas ces nouveaux outils – relégués à d’obscurs assistants parlementaires, plus le nombre de familles connectées croît.

Alors ils légifèrent. Depuis 1995 et la première émission de télévision traitant du phénomène Internet, on ne compte plus les lois qui ont tenté de « réguler » (lire « contrôler ») ce nouveau média. Le premier, François Fillon avait tenté en 1997 déjà de créer un « Conseil Supérieur de l’Internet » qui devait avoir la haute main sur tout ce qui était publié sur le Web. Déjà, il fut censuré par le Conseil Constitutionnel. Vinrent ensuite diverses tentatives, de droite comme de gauche, toutes avortées. La Commission Beaussant (qui cherchait à imposer aux hébergeurs, par contrat, l’obligation de respecter les décisions d’un comité Théodule chargé de censurer les sites irrévérencieux) dont le rapport fut mis au panier. L’amendement Bloche, tellement remanié par nos deux assemblées qu’il n’en est presque rien resté après son passage devant les mêmes sages. La LCEN de 2004, si stricte dans la forme qu’elle en est presque inapplicable. Et la DADVSI de 2006, qui impose le respect de mesures de protection anti-piratage abandonnées depuis par quasiment tous les industriels…

Une longue suite d’échecs patents qui – forcément – ridiculisent par avance les tentatives futures.

Car il n’est pas facile de faire des lois (forcément nationales) pour encadrer Internet (fondamentalement international). Le réseau est mouvant, il change quotidiennement et ses usages sont loin d’être établis. Il mute bien plus vite que nos législateurs ne sont capables de le prévoir. Hadopi n’était pas encore adoptée que ses contre-mesures étaient déjà en place. Et la future LOPPSI, dernière resucée de ces tentatives de créer une police privée chargée de la censure du réseau, se heurtera sans doute et malgré le volontarisme affiché de notre Président aux mêmes écueils que ses prédécesseurs : l’article 11 de notre Constitution est difficilement contournable, et Internet n’a jamais été prévu pour être centralisé de manière à permettre quelque contrôle que ce soit.

Cependant, ces essais ont bel et bien un effet. Mais sans doute pas celui que nos gouvernants espèrent…

Il y a à ce jour 28 millions d’abonnés à Internet en France. Plus d’un foyer sur deux est connecté. Très bientôt, la majorité de nos concitoyens auront goûté à la liberté d’expression que permet (enfin) cet outil. Qui peut dire aujourd’hui ce que signifie le fait que 28 millions de personnes aient désormais, dans ce pays, accès à la parole publique ?

Que deviendront les mondes associatifs et politiques quand ils verront arriver le flux de millions de gens désormais habitués à prendre la parole ? Que sera cet avenir où tout citoyen pourra non seulement débattre publiquement de ses opinions, mais aussi apprendre à les confronter à d’autres, mais encore réussir à se convaincre que sa parole est toute aussi importante que n’importe quelle autre. Que sera un monde dans lequel les enfants n’auront plus à demander la parole pour l’obtenir, au gré des parents et des maîtres, puis des médias et des politiciens ?

En s’attaquant à la liberté d’expression sur Internet, comme ils le font en critiquant, légiférant et Hadopisant, ils ne font pas que se heurter à une technologie définitivement non régulable. Ils lèvent aussi, contre eux, toute une génération de futurs acteurs qui seront devenus conscients de leur pouvoir et de leurs actes, et qui auront été formés comme jamais au fonctionnement de nos institutions, comme le sont tous les gamins qui ont suivi les débats et les méandres du feuilleton d’Hadopi.

Ils élèvent, de fait, tous ceux qui les enterreront par des compétences acquises à la dure – et autre part que sur les bancs bien sages de Science-Po et de l’ENA. Car que dire sinon la désolation que provoque l’écoute de ces politiciens professionnels, visiblement dépassés par un dossier qu’ils ne maîtrisent pas, qui avouent leur méconnaissance totale de cet outil pourtant utilisé par la majorité de leurs électeurs, et qui tremblent de peur devant cette évolution qu’ils n’ont ni voulue ni prévue ?

Comment croyez-vous que va réagir l’étudiant né dans le monde numérique quand il écoute un député annonçant des arguments débiles (« dans 20 ans plus personne n’achètera de CD », quel visionnaire !), mauvais orateur, répétant à l’envi des antiennes largement démontrées comme étant de purs mensonges ? Que croirez-vous qu’il se dira, sinon qu’un député grassement payé à ne presque rien faire ne mérite pas son poste ?

Car c’est vers ça qu’on se dirige, si vous m’en croyez. La révolution ne viendra pas des urnes, ou pas seulement, mais bien surtout de la réaction non aux idées mais à l’indigence des débats publics quand on les compare à la richesse des débats numériques.

Combien de bloggeurs d’aujourd’hui seront nos penseurs de demain ? Et quel talent, si l’on les compare à nos tristes habitués des plateaux télé. Quel verbe que celui d’un simple utilisateur de Twitter, habitué à faire passer son opinion en seulement 140 caractères, quand on le compare aux discours mal rédigés par des attachés parlementaires bien pâlots.


Et que croyez-vous que pensent tous ces utilisateurs d’Internet, lorsqu’ils s’envoient des adresses de billets tous plus intelligents les uns que les autres, quand ils constatent la bêtise flagrante de ceux qui sont sensés les représenter mais ne représentent finalement que les intérêts des grands industriels pourvoyeurs de financements politiques et de futures reconversions dans des postes de parachutistes dorés ?

Certes, il faudra du temps. On ne passe pas du jour au lendemain de MSN à la politique. Mais ce temps-là sera passé en lutte, et ces luttes accoucheront d’hommes d’État, je veux le croire, plutôt que d’hommes politiques. Elle seront menées contre la réaction à une évolution nécessaire et inéluctable de nos sociétés, et parce qu’elle se heurteront à cette réaction, elles ne feront guère de réactionnaires. Et les premiers mouvements comme les différents « partis pirates » d’Europe ne sont que les prémices d’un futur qui balaiera je l’espère la caste des parlementaires, idiots inutiles de la République.

C’est vrai : nul ne peut dire ce qu’il adviendra. Mais je peux sans trop de risque, après avoir observé l’évolution d’Internet depuis plus de 17 ans maintenant – déjà – prédire que le futur ne sera pas rose pour ces politiciens qui n’ont jamais connu de réelle concurrence et qui vont devoir s’y résigner.

Notes

[1] Crédit photo : Roby Ferrari (Creative Commons By-Sa)




Google : numéro 1 mondial de l’open source ?

Austin Ziegler - CC by-saAh qu’il était doux et rassurant le temps de l’informatique à grand-papa où nous avions nos ordinateurs fixes qui se connectaient de temps en temps et où nous luttions avec confiance et enthousiasme contre le grand-méchant Microsoft !

Ce temps-là est révolu. Nous entrons dans une autre décennie et il se pourrait bien que le principal sujet de conversation de la communauté du logiciel libre dans les dix ans à venir ne soit plus Microsoft (symbole du logiciel propriétaire, j’ai mal à mes fichiers !) mais Google (symbole de l’informatique dans les nuages, j’ai mal à mes données personnelles !)[1].

Firefox, bouffé par Chrome ? Ubuntu, court-circuité par Chrome OS ? Le Web tout entier se transformant petit à petit en un fort joli Minitel 2.0 bourré de services Google à tous les coins de rue ? Ces différents scénarios ne relèvent pas forcément de la science-fiction.

Le problème c’est que nous n’avons plus un Microsoft en face d’une limpide ligne de démarcation. Le problème c’est que nous avons affaire à rien moins qu’au premier contributeur open source de la planète. Et cela rend légèrement plus complexe le positionnement…

La plus grande entreprise mondiale de l’open-source ? Google

World’s biggest open-source company? Google

Matt Asay – 16 septembre 2009 – Cnet news
(Traduction Framalang : Julien et Cheval boiteux)

Red Hat est généralement considérée comme la principale société open source de l’industrie, mais c’est une distinction dénuée de sens parce qu’elle est inexacte. Alors que les revenus de Red Hat proviennent des logiciels open source que la société développe et distribue, d’autres entreprises comme Sun, IBM et Google écrivent et contribuent en réalité à beaucoup plus de code open source. Il serait temps d’arrêter de parler d’entreprises open source et de revenir à l’importance du code open source.

L’open source est de plus en plus le socle sur lequel reposent les entreprises d’internet et du logiciel. Myspace a dernièrement fait des vagues en ouvrant les sources de Qizmt, un framework de calcul distribué (qui curieusement tourne sur Windows Server) qui active la fonction « Personnes que tu pourrais connaître » du site. Mais Myspace, comme l’a noté VentureBeat, n’a fait que rattraper la récente ouverture des sources de Tornado par Facebook.

Aucun d’eux ne le fait pour marquer des points auprès des utilisateurs branchés. S’ils le font, c’est motivé par leurs propres intérêts, qui nécessitent de plus en plus souvent d’inciter des communautés de développeurs à adopter et étendre leurs propres applications et services Web.

C’est également un moyen d’améliorer la qualité des logiciels. En adoptant les projets open source d’une entreprise, puis en l’étendant à travers ses propres logiciels open source, la qualité collective de l’open source est forte et croissante, comme le note Kit Plummer d’Accenture.

C’est cette compréhension de l’intérêt qu’il apporte et la qualité qui en découle qui a fait de l’open source une architecture essentielle pour potentiellement tous les logiciels commerciaux, ce qui signifie que Red Hat et d’autres entreprises qui ne font que de l’open source ne sont désormais plus le centre de cet univers.

Le noyau Linux est composé de 11,5 millions de lignes de code, dont Red Hat est responsable à hauteur de 12% (mesuré en termes de lignes de code modifiées). Même si l’on y ajoute le serveur d’applications JBoss Application Server (environ 2 autres millions de lignes de code) et d’autres projets Red Hat, on obtient toujours un total inférieur à d’autres acteurs.

Prenons Sun, par exemple. C’est le principal développeur derrière Java (plus de 6.5 millions de ligne de code), Solaris (plus de 2 millions de lignes de code), OpenOffice (environ 10 millions de lignes) et d’autres projets open source.

Ou bien IBM, qui a contribué à lui seul à 12,5 millions de lignes pour Eclipse, sans parler de Linux (6.3% du total des contributions), Geronimo, et un large éventail d’autres projets open source.

Google, cependant, est la société la plus intéressante de toutes, car elle n’est pas une entreprise de logiciels en soi. J’ai interrogé Chris DiBona, responsable des programmes open source et secteur public de Google, à propos des contributions de la société dans le domaine de l’open source (NdT : Cf Tout, vous saurez tout sur Google et l’Open Source sur le Framablog). Voici sa réponse :

Au bas mot, nous avons libéré environ 14 millions de lignes de code. Android dépasse les 10 millions de lignes, puis vous avez Chrome (2 millions de lignes, Google Web Toolkit (300 000 lignes), et aux alentours d’un projet par semaine sorti au cours des cinq dernières années. Vous avez ainsi quelques centaines d’employés Google qui patchent sur une base hebdomadaire ou mensuelle.

Si DiBona se garde bien de suggérer que Google soit devenu le premier contributeur open source (« disons que nous sommes parmi les premiers »), c’est néanmoins probablement le cas, en particulier lorsque l’on considère ses autres activités open source, incluant Google Code, l’hébergement du plus grand dépôt peut-être de projets open source, avec plus de 250 000 projets hébergés, dont au moins 40 000 sont actifs, sans parler de son Summer of Code. Après tout, les lignes de code, bien que fondamentalement utiles, ne sont pas nécessairement la meilleure mesure de la valeur d’une contribution à l’open source.

En fait, Patrick Finch de la fondation Mozilla estime que la meilleure contribution de Google à l’open source n’a probablement rien à voir avec l’écriture de nouveau code :

La plus grande contribution de Google à l’open-source n’est sans doute pas du code, mais de prouver que vous pouvez utiliser Linux à grande échelle sur des machines démarquées (NdT : whitebox hardware).

C’est une étape importante, et qui souligne le fait que le label « entreprise open source » est devenu quelque peu obsolète. Google ne se présente pas, à juste titre, comme une entreprise open source. L’open source fait simplement partie de leur stratégie pour distribuer des logiciels qui vont aider à vendre davantage de publicité.

Sun a tenté de se transformer en entreprise open source, mais une fois que son acquisition par Oracle aura été finalisée, cette dernière ne va certainement pas prendre ce label. Pas parce que c’est un mauvais label, mais simplement parce qu’il n’est plus pertinent.

Toutes les entreprises sont désormais des entreprises open source. Ce qui signifie aussi qu’aucune ne l’est. L’open source est simplement un élément parmi d’autres de la politique de développement et de croissance de ces entreprises, que l’on s’appelle Red Hat, Microsoft, Google ou Facebook.

Et étant donné que les entreprises du Web comme Google n’ont pas besoin de monétiser directement l’open source, on va en fait avoir l’occasion à l’avenir de voir encore plus de code open source émerger de la part de ces sociétés que ce qui a déjà été réalisé par ces traditionnelles « entreprises de logiciels open-source » que sont Red Hat, Pentaho ou MySQL.

Notes

[1] Crédit photo : Austin Ziegler (Creative Commons By-Sa)




Vente liée : Un reportage exemplaire de France 3 Bretagne

Lu sur le site de l’AFUL : Éric Magnien, qui a gagné deux fois en justice contre le constructeur ASUS (lire le commentaire détaillé de la décision de justice par Me Frédéric Cuif), s’exprime dans le journal télévisé 19-20 de France 3 Bretagne le 21 décembre 2009 : Un Morbihannais en lutte contre Windows, par Géraldine Lassalle.

—> La vidéo au format webm

Transcript

Voix off : C’est un combat semblable à celui de David contre Goliath. Dans le rôle de David, Éric Magnien, régiseur de théâtre lorientais, dans le rôle de Goliath, le fabricant d’ordinateur Asus. Tout commence en mai 2008 quand Eric décide de s’acheter un ordinateur.

Éric Magnien : Je voulais acheter un ordinateur, mais je ne voulais pas des logiciels qui étaient installés avec, parce que j’utilisais déjà avec un autre ordinateur des logiciels libres, donc sous Linux.

Voix off : Pourtant Éric n’a pas le choix. il doit acheter l’ordinateur avec avec le système d’exploitation de Microsoft déjà installé. Il décide alors de demander au constructeur le remboursement des logiciels Windows dont il n’a pas besoin.

Éric Magnien : Il me demandait à ce que je renvois l’ordinateur à mes frais, à leur service après-vente à Paris, pour effacer totalement le disque dur et enlever l’étiquette de Windows. Donc c’était totalement inacceptable, pour un remboursement de 40 euros alors que dans le commerce ces mêmes logiciels coutaient 205 euros.

Voix off : S’engage alors une bataille juridique qui va durer plus d’un an. Avec l’aide de l’Association Francophone des Utilisateurs de Logiciels Libres (AFUL), Éric rassemble tous les elements demontrant l’abus dont il est victime. Face à lui une armée d’avocats experts, un combat inégal mais Éric sait qu’il est légitime. En août 2009 la justice condamne le constructeur.

Éric Magnien : C’est une procédure longue, difficile mais nécessaire, et qui vaut le coup parce que c’est notre droit. On a le droit d’obtenir réparation de ce genre de choses, on a le droit d’obtenir le remboursement de ces licences. Et donc c’est aussi pour une certaine idée du droit, de la justice, que j’ai été jusqu’au bout de la démarche.

Voix off : La décision de justice rendu par le tribunal de Lorient pourrait bien décider d’autres consommateurs à faire valoir leurs droits. Le 2 décembre dernier, la société Acer a été condamnée pour la cinquième fois pour des faits similaires.