L’éloquence du président Lula en faveur d’un Brésil et d’une société plus libres

« Maintenant que le plat est servi, il est très facile pour nous de manger. Mais préparer ce plat n’a pas été un jeu d’enfant.
Je me souviens de notre première réunion, où je ne comprenais absolument rien au langage employé, et il y avait une tension palpable entre ceux qui défendaient l’adoption du logiciel libre au Brésil et ceux qui estimaient que nous devrions continuer comme avant, garder les mêmes habitudes, acheter, payer l’intelligence des autres et, grâce à Dieu, c’est le parti du logiciel libre qui l’a emporté dans notre pays.
Car nous devions choisir : ou nous allions dans la cuisine préparer le plat que nous voulions manger, avec l’assaisonnement que nous voulions y mettre, et donner un goût brésilien à la nourriture, ou nous mangerions ce que Microsoft voulait vendre aux gens. Et, c’est tout simplement l’idée de la liberté qui l’a emporté. »

Ainsi s’exprimait l’été dernier rien moins que le président de la République d’un des plus grands pays au monde, dans un discours dont vous comprendrez aisément pourquoi nous fait l’effort de traduire et sous-titrer sa vidéo (j’en profite pour saluer et remercier chaleureusement notre petit équipe de traducteurs lusophones).

Il s’agissait donc du président brésilien Lula, venu inaugurer le 24 juin 2009 à Porto Alegre le dixième Fórum Internacional Software Livre. L’allocution, prononcée sans notes s’il vous plaît, dure une vingtaine de minutes et va bien au delà du simple extrait ci-dessus.

Le logiciel libre a évidemment besoin de toutes ces petites fourmis qui développent et qui diffusent. Mais Il a également besoin de ces hommes d’États éclairés et éclairants.

Ce n’est qu’un discours mais il a valeur de symbole. Merci à ce pays, à son président et à tous ceux qui le conseillent et travaillent autour de lui. L’Histoire retiendra que vous fûtes parmi les pionniers à avoir compris en si haut lieu l’importance d’aborder ce nouveau millénaire en offrant aux gens le plus d’opportunités possibles pour qu’ensemble s’épanouissent leur créativité.

Nous sommes tous des Brésiliens libres ?

—> La vidéo au format webm

Réalisation TV Software Livre – Licence Creative Commons By-Sa

Discours inaugural du président brésilien Lula

Fórum Internacional Software Livre – 24 juin 2009
(Traduction, sous-titrage et édition vidéo Framalang : Michaël Dias, Thibaut Boyer et Yostral)

Je veux saluer notre cher camarade Marcelo Branco, coordinateur général du 10ème Forum international du logiciel libre. Je veux saluer les camarades des institutions publiques brésiliennes qui sont ici. Je vois en face de moi la Banque du Brésil et le Serpro.

Je veux saluer les invités étrangers. Je veux saluer ce petit enfant qui est là-bas sur des genoux et qui doit se demander ce que nous faisons là et pourquoi ses parents l’ont amené ici. Un jour, il le saura…

Et je veux saluer une personne qui est ici en particulier, Sérgio Amadeu (responsable des premières actions en faveur du logiciel libre au gouvernement brésilien).

Car maintenant que le plat est servi…

Je veux également saluer le camarade Tigre, notre président de la Fédération de l’Industrie du Rio Grande do Sul.

Maintenant que le plat est servi, il est très facile pour nous de manger. Mais préparer ce plat n’a pas été un jeu d’enfant.

Je me souviens de notre première réunion, à la Granja do Torto, où je ne comprenais absolument rien au langage qu’employaient ces personnes, et il y avait une tension palpable entre ceux qui défendaient l’adoption du logiciel libre au Brésil et ceux qui estimaient que nous devrions continuer comme avant, garder les mêmes habitudes, acheter, payer l’intelligence des autres et, grâce à Dieu, c’est le parti du logiciel libre qui l’a emporté dans notre pays.

Car nous devions choisir : ou nous allions dans la cuisine préparer le plat que nous voulions manger, avec l’assaisonnement que nous voulions y mettre, et donner un goût brésilien à la nourriture, ou nous mangerions ce que Microsoft voulait vendre aux gens. Et, c’est tout simplement l’idée de la liberté qui l’a emporté.

Je voudrais vous raconter quelque chose ici, pourquoi, dans mon esprit, c’est le choix du logiciel libre qui l’a emporté.

Vous savez que je n’ai jamais été communiste. Lorsqu’on me demandait si j’étais communiste, je répondais que j’étais tourneur ajusteur. Mais j’ai des camarades extraordinaires qui ont participé à la lutte armée dans ce pays, des camarades qui ont appartenu aux partis et aux courants idéologiques les plus différents qui soient, tous des camarades extraordinaires.

J’avais un frère plus âgé qui, toute sa vie, a essayé de me faire adhérer au Parti, et mon frère m’amenait tous les documents qui avaient été écrits et édités depuis 150 ou 200 ans. Mon frère voulait que j’apprenne Le Manifeste par cœur, il voulait que je lise et relise Le Capital, il voulait que je critique tout cela, et moi, je disais à mon frère : « Chico, tout cela a été écrit il y a si longtemps. N’est-il pas maintenant temps pour les gens de commencer à produire de nouvelles choses ? »

Et quand le Mur de Berlin est tombé, j’ai été heureux car cela allait permettre à la jeunesse de pouvoir réfléchir, écrire de nouvelles choses, élaborer de nouvelles théories, car on avait l’impression que tout était déjà construit et que plus rien ne pourrait être différent.

Le logiciel libre est un peu cela, c’est-à-dire donner aux gens l’occasion de faire de nouvelles choses, de créer de nouvelles choses, de valoriser l’individualité des personnes.

Car il n’y a rien qui ne garantisse plus la liberté que de garantir votre liberté individuelle, que de permettre aux gens d’exprimer leur créativité, leur intelligence, surtout dans un pays nouveau comme le Brésil, où la créativité du peuple est probablement, sans aucun mépris pour les autres peuples, la plus importante du XXIe siècle.

En effet, je pense que notre gouvernement a déjà fait beaucoup, mais notre gouvernement aurait pu faire plus.

Nous sommes un gouvernement très démocratique. Je ne crois pas qu’il y ait un gouvernement au monde qui exerce la démocratie comme le fait notre gouvernement. Je ne le crois pas. Je ne crois pas qu’il y ait au monde quelqu’un qui débatte autant, qui discute autant que notre gouvernement. Et cela complique parfois les choses, n’est-ce pas, Tarso ? Nous devons parfois écouter une fois, deux fois, trois fois, car, comme je suis un analphabète à propos de l’Internet… mes enfants sont des experts pour moi.

Car Internet est une chose fantastique, Olívio, c’est la première fois que les petits enfants sont plus malins que les grands-parents. C’est la première fois.

Autrefois, du fait que vous étiez plus vieux, vous vouliez vous imposer sur tout, n’est-ce pas ? Le fils ne pouvait parler quand vous étiez en réunion, vous ne pouviez pas intervenir dans une discussion d’adultes.

Aujourd’hui, non. Aujourd’hui, il y a deux adultes en train de discuter avec un gamin à côté d’eux, et les adultes disent : « Comment est-ce qu’on change de chaîne sur la télé ? », avec deux télécommandes que les gens ne savent pas utiliser correctement. Et le gamin de huit ans y va, il bidouille, il tripote…

Louer la maison, payer le loyer, l’électricité, l’eau (sur Internet)…

Je pense donc que nous sommes en train de vivre une période révolutionnaire pour l’humanité, où la presse n’a plus le pouvoir qu’elle avait il y a quelques années, l’information n’est plus une chose exclusive où les détenteurs de l’information pouvaient faire un coup d’État, l’information n’est plus une chose privilégiée.

Le journal du soir est maintenant dépassé face à Internet, l’émisssion de radio, qu’elle soit en direct ou enregistrée, est dépassée face à Internet. Le journal du soir a l’air très vieux face à Internet, et il a l’air si vieux que tous les journaux ont créé des blogs pour informer ensemble, avec les internautes du monde entier.

Et bien, ces choses, nous ne savons pas jusqu’où vont aller toutes ces choses, nous ne le savons pas.

Je sais que chaque fois que je discute avec vous, j’imagine que si ma génération était aussi intelligente et créative que la vôtre, nous serions bien meilleurs que ce que nous sommes aujourd’hui, car l’appareil public est une chose compliquée. Il est plein de vices, de règles, vous savez, qui datent de l’époque impériale. Et vous, vous faites bouger ces choses.

Un bureaucrate, lui, a un manuel, et le manuel dit seulement ce qu’il peut faire ou ne pas faire. Si vous lui présentez quelque chose de nouveau, il reste interdit. Il n’est pas capable de dire : « Bon, j’ai ici quelque chose de nouveau, je vais essayer d’agir », non. Il dit s’il peut ou pas.

Et tout cela a pris du temps pour que le gouvernement commence à créer les conditions pour arriver à la situation d’aujourd’hui. Le logiciel libre est donc une possibilité pour que cette jeunesse réinvente des choses qui ont besoin d’être réinventées.

De quoi a-t’on besoin ? D’opportunités.

Nous pouvons être certains d’une chose, camarades, c’est que dans ce gouvernement, il est interdit d’interdire.

Dans ce gouvernement… Ce que nous faisons dans ce gouvernement, c’est discuter. Les chefs d’entreprise savent combien nous discutons, sans animosité, ni agressivité, sans chercher à combattre l’interlocuteur, non ! Il s’agit de débattre, de renforcer la démocratie et de l’amener jusqu’au bout.

Car ce pays est encore en train de se découvrir lui-même, car durant des siècles, on nous a traités comme si nous étions des citoyens de seconde zone, nous devions demander l’autorisation pour faire des choses, nous pouvions seulement faire ce que les États-Unis nous autorisaient à faire, ou ce qu’autorisait l’Europe.

Et notre estime de nous est en hausse aujourd’hui. Nous apprenons à nous aimer nous-mêmes. Nous sommes en train de découvrir que nous pouvons faire des choses. Nous sommes en train de découvrir que personne n’est meilleur que nous. Les autres peuvent être semblables, mais meilleurs non, ils n’ont pas plus de créativité que nous.

Ce dont nous avons besoin, c’est d’opportunités.

Cette loi qui est là, cette loi qui est là, ne cherche pas à corriger les abus d’Internet. Elle souhaite en réalité censurer. Ce dont nous avons besoin, camarade Tarso Genro, c’est peut-être de modifier le Code Civil, c’est peut-être de modifier certains choses. Ce dont nous avons besoin, c’est de responsabiliser les personnes qui travaillent sur le numérique, sur Internet. C’est de responsabiliser, mais pas d’interdire ou de condamner.

C’est l’intérêt de la police de faire une loi qui permette d’entrer chez les gens pour savoir ce qu’ils sont en train de faire, et même de saisir les ordinateurs. Mais ce n’est pas notre intérêt, ce n’est pas possible.

Je voulais donc, mon cher Marcelo, vous dire qu’aujourd’hui, je ne sais pas ce qu’en ont pensé mes camarades, pour moi, aujourd’hui a été un jour magnifique, magnifique, car j’ai un conseiller spécial, qui s’occupe de la question numérique, un ami de Marcelo, j’ai… Le gouvernement a dix ministres qui parlent d’implantation numérique.

Implantation numérique sont les mots les plus « sexys» du gouvernement, vous savez ? Les mots les plus « sexys », tout le monde les prononce.

J’avais donc besoin d’un coordinateur qui parle un langage rien que pour moi, et j’ai mis le camarade César Alvarez, qui est un habitant d’ici, du Rio Grande do Sul, un supporter du club de foot l’Internacional, qui vient juste de faire match nul contre le Corinthians mercredi, pour le plus grand plaisir des gaúchos. Olívio Dutra est conseiller et je lui ai demandé d’en parler avec les dirigeants de l’International : « le score est de zéro à zéro, c’est bon pour nous, Olívio, il n’y a aucun problème ! »

Mais avec cette coordination, nous essayons d’avancer.

Je voulais seulement vous dire une chose Écoutez, il ne me reste plus qu’un an et demi de mandat, plus qu’un an et demi. C’est important que vous observiez ce que nous avons fait et qui a besoin d’être perfectionné. Et il faut que vous observiez ce que nous ne sommes pas encore parvenus à faire, et que vous nous aidiez à le faire.

Car le problème du gouvernement n’est pas toujours un problème d’argent. Les gens jonglent parfois avec des centaines d’activités, et ces nouveautés passent alors au second plan, et c’est pour cela que nous avons une coordination.

Et nous allons voir, camarades, si, avec tous ces chiffres que Dilma a mis à votre disposition dans le but de faire entrer ce pays dans l’ère numérique, de faire que en sorte que les enfants de la banlieue aient les mêmes droits, le même accès à Internet, que les enfants de riches, de pouvoir s’informer, de pouvoir se déplacer librement dans ce monde qu’est Internet, nous pouvons y parvenir.

Soyez sûr d’une chose, Marcelo : nous ne connaissons pas tout, nous n’en connaissons qu’une partie. Tout seul, peut-être que vous non plus vous ne connaissez pas tout, vous ne connaissez qu’une partie. Mais si chacun de vous partage un peu de ce qu’il sait, on pourra construire un tout qui manque aux gens, pour définitivement et véritablement d?mocratiser ce pays, et pour que tous soient libres d’agir pour le bien.

La majorité est faite de gens biens. Nous n’allons pas nous énerver parce que de temps en temps un fou dit quelque chose. Il y a même un site qui propose la mort de Lula.

Ce n’est pas un problème, ceux qui proposent la vie sont infiniment plus nombreux. Infiniment plus nombreux.

Je voulais donc vous proposer d’entrer dans ce « couloir polonais » et de voir cette palette extraordinaire de garçons et de filles qui, je pense, ont tous moins de 25 ou 30 ans.

Pour que les gens puissent sortir d’ici et dire haut et fort : « Ce pays s’est finalement trouvé lui-même. Ce pays a finalement le goût de la liberté d’information ».

Je vous embrasse et vous souhaite de passer un bon Xème Forum du Logiciel Libre.

l’auditoire : logiciel libre ! logiciel libre !




Extrait vidéo : La bio de Stallman à la Matinale de Canal+

Ce matin, N. me tire soudainement du lit : Vite, vite, ils parlent de ton bouquin à la télé ?

Je maugrée… (et puis en plus c’est pas « mon » bouquin).

Mais j’ai eu bien raison de faire l’effort de me placer devant le poste, parce que ça en valait ô combien la peine…

Merci à La Matinale de Canal+ (et grosses bises à l’enthousiaste et compétente journaliste).

—> La vidéo au format webm

Transcript

Maïtena Biraben : Le logiciel libre, c’est l’une des très grandes révolutions du siècle passé et aujourd’hui on en sait un peu plus sur le créateur du logiciel libre.

Emmanuelle Talon : Oui, Richard Stallman il a aujourd’hui 56 ans, il n’est pas très connu du grand public mais c’est un dieu vivant pour les informaticiens, parce que c’est un des pères du logiciel libre, le père du logiciel libre.

Alors pourquoi on en parle aujourd’hui ? Parce qu’il y a sa biographie qui vient de paraître en français aux éditions Eyrolles « Richard Stallman et la révolution du logiciel libre ». Alors au début des années 80…

Maïtena Biraben : C’est un bouquin de geek ?

Emmanuelle Talon : Non, justement pas. C’est ça qui est bien, parce que ça n’est pas un bouquin de geek, et même si on ne s’y connaît pas trop, on peut vraiment vraiment comprendre, j’insiste.

Et donc Stallman, au début des années 80 a créé la Fondation pour le Logiciel Libre. Il est à l’origine du projet GNU.

Et juste un petit rappel : qu’est-ce qu’un logiciel libre ? Quand même, voilà c’est important. C’est un logiciel que n’importe qui peut utiliser, copier ou même modifier, pour l’améliorer en quelque sorte, en accédant au code source.

Et le logiciel libre, ça s’oppose à ce que Stallman appelle les logiciels privateurs. Ce sont des logiciels qui nous privent de notre liberté. On ne peut pas modifier le code source, c’est pour cela que Windows est la propriété de Microsoft. Si Windows ne vous convient pas, vous ne pouvez pas l’améliorer. Tandis que l’on peut améliorer par exemple la suite bureautique OpenOffice ou le navigateur Firefox.

Maïtena Biraben : Si on y arrive !

Emmanuelle Talon : Si on arrive, bien sûr, mais vous avez cette liberté.

On l’impression que c’est un peu complexe mais en fait pas tellement parce que cette histoire de logiciel libre… Il ne s’agit pas vraiment d’informatique, il s’agit en fait de philosophie. Richard Stallman c’est vraiment un grand philosophe, c’est un vrai penseur. Et avec cette histoire de logiciel libre… Pourquoi au fond il s’est lancé dans cette aventure ? Il s’est lancé dans cette aventure tout simplement pour améliorer le monde, pour encourager le partage et la fraternité.

Donc c’est une forme de nouveau socialisme, de socialisme logiciel. Et à l’heure où l’on pleure sur la fin des grandes ideologies, on peut se réjouir de voir qu’il y a encore des gens qui essayent de changer le monde. Et aujourd’hui ces gens-là ce sont des informaticiens, et c’est Richard Stallman. C’est pour ça que c’est important de le connaître.

Maïtena Biraben : On a vu son playmobil…

Emmanuelle Talon : Oui on a vu son playmobil, mais en fait c’est un personnage assez amusant, qui a beauocup d’humour, qui a une bonne tête…

Maïtena Biraben : Est-ce que le logiciel libre a des chances de gagner face au logiciel non libre, donc commercialisé, que l’on ne peut plus toucher ?

Emmanuelle Talon : Alors, le logiciel libre il progresse beaucoup en France. Il y a quelques années la Gendarmerie nationale est passée… elle a adopté un logicie libre. Mais, si vous voulez, la compétition elle ne se fait pas vraiment sur cette question-là, sur cette question technique, parce qu’un logiciel libre, on peut considérer que ça vaut au niveau technique un logiciel privateur. En fait la compétition, elle se fait vraiment dans nos têtes.

Le Libre il pourra gagner le jour où, d’après Stallman, on aura, nous, envie de nous libérer et puis de ne pas être soumis à la machine. Parce qu’il explique que quand on utilise un logiciel comme Windows, on ne peut pas le modifier si on n’y va pas, et donc on est esclave de la machine. Stallman c’est un peu le Luke Skywalker de l’informatique, il faut qu’on se libère des machines et c’est ce jour-là que le Libre pourra gagner.

Maïtena Biraben : Est-ce que libre ça veut dire gratuit Emmanuelle ?

Emmanuelle Talon : Alors non, libre ne veut pas forcément dire gratuit. Il y a des logiciels libres qui ne sont pas gratuits, donc il faut faire attention à cette confusion. C’est vrai que quand on est juste un utilisateur, on peut estimer que la gratuité c’est le principal avantage, mais libre ne veut pas dire gratuit.

Maïtena Biraben : Si on ramène cette idée de logiciel libre à la France, la prochaine bataille c’est Hadopi.

Emmanuelle Talon : C’est Hadopi et Stallman est mobilisé sur cette question. Il estime que c’est une loi tyrannique. Il dit que Nicolas Sarkozy est un ennemi de la démocratie et des Droits de l’Homme. Et pour lui empêcher le téléchargement de musique pour sauver l’industrie du disque, c’est tout simplement comme empêcher les gens de faire la cuisine pour sauver les emplois dans la restauration !

Voilà, juste pour finir, le livre, vous pouvez l’acheter, il coûte 22 euros et c’est bien d’avoir un livre papier. Mais vous allez voir la cohérence de la démarche, en fait le livre est en téléchargement, gratuit, sur le site www.framasoft.net. Vous pouvez modifer le texte du livre, et si vous voulez le traduire, et bien vous pouvez tout à fait le traduire librement dans la langue que vous souhaitez, en ourdou par exemple, je pense que ça n’est pas encore fait.




Critique de la biographie de Richard Stallman par Sébastien Broca

Richard Stallman - Bastien WirtzSébastien Broca a été parmi les rares privilégiés à acquérir le livre Richard Stallman et la révolution du logiciel libre avant les autres, au cours de la rencontre organisée par les éditions Eyrolles à Paris le 12 janvier dernier (dédidace « Happy Hacking » de Richard incluse[1]).

Le lendemain, il m’envoyait spontanément un courriel enthousiaste en me faisant part de ses premières impressions sur un livre qu’il avait parcouru dans sa totalité en moins de 24h !

Et moi, ni une ni deux, de lui demander gentiment de pousser la chansonnette jusqu’à en faire un billet pour le Framablog 😉

Difficile de vous cacher que cela nous a fait à tous très plaisir à lire…

Le livre lu par Sébastien Broca

Compte-rendu : Richard M. Stallman, Sam Williams, Christophe Masutti, « Richard Stallman et la révolution du logiciel libre. Une biographie autorisée », Eyrolles, Paris, 2010.

La biographie de Richard Stallman publiée aux Éditions Eyrolles constitue un ouvrage inhabituel à plus d’un titre. Il s’agit tout d’abord du premier ouvrage en français à se pencher en détail sur la vie du fondateur du mouvement du logiciel libre, dont la notoriété dans le monde informatique ne s’est pas encore vraiment étendue au grand public. C’est également un ouvrage présentant la particularité d’être publié sous une licence dite « libre » (la GNU Free Documentation License), c’est-à-dire donnant droit à chacun de le copier, de le distribuer et de le modifier. Il s’agit enfin d’une biographie singulière, dans la mesure où Richard Stallman a lui-même relu l’ensemble du manuscrit, y apportant des remarques personnelles et des corrections, lorsque certains faits lui paraissaient rapportés de manière erronée ou incohérente. L’ouvrage se présente ainsi comme une œuvre à trois voix. Le texte original publié aux Etats-Unis en 2002 par Sam Williams a été largement retravaillé par Richard Stallman, avant d’être traduit par la communauté en ligne Framasoft, à la source du projet français.


Ce processus d’écriture original confère à l’ouvrage toute sa dynamique. Si Sam Williams fait preuve d’une certaine admiration pour le père du logiciel libre, et plus encore pour son œuvre, il insiste également sur les tensions que son intransigeance morale, couplée à son souci quasi obsessionnel de l’exactitude verbale et conceptuelle, n’ont pas manqué de susciter à travers les ans, et ce jusque dans son propre « camp ». L’inflexibilité de Richard Stallman a ainsi scindé la communauté du libre entre partisans du free software et adeptes de l’open source ; ces derniers axant leur discours sur les qualités techniques et les opportunités économiques propres aux « logiciels à source ouverte », et non sur les raisons éthiques de préférer le logiciel libre. Les différents volets de ce débat, symbolisé par les personnalités largement antithétiques de Richard Stallman et Linus Torvalds (créateur du noyau Linux), sont bien rapportés. Le lecteur en retire une compréhension fine des ressorts de l’engagement de Richard Stallman, et des différentes controverses idéologiques qui traversent la communauté du logiciel libre.


D’autres épisodes narrés par Sam Williams peuvent paraître plus anecdotiques, mais ils donnent à l’ouvrage toute son épaisseur historique et humaine. Des passages relativement longs sont ainsi consacrés à la description du milieu de la recherche informatique aux Etats-Unis dans les années 1970, avant l’apparition de l’ordinateur personnel. Le lecteur se trouve ainsi plongé dans l’ambiance particulière, qui régnait au laboratoire d’intelligence artificielle du MIT, dont Richard Stallman fut membre jusqu’en 1984. Il y découvre les spécificités de l’ethos professionnel des hackers, caractérisé par un rapport passionnel à la programmation et une valorisation sans limites du partage et de la collaboration entre pairs. Il comprend de la sorte les raisons de l’indignation ressentie par Richard Stallman, face au mouvement de privatisation connu par l’industrie informatique au début des années 1980. Ces passages figurent ainsi parmi les plus intéressants du livre, en ce qu’ils éclairent à merveille le contexte sociologique et historique ayant présidé à la naissance du mouvement du logiciel libre.


Les interventions de Richard Stallman dans le texte, à travers de petits encarts dans lesquels il réagit aux événements racontés ou aux idées qui lui sont prêtées, donnent à l’ouvrage une saveur supplémentaire. On y retrouve ainsi par petites touches l’expression de son intelligence hors du commun et de son horreur de l’imprécision, le tout asséné sur un ton parfois assez sec et pince-sans-rire. Ces intrusions intempestives offrent presque toujours un contrepoint intéressant, et achèvent de faire de cette biographie une nouvelle référence, pour quiconque souhaite comprendre un personnage hors norme, et un mouvement, dont la portée sociale excède désormais de loin le seul domaine informatique.

Notes

[1] Crédit photo : Bastien Wirtz (OpenCoding)




L’école Châteaudun d’Amiens ou le pion français de la stratégie planétaire Microsoft

Lee Carson - CC by-saLe saviez-vous ? Grâce à la caution de partenaires associatifs et institutionnels a priori au dessus de tout soupçon, Microsoft entre comme dans du beurre (ou presque) à l’Éducation nationale, en déployant tranquillement son vaste et ambitieux programme globalisé « Innovative Schools ».

Si il ne s’agissait que de se substituer financièrement à un État de plus en plus désargenté, ce serait déjà grave, mais on en profite également pour marquer voire manipuler les esprits, sous le vernis d’un discours pédagogique soit disant progressiste et « innovant » (adjectif préféré du département marketing de la société).

Principales victimes collatérales : non seulement le logiciel libre et sa culture mais aussi et surtout les enseignants et donc les élèves[1], à qui on ne donne pas accès à cette culture.

Attention, cette histoire est un peu longue et un peu triste. Mais elle se termine bien à la fin !

Mondialisation mon amour

Qu’est-ce que le programme « Innovative Schools » ? C’est un peu le jeu des poupées russes, car il s’insère dans le programme « Partners in Learning », lui-même intégré au programme « Unlimited Potential ».

Commençons par la plus grande poupée, telle que décrite sur le site de Microsoft :

Microsoft Unlimited Potential vise à aider les personnes et les communautés du monde entier à réaliser leurs objectifs et leurs rêves par l’intermédiaire de la mise à disposition de technologies adaptées, accessibles et abordables. Nous nous sommes fixé pour mission d’ouvrir de nouvelles voies de développement social et économique, en particulier pour les cinq milliards de personnes qui, selon les estimations, ne bénéficient pas encore des avantages des nouvelles technologies. Avec nos partenaires publics comme privés, nous axons notre action sur la transformation de l’éducation, la stimulation de l’innovation locale et le soutien à la création d’emplois et de débouchés afin de créer un cercle vertueux de croissance économique et sociale durable pour tous.

Poursuivons en donnant quelques chiffres significatifs avec cette présentation maison du programme « Partners in Learning » :

Microsoft Partners in Learning est une initiative internationale conçue pour rendre la technologie plus accessible aux écoles, à stimuler des conceptions innovatrices de l’éducation et à fournir aux éducateurs les outils pour gérer et mettre en oeuvre des changements. Depuis sa création en 2003, le programme Partenaires en apprentissage a bénéficié à plus de 123 millions de professeurs et d’étudiants dans 103 pays. Microsoft apporte un soutien financier continu à cette initiative depuis déjà cinq ans, et l’investissement d’une durée de dix ans atteint presque 500 millions USD, ce qui témoigne de l’engagement de la société à rendre la technologie plus adaptée et plus accessible à chacun grâce à des programmes, des formations et des partenariats de licence abordables.

Un demi-milliard de dollars… Ne cherchez pas plus loin la réponse à la question de la légitimité d’une entreprise américaine de logiciels que rien ne prédisposait au départ à vouloir ainsi participer à « transformer l’éducation » à l’échelle mondiale. Ce n’est pas avec le vinaigre des beaux discours philanthropiques (cf ci-dessus) que l’on attrape les mouches, mais bien avec cet argument massue d’un compte en banque qui donne le vertige.

Toujours est-il que c’est dans le cadre du programme « Microsoft Partners in Learning », que l’on trouve le réseau des « Microsoft Innovative Teachers », enseignants cooptés en charge notamment de mettre chaque année en place dans leur propre pays des « Microsoft Innovative Teachers Forums », dont le point d’orgue est le « Microsoft Innovative Education Forum » où sont invités tous les lauréats des forums nationaux (en 2009 c’était au Brésil).

C’est également dans ce cadre que s’inscrivent les « Microsoft Innovative Schools ». Il s’agit d’investir un établissement scolaire et d’en faire une école pilote de l’innovation à la sauce Microsoft, en mettant là encore le paquet sur les moyens.

Une nouvelle fois, tout réside dans l’art de présenter la chose :

Le programme « Écoles Innovantes » fait partie de l’initiative internationale « Partners in Learning » au travers de laquelle Microsoft engage d’importants investissements matériels et financiers pour développer la formation dans le domaine des TICE , la personnalisation de l’enseignement, le support technique et, plus généralement, l’accès aux technologies informatiques de pointe dans l’éducation. Dans ce cadre, le projet « Écoles innovantes» fondé sur l’innovation pédagogique et l’utilisation des technologies de l’information, a été lancé au niveau mondial. La première « Ecole innovante» a ouvert ses portes au début de l’année 2006 à Philadelphie. Douze autres établissements à travers le monde font aujourd’hui partie de ce projet. L’objectif de ce projet est d’accompagner les établissements et plus largement l’institution dans son évolution vers l’école du XXIème siècle.

Du discours et de la méthode

Les citations ci-dessus donnent déjà une bonne idée de l’enrobage, pour ne pas dire de l’enfumage, d’un discours faussement lisse, neutre et consensuel dont l’objectif est de rencontrer l’adhésion des enseignants.

La société a évolué et l’école se doit de se mettre au diapason, mais cet inéluctable modernisme, où la technique semble omniprésente, ne doit en rien être anxiogène, c’est au contraire une formidable opportunité d’innovation. Ne vous inquiétez pas, Microsoft est là pour vous faciliter la tâche, accompagner votre créativité et vous aider à vous concentrer sur votre seule préoccupation : la pédagogie et la réussite de vos élèves.

Le mantra est le suivant : l’important ce n’est pas la technique, c’est l’usage que l’on en fait, si possible « innovant ».

L’informatique en tant que telle est volontairement occultée. Parce que si elle se fait oublier alors son choix n’a plus aucune importance. Et dans ces cas-là autant prendre « naturellement » les produits et les logiciels du généreux mécène (qui n’a absolument pas besoin de les mettre en avant, et il s’en garde bien, ça se fait tout seul !).

Concentrons-nous donc sur les pratiques. Rassurons les enseignants et montrons-leur ce que l’on peut faire aujourd’hui de « formidable » avec les nouvelles technologies (ils se trouvent que les démonstrations se font avec des logiciels Microsoft mais c’est à peine si on a besoin de l’évoquer, c’est juste que c’est plus pratique et qu’on les avait sous la main). Mieux encore, construisons ensemble des « écoles 2.0 », mettons les enseignants en relation et organisons de grandes manifestations où les plus dynamiques d’entre eux auront l’occasion de se rencontrer pour échanger, et éventuellement recevoir la « Microsoft Innovative Médaille du Mérite ».

Deux conséquences (fâcheuses)

Puisque l’informatique est un sujet plus que secondaire qui se doit de s’effacer pour être pleinement au service de la pédagogie, il n’y a pas lieu d’en parler, et moins encore d’en débattre. Il n’y a pas de choix à faire et le logiciel libre n’est ni cité, critiqué ou comparé, il est tout simplement nié. Jamais, ô grand jamais, vous n’y verrez la moindre référence sur les sites officiels des programmes « Microsoft Innovative MachinChose ».

Soit, le logiciel libre n’existe pas. Ce n’est pas si grave après tout si on a l’assurance que nos élèves sont entre les bonnes mains des professeurs innovants. Sauf que malheureusement ça ne peut pas être véritablement le cas, parce que ces professeurs sont sans le savoir handicapés car manipulés.

En effet, le logiciel libre à l’école va bien au delà du souhait d’installer et d’utiliser telle application plutôt que telle autre dans son ordinateur. Pris au sens large, c’est d’une véritable culture dont il s’agit, englobant les formats ouverts, les ressources en partage, les pratiques collaboratives spécifiques, la vigilance sur la propriété intellectuelle et la neutralité du réseau, etc.

Il me revient en mémoire cette citation extraite d’un billet sur la politique pro-active du Canton de Genève :

Dans sa volonté de rendre accessibles à tous les outils et les contenus, le « libre » poursuit un objectif de démocratisation du savoir et des compétences, de partage des connaissances et de coopération dans leur mise en œuvre, d’autonomie et de responsabilité face aux technologies, du développement du sens critique et de l’indépendance envers les pouvoirs de l’information et de la communication.

Pensez-vous que ces objectifs soient important et qu’ils aient toute leur place dans une « école du XXIème siècle » ? Si oui, alors ne comptez ni sur Microsoft ni sur ses enseignants sous influence pour sensibiliser réellement nos élèves sur ces questions pourtant devenues majeures aujourd’hui.

Autonomie et responsabilité face aux technologies, mais surtout sens critique et indépendance envers les pouvoirs, sont autant de thèmes qui ne font pas partie de la stratégie éducative de Microsoft. Et pour cause, ils risqueraient de dévoiler quelque chose que l’on cherche pernicieusement à cacher aux enseignants et à leurs élèves : le fait qu’une autre informatique soit possible, impliquant par là-même une autre pédagogie. Et, ne vous en déplaise, cette prise de conscience est déjà « innovante » en soi.

De la déclinaison française du programme

Et en France me direz-vous ?

Je ne connais pas l’étendue du programme « Microsoft Partners in Learning » de notre beau pays. Mais pour avoir ici-même participé à lever certains lièvres par le passé, je puis toutefois émettre quelques solides hypothèses.

Les « Microsoft Innovative Teachers » c’est avant tout l’équipe du Café pédagogique. Ce n’est pas moi qui l’affirme mais le site officiel répertoriant pays par pays les membres de ce réseau d’enseignants. Lorsque vous cliquez sur « France », vous êtes automatiquement renvoyé sur la page d’accueil du Café.

Le Café est accompagné par l’association d’enseignants Projetice (lire à ce sujet Projetice ou le cas exemplaire d’un partenariat très privilégié entre Microsoft et une association d’enseignants), dont la création a, semble-t-il, été directement souhaité et suggéré par Microsoft.

En toute logique, c’est à eux qu’il incombe de monter les « Microsoft Innovative Teachers Forums » dont la création a, c’est certain, été directement souhaité et suggéré par Microsoft. Nous avons ainsi eu Rennes en 2008 et Roubaix en 2009 (lire à ce sujet Du premier Forum des Enseignants Innovants et du rôle exact de son discret partenaire Microsoft et surtout le fort instructif Forum des Enseignants Innovants suite et fin).

Quant à la grande messe qui réunit les lauréats des forums du monde entier, vous pouvez compter sur le Café pour nous en faire de magnifiques et élogieux reportages, comme le dernier en date à Salvador de Bahia (lire à ce sujet En réponse au Café Pédagogique).

Pour le supérieur, il pourrait également y avoir les chercheurs du Groupe Compas (cf la présentation Microsoft) dont la création, elle aussi, aurait été fortement souhaité et suggéré par Microsoft, mais là je manque clairement d’informations.

Toujours est-il qu’on retrouve bien tout ce petit monde dans les encadrés de la brochure commerciale Microsoft 2010 en direction des établissements scolaires.

Un petit monde que l’on peut mobiliser à tout moment, comme par exemple lorsqu’il s’agit de relayer une campagne médiatique autour d’un nouveau produit de la société (lire à ce sujet L’influence de Microsoft à l’école n’est-elle pas disproportionnée ?, campagne qui valu à Microsoft de recevoir le Grand Prix « Acquisition et Fidélisation Clients »).

L’école Châteaudun ou la « Microsoft Innovative School » de chez nous

Pour compléter cet impressionnant dispositif Microsoft, il ne manquait plus que « l’École Innovante ». Et c’est à l’école publique Châteaudun d’Amiens qu’est revenu cet insigne honneur, et ce depuis deux ans déjà.

Le Café pédagogique en a parlé ici, , et tout récemment . Rien d’anormal à cela puisque le Café étant la tête de pont des « Microsoft Innovative Teachers » français, c’est bien le moins que de relayer les annonces de cette grande famille. C’est du reste cette dernière annonce, vendredi 15 janvier, qui a motivé la rédaction de cet article (d’autant plus que chez eux, il est impossible de commenter). Et plus particulièrement cette histoire de « fées autour du berceau ».

À l’origine de ce projet, la rencontre entre le directeur de l’école primaire qui voulait améliorer l’expression écrite et orale de ses élèves, son maire, ministre de l’éducation à ce moment, et le groupe Microsoft qui soutient plusieurs écoles innovantes dans le monde avec le projet d’observer et retenir les innovations. Voilà beaucoup de fées autour du berceau et cela a joué sur le projet car l’équipe éducative a été très sollicitée par les accompagnateurs du projet.

Abondance de fées pourrait-elle nuire ? En tout cas, il y a une fée singulièrement différente des autres, et l’on pourra toujours évoquer une « rencontre » entre les différents acteurs, c’est bien plus sûrement la fée Microsoft, en pleine « Innovative Prospection », qui a su murmurer de manière convaincante à l’oreille du ministre (en l’occurrence, à l’époque, c’était Gilles de Robien).

On remarquera donc d’emblée que les fées du projet et l’équipe éducative sont deux entités bien distinctes. Des fées qui savent manifestement manier leur baguette avec, quand il le faut, l’autorité nécessaire, puisque la décision est venue d’elles, c’est-à-dire d’en haut, et non du terrain, c’est-à-dire des professeurs qui auraient eu vent des « Microsoft Innovative Schools » et qui auraient choisi d’inscrire collectivement et spontanément leur école.

Pour plus de détails sur le projet, il y a, avec toutes les précautions d’usage quant à leur objectivité, cette présentation sur le site de Microsoft (voir aussi ce reportage vidéo interne, au format propriétaire wmv) et cette visite du Café pédagogique.

On pourra également se rendre sur le blog et le site de l’école, créés à l’occasion, dont je vous laisse juge de la qualité et du dynamisme (reposant tous deux sur des solutions libres soit dit en passant).

Quant à la communication, il faut croire qu’avoir aussi bien le ministre que Microsoft penchés au dessus du berceau, aident à la mise en lumière médiatique du projet, avec titres et contenus qui ont dû faire plaisir aux fées : La première école innovante de France (Le Point – février 2008) et Amiens invente l’école numérique de demain (Le Figaro – mai 2008). Ajoutez juste un mot de plus au titre du Point et vous obtenez quelque chose qui oriente sensiblement différemment la lecture : « La première école innovante Microsoft de France ».

Mais plus intéressant et a priori plus rigoureux, on a surtout ce rapport tout chaud réalisé par l’INRP, c’est-à-dire rien moins que l’Institut National de Recherche Pédagogique. Aujourd’hui c’est donc l’heure d’un premier bilan et c’était bien là le motif principal de l’annonce du Café.

Première phrase du rapport : « Cette étude a bénéficié du soutien de Microsoft Éducation ». Et un peu après :

Sollicité par Microsoft Éducation France pour être évaluateur du projet Innovative Schools, d’une durée de deux ans (de septembre 2007 à décembre 2009), au niveau national et international, l’INRP a signé une convention de recherche-évaluation pour (…) faire un suivi du projet et du process des 6i

On retrouve notre constante : c’est toujours Microsoft qui sollicite et non l’inverse. Quant au « process des 6i », c’est absolument fascinant car il s’agit d’un véritable choc culturel.

Nous connaissons un peu les américains. Ils raffolent de ces méthodes en plusieurs points censés améliorer notre vie professionnelle, personnelle ou spirituelle (un exemple parmi d’autres, les douze étapes des Alcooliques Anonymes). On ne le leur reprochera pas, c’est dans leur ADN et certaines méthodes sont au demeurant tout à fait efficaces.

Et c’est ainsi que Microsoft, dans sa volonté universalisante (et uniformisante) de « transformer l’éducation » de ce nouveau millénaire, nous a pondu ce processus à 6 niveaux, ainsi résumé sur cette page :

Cette méthode, les 6i, se déroule en 6 étapes réparties sur 2 années scolaires. Le processus des 6i (Introspection, Investigation, Inclusion, Innovation, Implémentation, Insight) de Microsoft, est un plan de route sur l’élaboration, la mise en œuvre et la gestion des changements basés sur les TIC. Il constitue un guide à l’intention des leaders scolaires pour mettre en place des changements éducatifs sur la base d’approches éprouvées.

Pour ceux que cela intéresse, Microsoft donne plus de détails sur son site anglophone (mais, là encore, méfiance, l’enfer est pavé de bonnes intentions pédagogiquement innovantes).

Le problème (enfin, ça dépend pour qui) c’est qu’à l’école française on n’est pas forcément familier avec cette manière d’appréhender les choses. Je vous laisse imaginer la tête du professeur des écoles, qui pour rappel a subi et non voulu le projet, lorsqu’on lui met une telle méthode entre les mains ! Euh… ça veut dire quoi « Insight » déjà ?

Toujours est-il que malgré le fait que ce « process des 6i » figurait donc noir sur blanc sur la feuille de route de l’étude commandé, le rapport n’en parle presque pas. Il se contente de le décrire à un moment donné (p. 18 à 21) mais sans que cela ait visiblement donné lieu à la moindre tentative d’application avec l’équipe pédagogique puisqu’on n’y revient plus par la suite. Pour tout vous dire, on sent l’INRP comme un peu gêné aux entournures ici (comme ailleurs du reste).

Résistance passive

Les rapports au sein de l’Éducation nationale, c’est tout un poème. Il faut parfois avoir le décodeur, en particulier lorsque l’on évoque les TICE où très souvent, politique moderne oblige, aussi bien l’auteur que le lecteur ont intérêt à ce que l’on décrive, quoiqu’il arrive, une situation positive et un projet réussi. Le projet fonctionne ? On dira qu’il fonctionne très bien. Il ne fonctionne pas ? Et l’on dira alors qu’il est un peu tôt pour en faire un bilan, ou que les conditions d’observation n’étaient pas optimales, etc., mais que malgré quelques « résistances », on note d’ores et déjà de significatives avancées, etc.

Et d’ailleurs, petite parenthèse, lorsqu’il s’agit d’un projet d’envergure dont le rapport remonte en passant par les indispensables étapes de la hiérarchie, on peut se retrouver au final avec un beau décalage entre ce qui se trouve sur le bureau du Ministre et la réalité du terrain (le B2i fournissant à cet égard un excellent exemple, on tient certainement là une cause principale de son étonnante longévité).

Bref ici, je vous invite à lire la conclusion du rapport (muni du fameux décodeur). Entre les lignes, on ne décrypte pas un échec patent mais on ne peut pas dire non plus, et loin de là, que ce soit l’enthousiasme qui prédomine.

Cette conclusion comporte deux parties (c’est déjà mauvais signe) : « Quelques failles constitutives sont repérables pour diverses facettes de l’opération » (on craint le pire), mais heureusement il y a aussi « Les avancées d’une école innovante ».

Morceaux choisis :

Les circonstances de la mise en œuvre de l’innovation dans l’école observée n’ont pas été idéales de ces points de vue et sont, sans l’ombre d’un doute, à l’origine des difficultés éprouvées à la fois par les acteurs locaux et par tous ceux qui ont été chargés de les suivre. L’empilement de dispositifs, de choix, de procédures, jamais clairement négociés avec les enseignants, a pu dérouter. Pour autant, les bénéfices de la démarche d’innovation sont visibles à l’échelle de l’école et encouragent à poursuivre.

On retrouve le plan d’un rapport-type tel que décrit théoriquement ci-dessus.

L’initiative est venue du ministre de l’Éducation nationale lui-même, maire de la ville. Le faible nombre d’enseignants réellement engagés dans l’opération traduit des réticences face à une opération (…)

La forme recherche-évaluation choisie par le Stanford Research Institute (SRI) comme cadre général du pilotage de l’innovation est très éloignée des principes courants d’observation et de suivi habituellement mis en œuvre en France.

C’est peu de le dire. Mais quand on s’embarque ainsi avec des américains, il faut en être bien conscient au départ. Là c’est un peu tard et il convient donc d’assumer.


La charge de travail imposée aux acteurs de l’école, dépassant de très loin la mise en place de l’innovation elle-même, a d’autant plus vite atteint un niveau insupportable qu’elle était inattendue et incompréhensible faute d’avoir été expliquée à l’avance.

L’extrême médiatisation de l’opération (à l’échelle locale puis nationale), avec ses inexactitudes, ses excès, ses effets pervers a achevé d’exacerber une situation dont la dimension politique était relancée par le changement de majorité municipale aux élections du printemps 2008.

Rien d’étonnant à ce que ces dispositions aient accentué la circonspection des enseignants et aient pu conduire au refus de toute observation de situations de classe à partir du mois d’avril 2008. Pour autant de nombreux aspects authentiquement innovants sont apparus dans le déroulement du projet d’école.

Ce dernier paragraphe est symptomatique. Des enseignants ont carrément refusé de jouer le jeu. C’est une lourde et concrète information impossible à censurer. Mais elle est tout de suite suivie et contre-balancée par un argument positif vague et flou, que vient corroborer l’ultime phrase du rapport :

L’innovation est ainsi reconnue et même souhaitée. Ce n’est pas l’innovation en tant que telle qui est recherchée, mais c’est, bien davantage, l’amélioration des résultats de tous les élèves, y compris les moins performants, qui est attendue. Cette exigence s’inscrit dans la droite ligne de l’histoire de notre école républicaine.

Certes, certes. Mais pourquoi notre école républicaine à la si riche histoire aurait-elle besoin de s’appuyer ici sur la « méthode des 6i » tout droit sortie de la cuisse de la multinationale Microsoft ?

Et le Café pédagogique, de s’adonner lui aussi à la conclusion positive aux forceps :

S’il est trop tôt selon l’étude pour constater des changements chez les élèves, elle confirme l’impact sur l’équipe pédagogique. Le projet a bien développé sa capacité d’adaptation aux changements – une faculté tant individuelle que collective qu’exige une société en constante évolution. Ça donne déjà une longueur d’avance à cette école.

En gros, on est venu perturber des professeurs qui n’avaient au départ rien demandé. Et comme il a bien fallu qu’ils s’adaptent, on les félicite d’avoir fait face aux changements. Que l’adaptation ait été vécue positivement ou négativement ne compte pas, c’est une qualité en soi. Voilà une bien maigre « longueur d’avance ».

Et pour en avoir le cœur net, l’idéal serait de recevoir dans les commentaires de ce billet, quelques témoignages de professeurs de cette école.

Parce que, autant appeler un chat un chat , malgré la débauche d’énergies et de moyens matériels et humains mis à disposition, l’expérience Innovative School Châteaudun d’Amiens n’a semble-t-il pas forcément donné tous les résultats escomptés. Microsoft pourra toujours cocher la case « école française » sur sa jolie mappemonde, on ne m’ôtera pas de l’idée que nous sommes face à une belle déception qui ne veut dire son nom.

Résistance active

Mais il y a des résistances bien moins passives et donc bien plus intéressantes que celles de l’école Châteaudun d’Amiens.

Infiltrer une école primaire ne suffisait semble-t-il pas aux responsables de Microsoft France Éducation. Il leur fallait également un établissement du secondaire pour parfaire le tableau.

Ils avaient ainsi repéré un lycée de l’Académie de Créteil. Et là encore il s’agissait de faire passer le projet par le haut, sans en référer au préalable à l’équipe pédagogique de l’établissement.

Mais il y eut un magnifique grain de sable, quelque chose d’imprévisible et inattendu s’est alors produit. Deux enseignantes ont pris leur plume pour courageusement protester publiquement sur le site d’informations rue89. Ce qui a donc donné l’article Pour ses « innovations », l’Éducation nationale s’en remet à Microsoft, qui figure en bonne place dans ma rétrospective personnelle de l’année 2009.

Je vous invite à le lire dans son intégralité (on notera que le logiciel libre y est évoqué et même souhaité), mais je n’ai pu résister à en reproduire ici la percutante introduction :

Nous sommes professeurs de lettres et de philosophie dans un établissement public de France et nous voulons dire notre tristesse. Notre colère. Nous avons appris, il y a peu, que notre établissement déposait un projet d’« école innovante » auprès du rectorat, mené en partenariat avec Microsoft !

Les établissements publics français ont une mission publique d’éducation. Ils doivent, cela va sans dire, évoluer avec leur société : si l’on tient absolument au novlangue actuellement en vigueur à l’Éducation nationale, disons qu’ils doivent « innover » ; mais quel besoin de le faire sous le coaching de Microsoft ?

Que vient donc faire une multinationale dans nos innovations pédagogiques ? Et comment comprendre que ce soit le responsable des technologies de l’information et de la communication pour l’enseignement (TICE) au rectorat, autrement dit l’Éducation nationale elle-même, qui encadre ce « partenariat » ?

Nous, enseignantes du service public français, sommes choquées d’avoir à innover par la « méthode des 6i » (« introspection, investigation, inclusion, innovation, implémentation, insight ») mise au point – et brevetée ! – par le groupe Microsoft pour pouvoir formater de façon homogène l’innovation pédagogique de pays différents, et faire émerger l’école du XXI siècle, comme on peut le lire sur le site de Microsoft.

Quelle éloquence, mais surtout quelle évidence !

On remarquera que l’INRP s’est quant à elle tout à fait accommodée de la « méthode des 6i » à Châteaudun. Les « experts pédagogiques » sont semble-t-il plus flexibles et malléables que les profs d’en bas.

Suite à cette tribune, l’une des auteurs m’a contacté pour échanger, voire prendre conseil, parce que figurez-vous qu’elle subissait du coup menaces et pressions de la part de sa hiérarchie !

Mais la hiérarchie s’est ravisée. Je pense qu’elle a réalisé que plus cette histoire allait se médiatiser, plus sa position deviendrait intenable, car les collègues se rangeraient plus que majoritairement derrières les arguments des enseignants.

Autrement dit, victoire, on n’a plus du tout entendu parler de ce projet Microsoft depuis ! La prochaine « Innovative School » française devra attendre. Comme quoi quand on veut…

Et l’article de s’achever ainsi :

L’école en a, des profs « innovants », si l’on tient absolument à les appeler ainsi.

Non, ce n’est vraiment pas le désir d’inventer et de créer qui manque, à l’Éducation nationale.

Mais un prof qui s’entend dire qu’il devra accepter comme une condition nécessaire pour accéder aux moyens de mettre en œuvre ses projets de travailler avec telle entreprise privée, sous sa direction et dans son formatage, dans l’idéologie de ce que doit être l’école du XXIe siècle (sic) selon ladite entreprise, ce prof, dès lors, ne sent plus tellement en lui le désir d’« innover ».

Parce qu’il pressent qu’« innover » dans ces conditions impliquera qu’il abdique une part de sa liberté pédagogique au nom du modèle idéologique en question.

Ce sera également notre conclusion.

Notes

[1] Crédit photo : Lee Carson (Creative Commons By-Sa)




Vidéo : Richard Stallman à Paris pour la présentation de sa biographie autorisée

Les éditions Eyrolles ont organisé une rencontre avec Richard Stallman, le 12 janvier dernier dans leur librairie parisienne, à l’occasion de la sortie du livre Richard Stallman et la révolution du logiciel libre (que l’on peut d’ores et déjà précommander).

Cette intervention est désormais disponible sur le compte Eyrolles d’OpenVideo, l’espace Dailymotion spécialement dédié au format libre et ouvert Ogg[1].

Nous avons choisi d’en extraire le premier quart d’heure et vous le proposer ci-dessous dans la mesure il présente l’équipe du projet et nous offre un Richard Stallman au cœur du livre, puisqu’évoquant (non sans humour) son passé et ses premières expériences informatiques.

Par ordre d’apparition :

  • Muriel Shan Sei Fan d’Eyrolles – émérite éditrice du livre et animatrice de la rencontre
  • Pierre-Yves Gosset (alias Pyg) – émérite et indispensable salarié de Framasoft (et qui remplaçait mon absence)
  • Christophe Masutti – émérite chef d’orchestre de la traduction et de la communication avec Richard Stallman
  • Et, last but not least, Richard Stallman himself of course !

—> La vidéo au format webm

Pour la suite de la conférence, rendez-vous donc sur Dailymotion.

Transcript de l’intervention de Richard Stallman

Bonsoir, quand Christophe m’a proposé de relire le texte et corriger les erreurs pour la traduction française, je pensais que peut-être ce serait un petit travail. Mais quand j’ai lu le texte, j’ai vu qu’il fallait beaucoup de changements, beaucoup de corrections, mais je ne voulais pas qu’il devienne mon autobiographie.

Et comment l’éviter, c’était une tache délicate et j’ai décidé de maintenir toutes les citations, sauf quelques unes qui n’avaient rien à voir avec moi, et de maintenir toutes les impressions personnelles de Sam Williams, quand présentées comme telles. Et comme ça je devais garder son point de vue aussi, dans le livre que vous avez devant vous.

Et je n’ai pas éliminé les critiques. J’ai corrigé des faits erronés et j’ai répondu aux critiques, mais je les ai pas supprimés.

Je suis un personnage controversé. Et maintenant (avec ce livre) vous pouvez voir les deux côtés de la controverse, dont la première édition ne contenait souvent qu’un seul côté.

Le livre commence avec ma jeunesse. Je ne veux pas dire en beaucoup à ce sujet, mais j’ai vu (pour la première fois) un ordinateur quand j’avais 16 ans, à IBM, et j’ai commencé à vraiment programmer. Une année plus tard, je suis allé à l’Université Harvard à Cambridge. Et j’ai commencé à programmer dans le laboratoire de Harvard, mais c’était un système social tyrannique. Beaucoup de hiérarchie.

Et donc j’ai trouvé au MIT un autre laboratoire d’informatique avec (bien plus de) liberté. Où il ne s’agissait pas de qui tu étais, mais de ce que tu pouvais faire. J’y ai aussi rencontré le logiciel libre, parce que dans le laboratoire d’Intelligence Artificielle (IA) du MIT, tous les logiciels que nous utilisions étaient libres.

Le système d’exploitation était libre, puisqu’en ce temps-là il était développé par les hackers du laboratoire. Et j’étais moi-même engagé à participer à leur équipe pour améliorer le système. C’était l’emploi idéal pour moi, à l’époque.

Il fallait améliorer le monde. Et comment ? c’était à moi de la décider, mais en conversation avec les autres, bien sûr.

Donc j’ai appris à faire beaucoup de choses, mais aussi j’ai appris à apprécier la liberté, à apprécier les Droits de l’Homme.

Liberté, parce que chacun était libre. Égalité, parce dans le laboratoire d’IA du MIT le pouvoir ne s’employait pas. Tout le monde était égal, mais tout le monde devait participer dans la recherche et aider les autres, c’était donc la fraternité aussi.

Quand je faisais des changements dans le système, ce n’était pas seulement selon mon goût mais je faisais attention a ce que les utilisateurs me disaient. Et comme ça j’ai découvert que c’était possible une vie libre dans l’informatique.

Mais sous la pression commerciale, cette communauté du logiciel libre disparut. Et je devais décider que faire.

J’avais l’option facile, le chemin facile de participer dans le logiciel que nous appelons aujourd’hui le logiciel privateur, le logiciel qui prive la liberté des utilisateurs, qui est un instrument de tyrannie. Mais je ne voulais, cela aurait été une vie odieuse.

Donc j’ai décidé de rejeter cette vie pour construire une nouvelle communauté de liberté, (une communauté) du logiciel libre. Et il fallait commencer presque à zéro.

J’ai ainsi annoncé en 1983 le projet de développer le système d’exploitation GNU. « GNU’s Not Unix », un acronyme récursif, l’humour du programmeur. De toute manière, l’esprit du hacker c’est de faire des blagues même dans les choses les plus sérieuses. Comme tenter de libérer le monde de l’informatique, la chose qui serait la plus importante de ma vie si elle avait du succès. Mais en même temps le monde peut être un blague. « Ha Ha Only Serious ».

Et nous avons plus ou moins réussi. Le système GNU marche assez bien aujourd’hui avec le noyau Linux, dans la combinaison GNU et Linux. Nous avons des interfaces graphiques libres, nous avons des outils bureautiques libres, bien que quand je dis le mot « bureautique », je pense à « l’érotique dans le bureau ».

Mais nous n’avons pas encore gagné, parce que nous n’avons pas encore libéré tous les utilisateurs de l’informatique. La grande majorité continue (d’être) sous le pouvoir des entreprises comme Microsoft, Apple, Adobe et beaucoup d’autres. Donc nous avons encore beaucoup de travail à faire pour que tout le logiciel soit libre, pour que tous les utilisateurs soient libres…

Notes

[1] Richard Stallman n’accepte plus que ce format pour être filmé. Le site NetEco l’a ainsi appris à ses dépends dans 15 minutes avec Richard Stallman : « Cet entretien aurait dû être publié en format vidéo, cependant, sur demande de Richard Stallman ce dernier a été retranscrit. En effet, M. Stallman n’accepte la publication de vidéo qu’au format libre Ogg Theora. »




Ne pas entrer à reculons dans la société et l’économie numériques

Tibchris - CC by« Il est possible de rémunérer les auteurs, de payer le juste prix et de ne pas payer ce qui est devenu gratuit. Et il est important de cesser d’entrer à reculons dans la société et l’économie numériques. »

Telle est la conclusion de Gratuité et prix de l’immatériel, le nouvel article de Jean-Pierre Archambault que nous vous proposons aujourd’hui. Il n’apporte fondamentalement rien de plus que ce que tout lecteur du Framablog connaissait déjà. Mais l’agencement des faits, la pertinence des exemples et l’enchaînement des arguments en font une excellente synthèse en direction du grand public. Á lire et à faire lire donc[1].

Je ne résiste d’ailleurs pas à vous recopier d’emblée cette petite fiction que l’on trouvera dans le paragraphe en faveur de la licence globale, histoire de vous mettre l’eau à la bouche : « Supposons que, dans le monde physique, ait été inventée une technologie miracle qui permette de remplacer immédiatement, à l’identique et sans aucun coût, tout CD retiré des bacs d’une surface de distribution. Dans un tel monde, il apparaîtrait impensable que des caisses soient disposées en sortie de magasin afin de faire payer les CD emportés par les clients : celui qui part avec 100 CD cause en effet exactement le même coût que celui qui part avec 10 CD ou encore que celui qui part avec 1 000 CD, c’est à dire zéro ! En revanche, personne ne comprendrait que des caisses ne soient pas installées à l’entrée, afin de facturer l’accès à une telle caverne d’Ali Baba. »

Gratuité et prix de l’immatériel

URL d’origine du document

Jean-Pierre Archambault – CNDP et CRDP de Paris – Chargé de mission Veille technologique et coordonnateur du Pôle de compétences logiciels libres du SCÉREN – Médialog n°72 – Décembre 2009

Internet bouleverse les modalités de mise à disposition des biens culturels et de connaissance. Dans l’économie numérique, le coût de production d’une unité supplémentaire d’un bien (musique, film, logiciel…) étant, pour ainsi dire, nul, que doit-on payer ?
La réflexion sur les logiciels libres, biens communs mis à la disposition de tous, peut contribuer à éclairer la question des relations complexes entre gratuité, juste prix et légitime rémunération des auteurs.

Le thème de la gratuité est omniprésent dans nombre de débats de l’économie et de la société numériques, qu’il s’agisse de morceaux de musique, de films téléchargés, ou de logiciels qui, on le sait, se rangent en deux grandes catégories : libres et propriétaires. Les débats s’éclairent les uns les autres, car ils portent sur des produits immatériels dont les logiques de mise à disposition ont beaucoup de points communs.

Concernant les logiciels, « libre » ne signifie pas gratuit. La méprise peut venir de la double signification de free en anglais : libre, gratuit. À moins que son origine ne réside dans le fait qu’en pratique il y a toujours la possibilité de se procurer un logiciel libre sans bourse délier. Il peut s’agir également d’une forme d’hommage à la « vertu » des logiciels libres, et des standards ouverts. En effet, à l’inverse des standards propriétaires qui permettent de verrouiller un marché, ceux-ci jouent un rôle de premier plan dans la régulation de l’industrie informatique. Ils facilitent l’entrée de nouveaux arrivants, favorisent la diversité, le pluralisme et la concurrence. Ils s’opposent aux situations de rentes et de quasi monopole. De diverses façons, les logiciels libres contribuent à la baisse des coûts pour les utilisateurs. Par exemple, l’offre gratuite, faite en 2008 par Microsoft, sur sa suite bureautique en direction des enseignants, mais pas de leurs élèves, est une conséquence directe de la place du libre en général, d’OpenOffice.org en particulier, dans le paysage informatique. Et, c’est bien connu, les logiciels libres sont significativement moins chers que leurs homologues propriétaires.

Gratuit car payé

Il peut arriver que la gratuité brouille le débat. Elle n’est pas le problème. Les produits du travail humain ont un coût, le problème étant de savoir qui paye, quoi et comment. La production d’un logiciel, qu’il soit propriétaire ou libre, nécessite une activité humaine. Elle peut s’inscrire dans un cadre de loisir personnel ou associatif, écrire un programme étant un hobby comme il en existe tant. Elle n’appelle alors pas une rémunération, la motivation des hackers (développeurs de logiciels dans des communautés) pouvant résider dans la quête d’une reconnaissance par les pairs. En revanche, si la réalisation se place dans un contexte professionnel, elle est un travail qui, toute peine méritant salaire, signifie nécessairement rémunération. Le logiciel ainsi produit ne saurait être gratuit, car il lui correspond des coûts. Et l’on sait que dans l’économie des biens immatériels, contrairement à l’économie des biens matériels, les coûts fixes sont importants tandis que les coûts marginaux (coûts de production et diffusion d’un exemplaire supplémentaire) sont peu élevés. Dupliquer un cédérom de plus ou fabriquer un deuxième avion, ce n’est pas la même chose. Télécharger un fichier ne coûte rien (sauf l’accès au réseau).

Mais, même quand un logiciel n’est pas gratuit, il le devient lorsqu’il a été payé ! Enfin, quand il est sous licence libre. Qu’est-ce à dire ? Prenons le cas d’un client qui commande la réalisation d’un logiciel à une société et la lui paye intégralement, dans une relation de sous-traitance. Un travail a été fait et il est rémunéré. Si, en plus, le client a conservé ses droits de propriété sur le logiciel et décide de le mettre à disposition des autres sous une licence libre, le dit logiciel est alors librement et gratuitement accessible pour tout un chacun. Exit les licences par poste de travail. Bien commun, un logiciel libre est à la disposition de tous. À charge de revanche, mais c’est l’intérêt bien compris des uns et des autres de procéder ainsi, même s’il est vrai qu’il n’est pas toujours évident d’enclencher pareil cycle vertueux… Autre chose est de rémunérer des activités de service sur un logiciel devenu gratuit (installation, adaptation, évolution, maintenance…). Même si, ne versons pas dans l’angélisme, la tentation existe de ne pas développer telle ou telle fonctionnalité pour se ménager des activités de service ultérieures.

Il en va pour l’informatique comme pour les autres sciences. Les mathématiques sont libres depuis vingt-cinq siècles. Le temps où Pythagore interdisait à ses disciples de divulguer théorèmes et démonstrations est bien lointain ! Les mathématiques sont donc libres, ce qui n’empêche pas enseignants, chercheurs et ingénieurs d’en vivre.

Argent public et mutualisation

Le libre a commencé ses déploiements dans les logiciels d’infrastructure (réseaux, systèmes d’exploitation). Dans l’Éducation nationale, la quasi totalité des logiciels d’infrastructure des systèmes d’information de l’administration centrale et des rectorats sont libres. Il n’en va pas (encore…) de même pour les logiciels métiers (notamment les logiciels pédagogiques), mais cette situation prévaut en général, que ce soit dans les entreprises, les administrations, les collectivités locales ou dans des filières d’activité économique donnée.

Dans L’économie du logiciel libre[2], François Elie, président de l’Adullact (Association des Développeurs et des Utilisateurs de Logiciels Libres pour l’Administration et les Collectivités Territoriales), nous dit que l’argent public ne doit servir à payer qu’une fois ! Comment ne pas être d’accord avec pareille assertion ? En effet, si des collectivités territoriales ont un besoin commun, il n’y a aucune raison pour qu’elles fassent la même commande au même éditeur, chacune de son côté dans une démarche solitaire, et payent ce qui a déjà été payé par les autres. François Elie propose la mutualisation par la demande.

L’Éducation nationale est certes une « grande maison » riche de sa diversité, il n’empêche qu’il existe des besoins fondamentalement communs d’un établissement scolaire à l’autre, par exemple en matière d’ENT (espaces numériques de travail). Pourquoi des collectivités territoriales partiraient-elles en ordre (inutilement trop) dispersé ? Alors, qu’ensemble, elles peuvent acheter du développement partagé ou produire elles-mêmes. Et, dans tous les cas, piloter et maîtriser les évolutions. Ce qui suppose d’avoir en interne la compétence pour faire, ou pour comprendre et « surveiller » ce que l’on fait faire, aux plans technique et juridique. Dans le système éducatif, les enseignants ont la compétence métier, en la circonstance la compétence pédagogique, sur laquelle fonder une mutualisation de la demande, la production par les intéressés eux-mêmes se faisant dans des partenariats avec des éditeurs publics (le réseau SCÉREN) et privés. L’association Sésamath en est l’illustration majeure mais elle n’est pas seule : il y a aussi AbulEdu, Ofset, les CRDP…[3].

L’argent public ne doit servir qu’une fois, ce qui signifie une forme de gratuité selon des modalités diverses. C’est possible notamment dans l’équation « argent public + mutualisation = logiciels libres ». Le libre a fait la preuve de son efficacité et de ses qualités comme réponse à la question de la production de ce bien immatériel particulier qu’est le logiciel. Rien d’étonnant à cela. La production des logiciels restant une production de connaissances, contrairement à d’autres domaines industriels, elle relève du paradigme de la recherche scientifique. L’approche du logiciel libre, à la fois mode de réalisation et modalité de propriété intellectuelle, est transférable pour une part à d’autres biens, comme les ressources pédagogiques. Le logiciel libre est également « outil conceptuel » pour entrer dans les problématiques de l’économie de l’immatériel et de la connaissance.

Gratuité et rémunération

Revenons sur les coûts fixes et marginaux dans l’économie à l’ère du numérique. L’économie de l’information s’est longtemps limitée à une économie de ses moyens de diffusion, c’est-à-dire à une économie des médias. Elle ne peut désormais plus se confondre avec l’économie du support puisque les biens informationnels ne sont plus liés rigidement à un support donné. L’essentiel des dépenses était constitué par les coûts de production, de reproduction matérielle et de distribution dans les divers circuits de vente. Aujourd’hui, les techniques de traitement de l’information, la numérisation et la mise en réseau des ordinateurs permettent de réduire les coûts de duplication et de diffusion jusqu’à les rendre à peu près nuls. Dans ces conditions, la valeur économique de l’information ne peut plus se construire à partir de l’économie des vecteurs physiques servant à sa distribution. De nouvelles sources de valeur sont en train d’apparaître. Le modèle économique de mise en valeur de l’information déplace son centre de gravité des vecteurs physiques vers des services annexes ou joints dont elle induit la consommation ou qui permettent sa consommation dans de bonnes conditions (services d’adaptation d’un logiciel au contexte d’une entreprise, de facilitation de l’accès à des ressources numérisées, commerce induit sur des produits dérivés, etc.).

Le copyright, qui défend principalement l’éditeur contre des confrères indélicats, aussi bien que le droit d’auteur, qui défend principalement l’auteur contre son éditeur, ont ceci en commun qu’ils créent des droits de propriété sur un bien abstrait, l’information[4]. Tant que cette information est rigidement liée à un vecteur physique, c’est-à-dire tant que les coûts de reproduction sont suffisamment élevés pour ne pas être accessibles aux particuliers, ces droits de propriété peuvent être imposés aisément. Mais le monde bouge…

Les débats sur la loi Création et Internet dite « loi Hadopi » ont tourné autour de la gratuité et de la rémunération des auteurs (et des éditeurs !). Face aux difficultés de recouvrement du droit d’auteur dans l’économie numérique, certains pensent manifestement que la solution réside dans le retour au modèle classique de l’information rigidement liée à son support physique, ce que certaines techniques de marquage pourraient permettre, annulant ainsi les bienfaits économiques de la numérisation et de la mise en réseau. Mais le rapide abandon des DRM (Digital Rights Management ou Gestion des Droits Numériques en français) qui se sont révélés inapplicables (après le vote en 2006 de la transposition en France de la directive européenne DADVSI[5] ) aurait tendance à démontrer le caractère illusoire de ce genre d’approche. Beaucoup pensent qu’un sort identique arrivera aux dispositions contenues dans la « loi Hadopi », que ces façons (anciennes) de poser les problèmes (nouveaux) mènent à une impasse. Pour, entre autres, les mêmes raisons de non faisabilité : le droit se doit d’être applicable. On sait, par ailleurs, que le Conseil constitutionnel a, dans un premier temps censuré le volet sanction de la « loi Hadopi », considérant que le droit de se connecter à Internet relève de la liberté de communication et d’expression et que ce droit implique la liberté d’accès à Internet (seule une juridiction peut être habilitée à le suspendre). Il a estimé que le texte conduisait à instituer une présomption de culpabilité.

Dans le cas d’un transfert de fichier, nous avons déjà signalé que le coût marginal est nul. Que paye-t-on ? Une part des coûts fixes. Mais il arrive un moment où la réalisation du premier exemplaire est (bien) amortie. D’où ces situations de rentes dans lesquelles on paye un fichier téléchargé comme s’il était gravé sur un support physique qu’il aurait fallu fabriquer et acheminer. De plus, l’économie générale des productions (les best sellers et les autres titres) d’un éditeur évolue avec Internet. Dans son ouvrage La longue traîne, Chris Anderson[6] théorise le principe de la longue traîne dans lequel la loi des 20/80 (20% des produits font 80% du chiffre d’affaires) disparaît avec Internet qui, en réduisant les coûts de fabrication et de distribution, permet à tous les produits qui ne sont pas des best-sellers (qui constituent des longues traînes) de rapporter parfois jusqu’à 98% du chiffre d’affaires.

Une licence globale

Il y a donc des questions de fond. Quel est le prix des biens culturels dématérialisés ? Quels doivent être leurs modes de commercialisation ? Alain Bazot, président de l’UFC-Que choisir, les pose[7]. Rappelant qu’un support physique a un coût et qu’il est « rival »[8], que l’on peut multiplier les fichiers numériques d’une oeuvre pour un coût égal à zéro, il en tire la conclusion que « la dématérialisation, parce qu’elle permet un partage sans coût de la culture, parce qu’elle constitue un accès à l’information et à l’art pour tous, remet fondamentalement en cause les modèles économiques existants. Dès lors, il apparaît essentiel de proposer de nouvelles formes de rémunération pour allier les avantages d’Internet à une juste rétribution des artistes/créateurs ». Et comme « dans une économie de coûts fixes, distribuer un ou 10 000 MP3 ne fait pas varier le coût de production », il est plus pertinent « de faire payer l’accès et non pas la quantité. Ce mode de commercialisation, apparu avec la commercialisation de l’accès à internet (le forfait illimité), est le modèle consacré par l’économie numérique ».

Et, pour illustrer le propos, Alain Bazot s’appuie sur une fiction fort pertinente de Nicolas Curien : « Supposons que, dans le monde physique, ait été inventée une technologie miracle qui permette de remplacer immédiatement, à l’identique et sans aucun coût, tout CD retiré des bacs d’une surface de distribution. Dans un tel monde, il apparaîtrait impensable que des caisses soient disposées en sortie de magasin afin de faire payer les CD emportés par les clients : celui qui part avec 100 CD cause en effet exactement le même coût que celui qui part avec 10 CD ou encore que celui qui part avec 1 000 CD, c’est à dire zéro ! En revanche, personne ne comprendrait que des caisses ne soient pas installées à l’entrée, afin de facturer l’accès à une telle caverne d’Ali Baba. »[9]

On retrouve donc la « licence globale », financée par tous les internautes ou sur la base du volontariat, mais également financée par les fournisseurs d’accès qui ont intérêt à avoir des contenus gratuits pour le développement de leurs services. En effet, comme le dit Olivier Bomsel[10], la gratuité est aussi un outil au service des entreprises, pour conquérir le plus rapidement possible une masse critique d’utilisateurs, les innovations numériques voyant leur utilité croître avec le nombre d’usagers, de par les effets de réseau.

Des créateurs ont déjà fait le choix du partage volontaire de leurs oeuvres numériques hors marché. Philippe Aigrain envisage une approche partielle (expérimentale dans un premier temps ?) dans laquelle les ayants droit qui « refuseraient l’inclusion de leurs oeuvres dans un dispositif de partage hors marché garderaient le droit d’en effectuer une gestion exclusive, y compris par des mesures techniques de protection ou par des dispositifs de marquage des oeuvres protégés contre le contournement ». Mais, « ils devraient cependant renoncer à imposer des dispositifs destinés à leurs modèles commerciaux dans l’ensemble de l’infrastructure des réseaux, appareils ou procédures et sanctions. »[11]

Enfin, s’il existe des modèles économiques diversifiés de l’immatériel, il ne faut pas oublier certains fondamentaux. C’est le reproche que Florent Latrive fait à Chris Anderson, « archétype du Californien hype », en référence à son livre paru récemment Free : « Dans son monde, les modèles économiques ne sont l’affaire que des seules entreprises. C’est un monde qui n’existe pas. Chris Anderson zappe largement le rôle de l’État et de la mutualisation fiscale dans sa démonstration. C’est pourtant fondamental : cela fait bien longtemps que l’importance sociale de certains biens, matériels ou immatériels, justifie l’impôt ou la redevance comme source de financement principale ou partielle. La santé gratuite en France n’implique pas le bénévolat des infirmières et des médecins. La gratuité de Radio France ne fait pas de ses journalistes des crève-la-faim »[12]. Effectivement, la santé et l’éducation représentent des coûts importants (des investissements en fait). La question posée n’est donc pas celle de leur gratuité mais celle de l’organisation de l’accès gratuit pour tous aux soins et à l’éducation. La réponse s’appelle sécurité sociale et école gratuite de la République financée par l’impôt.

Il est possible de rémunérer les auteurs, de payer le juste prix et de ne pas payer ce qui est devenu gratuit. Et il est important de cesser d’entrer à reculons dans la société et l’économie numériques.

Notes

[1] Crédit photo : Tibchris (Creative Commons By-Sa)

[2] François Elie, L’économie du logiciel libre, Eyrolles 2009.

[3] Voir J-P. Archambault, « Favoriser l’essor du libre à l’École » , Médialog n°66 et J-P Archambault, « Un spectre hante le monde de l’édition », Médialog n°63.

[4] Concernant la rémunération des auteurs, rappelons qu’elle ne représente en moyenne que 10% du prix d’un produit.

[5] Droits d’auteur et droits voisins dans la société de l’information

[6] Chris Anderson, La longue traîne, 2ème édition, Pearson 2009.

[7] Alain Bazot, « La licence globale : il est temps d’entrer dans l’ère numérique ! », billet posté sur le blog Pour le cinéma – La plateforme des artistes en lutte contre la loi Hadopi

[8] Un bien rival (ou bien privé pur) est un bien pour lequel une unité consommée par un agent réduit d’autant la quantité disponible pour les autres agents.

[9] Nicolas Curien, « Droits d’auteur et Internet : Pourquoi la licence globale n’est pas le diable ? », Janvier 2006.

[10] Olivier Bomsel, Gratuit ! Du développement de l’économie numérique, Folio actuel, 2007.

[11] Philippe Aigrain Internet & création, InLibroVeritas, 2008.

[12] Le modèle économique est un choix éditorial




L’avenir d’Internet selon Laurent Chemla

Roby Ferrari - CC by-saÉcrivain, informaticien et cofondateur du registrar français Gandi, Laurent Chemla est l’une des rares personnes en France capables de véritablement « penser l’Internet », et ce depuis ses origines ou presque.

Je me souviens ainsi avoir particulièrement apprécié son livre Confessions d’un voleur : Internet, la liberté confisquée et la vision pertinente qu’il donnait alors du réseau. Et son article, plus de dix ans déjà, Internet : Le yoyo, le téléporteur, la carmagnole et le mammouth demeure pour moi une solide référence.

C’est pourquoi je félicite InLibroVeritas d’avoir eu la bonne idée de le solliciter pour conclure l’excellent livre chorale La bataille Hadopi. Et pour se rappeler que ce livre, tout comme l’Agenda 2010 Wikimedia d’ailleurs, est plus que jamais disponible à la vente (et au bénéfice de La Quadrature du Net), nous avons choisi d’en reproduire donc ci-dessous ce deuxième extrait, après La neutralité du réseau de Benjamin Bayart.

L’article est, par sa longueur (et non sa pertinence), à la limite du format blog, puisqu’il dépasse allègrement, pensez-donc, la centaine de messages Twitter à lui tout seul ! Mais, que vous le parcouriez ici ou ailleurs, il vaut la peine de s’extirper quelques minutes du flux pour faire le point et tenter d’anticiper ensemble un avenir qui s’annonce mouvementé pour les uns et passionnant pour les autres[1].

Analyse, Synthèse, Prospective

URL d’origine du document

Laurent Chemla – Octobre 2009 – La Bataille Hadopi (InLibroVeritas)
Licence Creative Commons By-Sa et Licence Art Libre

Je l’avoue, j’ai vu le film « District 9 » un mois avant sa sortie en France, en version Hadopisée.

Certes, les extra-terrestres étaient sous-titrés en russe, mais la bande-son était bien en français. Et il s’agissait d’un « cam », c’est à dire d’une capture faite dans une salle de cinéma dans des conditions plus ou moins bonnes et un cadrage quelquefois défaillant.

Est-ce que je le regrette ? Pas davantage que quand je regardais sur ma petite télévision noir et blanc d’étudiant des films que je n’avais pas pu aller voir sur un grand écran en couleurs. Dans les deux cas, l’œuvre est dénaturée, redécoupée, adaptée à un usage qui n’est pas celui que l’auteur avait prévu.

J’ai économisé le prix de la place : pour un film que je n’ai pas aimé et que je n’aurais pas été voir en salle, je ne vois pas très bien où est le problème. Il me semble d’ailleurs que le statu quo ante, même s’il était passé dans les mœurs, n’était peut-être pas si normal que ça : quand j’achète un produit qui s’avère défectueux, ou qui ne convient pas à l’usage que le vendeur m’avait promis (ici : me divertir), je suis en règle générale remboursé… Payer pour voir, je veux bien le faire au poker – c’est un jeu – mais pas pour mes loisirs : quand je paie ma place de cinéma, je ne vois pas au nom de quel droit je devrais avoir une chance de perdre.

Pourtant, c’est illégal. Aujourd’hui.

Les lois changent. Elles naissent, vivent, et meurent. Elles suivent l’évolution des pratiques sociales et des connaissances scientifiques. L’esclavage a existé pendant des millénaires, et le statut de l’esclave a fait l’objet de bien des lois, mais personne, aujourd’hui, n’oserait s’attribuer la propriété d’un autre être humain. Le droit d’auteur n’existe comparativement que depuis peu, mais les tenants de l’ordre établi semblent vouloir absolument qu’il n’évolue que dans le sens où l’auteur aurait toujours plus de droits sur son œuvre et la société toujours moins. Est-ce bien raisonnable ?

À première vue ça semble une évidence : l’auteur est le propriétaire de ce qu’il crée. Mais si on creuse un peu ?

Sans tous ceux qui l’ont précédée et inspirée, une œuvre pourrait-elle exister ? Et sans la société qui l’entoure, ses modes, ses espérances et ses souffrances, l’auteur pourrait-il puiser dans sa seule expérience ce qui fera que son émotion sera partagée par le plus grand nombre ? Bien sûr que non, et c’est la raison pour laquelle les premières lois encadrant le droit d’auteur, à commencer par le statut d’Anne en 1710, étaient des lois d’équilibre entre les intérêts de l’auteur et ceux de la société.

Depuis, loi après loi, siècle après siècle, cet équilibre a largement été rompu au profit non seulement des auteurs mais aussi de tous leurs représentants, au point peut-être de nuire – bien plus que le piratage – à la diffusion de la culture. Que penser par exemple de la durée de protection des œuvres après la mort de l’auteur : passée de 5 ans à l’époque de Mirabeau, 50 ans au 19ème siècle et dans la convention de Berne, puis 70 ans en Europe aujourd’hui, ces durées excessives créent des rentes de situation pour des éditeurs qui ont, du coup, bien d’avantage intérêt à rééditer des ouvrages déjà rentabilisés que de risquer la publication d’œuvres nouvelles. Elle est loin l’époque du Front Populaire où Jean Zay prévoyait – avant d’être assassiné par la milice de Vichy – de limiter de nouveau à 10 ans cette durée avant laquelle un livre pouvait être diffusé par n’importe qui.

Il semble pourtant qu’un tel rééquilibrage soit non seulement devenu nécessaire, mais surtout résolument inévitable.

Et pour commencer : si les privilèges excessifs des auteurs n’étaient pas si criants, il est probable que je me sentirais bien plus coupable lorsque je bafoue leurs droits. Car la loi ne fait pas tout, et l’éthique, ici, pourrait jouer un bien plus grand rôle si seulement le public ne se sentait pas lui-même bafoué. Devenu par la volonté des producteurs un simple consommateur d’une œuvre transformée en produit de supermarché, comment s’étonner s’il ne respecte pas davantage une chanson qu’une pomme tombée d’un étalage ? Et quand a-t’on vu un chanteur ou un acteur remercier lors d’une remise de prix – au-delà de sa famille et de ses amis – la société qui a rendu sa création possible ?

Les droits de paternité de la société sur les œuvres qu’elle produit sont niés, refusés, abrogés au point que l’on oublie jusqu’à leur existence. Mais ils se rappellent d’eux-mêmes au bon souvenir de chacun par le biais de la morale. Car qui se sent aujourd’hui coupable de pirater une chanson dont l’auteur a vendu des millions d’exemplaires et qui fera la fortune de ses enfants et de ses petits-enfants après lui, quelle que soit la quantité de copies illicites qui seront diffusées ? Qui se sent coupable de regarder sans payer un blockbuster qui a déjà plus que largement été un succès outre-atlantique ?

On aura beau agiter l’épouvantail ridicule de la fin de toute création (il suffit de s’être connecté un jour à Internet pour constater de soi-même l’inanité de cet argument, la création est partout et n’a jamais été aussi vivante) : le public, lui, sent bien qu’il ne commet là rien de répréhensible, et aucune loi ne peut aller contre un tel sentiment de justice.

Il faudra donc, si le monde de la culture ne veut pas se couper définitivement de sa base populaire et voir ainsi disparaître le lien qui fait qu’on a envie de rémunérer celui qui nous montre une image de ce que nous sommes, que quelque chose change. Et justement, quelque chose a changé.

Par sa seule existence, Internet a plusieurs effets incontournables : la disparition des intermédiaires, la disparition des frontières, un modèle déflationniste et une nature décentralisée qui le rend non régulable.

D’abord, il tend à faire disparaître les intermédiaires. Ce qui aura surtout des effets dans le monde de la musique et de l’édition. Pourquoi en effet s’encombrer d’un éditeur ou d’une maison de disque quand on peut distribuer soi-même son livre, ou son album, à la terre entière ? Et se faire connaître sur YouTube en filmant un clip suffisamment décalé pour créer du buzz ; et en multipliant ses contacts sur FaceBook et ses followers sur Twitter, et en publiant des billets bien cinglants sur son blog de manière à préparer la sortie de son livre sur InLibroVeritas ?

Bien sûr, ces pratiques ne concernent pas encore la grande majorité des œuvres. Mais la tendance est là pourtant. Sans vouloir être exhaustif, on peut citer des artistes comme Yelle, les Artic Monkeys, Lilly Allen, Lorie et encore beaucoup d’autres qui sont arrivés dans le show business sans passer par les voies habituelles. Et ça ne fait que commencer bien sûr.

Et que dire de la diminution drastique des ventes de musique physique : ironiquement ce sont les majors qui ont initié le mouvement. En préférant la grande distribution aux réseaux de petits disquaires (ils étaient près de 3000 dans les années 70, il n’en restait que moins de 300 à l’aube du 21ème siècle), l’industrie musicale a choisi de pouvoir mieux contrôler les offres de têtes de gondole sans avoir à passer par la critique d’un vendeur passionné. Seulement voilà : Internet se développe, et la logique de concentration de l’offre disparaît du jour au lendemain. à l’espace physique limité dans les bacs des hypermarchés et des FNAC répond la mise à disposition de tous les trésors de nos discothèques, depuis longtemps sortis des stocks et introuvables légalement. Ces albums, qui auraient pu continuer à être vendus par des petites échoppes spécialisées, ont disparu partout, sauf sur Internet. Et Internet fait, bien sûr, de la concurrence à ces chaînes de distribution contrôlées, menant à une réaction toute logique de la grande distribution : ce qui ne se vend plus n’est plus mis en rayon. Le disque se vendant moins, la surface qu’il occupait dans les supermarchés diminue, créant de nouveau un appel d’air pour la distribution en ligne. C’est un cercle vertueux qui lui aussi ne fait que commencer.

On peut sans grand risque parier que, dans un futur proche, l’offre physique aura ainsi presque totalement disparu. Mais elle ne disparaîtra pas seule.

Car qui dit disparition des intermédiaires dit aussi et très logiquement baisse des coûts. Là où il fallait presser des milliers de disques pour être présent dans tous les points de vente physiques en nombre suffisant, il n’y aura plus que de petits pressages, destinés aux passionnés qui ne se satisferont pas de la dématérialisation totale de l’œuvre numérique. Un stock réduit, donc, qui entraînera avec lui quelques industriels spécialisés dans le packaging des CD. Et puisque les majors n’auront plus à leur service une chaîne de distribution captive, il leur deviendra bien difficile de diriger le client vers le dernier chanteur sorti du néant pour vendre de la soupe industrielle préformatée. Alors, que va-t’il se passer ?

D’abord, il faudra bien que soit répercutée sur le prix public la disparition des intermédiaires et des stocks. Le client n’est pas idiot, et si on persiste à vouloir lui vendre de simples fichiers de musique compressée au prix où on lui vendait dans le passé un objet physique de qualité supérieure et disponible immédiatement là où il avait l’habitude de faire ses courses, il n’aura pas de scrupule à aller voir du côté de l’offre pirate. Faire payer autant pour un service et une qualité moindres, c’est à l’évidence un non-sens commercial qui ne pourra que se retourner contre ses tenants.

Ensuite, il faudra bien que les majors acceptent de s’adapter à la réalité plutôt que de vouloir plier celle-ci à des modèles dépassés. Quand dans le passé un artiste devait accepter des contrats léonins pour avoir une chance de convaincre une maison de disque de le « signer », il est probable que dans le futur le rapport de force soit inversé.

L’auteur, surtout celui qui aura pu commencer à se faire un nom sans l’aide de personne, sera dès lors courtisé par des éditeurs qui auront grand intérêt à écumer le web pour ne pas rater la future star. Et il faudra lui offrir autre chose qu’un simple réseau de distribution pour le convaincre : si elle ne lui offre pas des services bien réels, un musicien talentueux n’aura aucune raison de traiter avec une major. Il faudra que celle-ci lui accorde non seulement de bien meilleures conditions, tant matérielles que techniques, mais aussi qu’elle assure sa promotion autrement qu’en lui promettant la tête d’une gondole qui aura coulé depuis longtemps.

C’est ainsi que, probablement, on verra les petits labels indépendants prendre de plus en plus d’importance. Ironiquement, ce sont ceux qui souffrent le plus de la situation actuelle – ils sont bien plus précaires que ces intermédiaires inutiles qui se plaignent de voir fondre leurs bénéfices – auront leur revanche. Une infrastructure moins lourde et plus à même de naviguer dans les réseaux sociaux et les nouveaux médias à la mode, une spécialisation qui leur permettra de cibler un public moins large, mais plus fidèle, et qui leur sera reconnaissant de faire le tri entre le bon grain et l’ivraie, des packagings innovants pour ceux qui souhaitent posséder un objet physique et une qualité d’enregistrement supérieure pour ceux qui se satisferont de musique dématérialisée, tels seront les atouts de nouveaux intermédiaires à valeur ajoutée.

Encore plus important pour l’avenir : la disparition des frontières de l’information.

On mesure encore mal toutes les implications d’une telle révolution. Encore aujourd’hui, il n’est pas rare par exemple de trouver le même disque, le même DVD, pour un tarif 2 ou 3 fois moins élevé sur la version grand-bretonne d’Amazon que sur son équivalent français (le dernier disque du duo « Basement Jaxx, « Scars », sorti le mois dernier, coûte 11 euros sur amazon.co.uk contre 17 euros sur amazon.fr). La preuve est ainsi faite que l’internaute moyen n’est pas encore très au fait du fait qu’il est libre de comparer les prix bien au-delà de ses propres frontières nationales, puisque les marchands n’hésitent pour le moment pas à établir des tarifs en fonction des marchés nationaux.

Mais les choses changeront vite et j’en veux pour preuve l’émergence de services tels que « myus.com », qui permettent aux plus malins de déjouer les tentatives des marchands d’interdire l’achat à qui ne dispose pas d’une adresse postale sur leur territoire. Il semble bien que – même pour les biens matériels – la notion de territoire n’en ait plus pour très longtemps.

Et dans les nombreux effets qu’une telle disparition va causer, il y aura la révolution de ce qu’on appelle la « chronologie des médias », qui va toucher de plein fouet l’industrie cinématographique.

Mise en place dans les années 1980 pour protéger les exploitants de salles de cinéma de la concurrence de la télévision et des supports enregistrés, cette « chronologie » établit une durée minimale entre la sortie d’un film en salle et sa diffusion sous forme d’abord de DVD ensuite télévisuelle.

Dans un monde de frontières intangibles, il fallait pour voir un film avant sa sortie en France se déplacer physiquement dans un pays où il était déjà diffusé (et de préférence en comprendre la langue). Dans le monde où Internet abolit toute notion de frontière physique pour les contenus culturels, il ne passe pas 24 heures avant qu’un petit malin n’enregistre discrètement sur sa caméra vidéo ce qui passe sur le grand écran qu’il regarde. Et pas plus d’une semaine avant que des équipes de toutes nationalités ne sous-titrent le film ainsi mis à la disposition de tous sur les réseaux P2P.

Et c’est ainsi que je peux regarder « District 9 » un mois avant sa sortie en France.

Alors, bien sûr, on pourrait mieux surveiller toutes les salles obscures de tous les pays en y mettant quelques forces de l’ordre chargées d’interdire l’enregistrement du film, on pourrait ensuite faire fermer tous les sites web qui diffusent des liens vers la copie pirate, on pourrait enfin interdire la traduction et punir les gens qui auront téléchargé le film.

On pourrait faire tout ça, mais force est de dire que ce serait très difficile, pour ne pas dire impossible. Alors qu’il serait si simple d’abolir, purement et simplement, toute cette notion de « chronologie des médias ».

C’est entendu : le producteur d’un film ou d’une série américaine aurait dès lors bien du mal à vendre son produit aux télévisions étrangères pour une diffusion décalée dans le temps. Mais ce type de commerce avait un sens lorsqu’il n’existait pas de moyens de diffusion planétaire : aujourd’hui qu’est-ce qui empêcherait – sinon les usages établis – la chaîne Fox de diffuser via son site web des versions de bonne qualité, et sous-titrées dans toutes les langues, de sa série « Dr House » ? Des accords commerciaux, d’accord, mais nul n’oblige cette chaîne à passer de tels accords dans le futur pour ses prochaines séries.

On verrait alors des coupures de publicité – pourquoi pas spécifiques à telle ou telle langue – dans les fichiers librement diffusés par leurs auteurs, sur des serveurs à fort débit. Rien de bien différent de ce qui se passe sur leur télévision nationale, donc. Quant aux diffuseurs des autres pays, il leur restera la possibilité de diffuser des versions doublées plutôt que sous-titrées, ou mieux encore ils feront le choix de créer eux-mêmes des séries d’une qualité suffisante pour attirer un public devenu mondial. C’est la conséquence logique d’une disparition des frontières, et tout mouvement pour contrer cette pente naturelle finira tôt ou tard par se heurter au réel. La chaîne CBS semble l’avoir compris la première, elle qui a récemment annoncé qu’elle n’avait pas l’intention de demander le retrait des séries diffusées sans autorisation sur YouTube : selon elle, la diffusion pirate n’a causé aucun préjudice à l’audience.

Quant aux films de cinéma, qui font de plus en plus souvent l’objet de sorties mondiales, il deviendra de plus en plus difficile de retarder de plusieurs années leur diffusion sur d’autres médias : il existera toujours une attente pour voir sur petit écran des films même pendant qu’ils seront diffusés en salles obscures. L’évolution la plus probable est peut-être à chercher du côté du film de Yann Arthus Bertrand : « Home » a en effet été diffusé dans le même temps à la télévision et sur grand écran, et cela dans tous les pays à la fois. Ce qui ne l’a pas empêché d’être un succès en salle, et d’être pendant plusieurs semaines en tête des ventes de DVD à la FNAC alors même qu’il était parallèlement disponible gratuitement sur Internet. De quoi réfléchir à un futur de la diffusion cinématographique moins sclérosé ?

On entend souvent, comme justification pour la loi Hadopi, qu’il faut absolument empêcher le piratage pour qu’une offre légale puisse se développer. Selon les tenants de cet argument, il serait impossible d’offrir une offre payante s’il existe en face une offre gratuite.

Ca semble logique, mais est-ce pour autant recevable ? Cet état de fait n’est nullement limité aux industries culturelles. Partout, depuis l’avènement du Web, les offres payantes sont concurrencées par des alternatives gratuites. L’information, en premier lieu, en sait quelque chose : toujours à la recherche d’un modèle économique qui tienne un peu la route, les sites d’information payants doivent tous faire face à la diversité et à la gratuité des sources. Et que dire de l’industrie du logiciel commercial, qui doit faire face à la concurrence de plus en plus importante du logiciel libre ? Faudrait-il aussi interdire Linux pour que Windows puisse rester payant ? Et quid des sites de petites annonces, de comparaison des prix et de la qualité des produits… La liste serait aussi longue que celle des activités commerciales au-delà des seuls biens matériels.

Il est bien rare qu’il n’existe aucune contrepartie gratuite, créée par des passionnés, ou financée par d’autres moyens, d’autres modèles économiques, à un site payant. Pour autant, nul n’oserait affirmer qu’à cause de cette concurrence aucun site payant ne peut exister : là encore le réel viendrait démentir lourdement l’argument. Mais il est certain que cet état de fait pousse l’offre commerciale vers la plus grande valeur ajoutée possible – pour se démarquer des offres gratuites moins étoffées – et vers des tarifs toujours plus bas : c’est l’effet déflationniste d’Internet.

Alors, bien sûr, on rétorquera que Linux n’est pas une copie de Windows et qu’à ce titre il n’enfreint pas les lois sur la propriété intellectuelle. Outre qu’une telle affirmation devrait être fortement nuancée (on vient par exemple d’apprendre que certains brevets de Microsoft avaient été rachetés par les grands groupes qui soutiennent Linux pour éviter de futurs procès), la question n’est pas tant la contrefaçon en elle-même que dans le mensonge sous-tendant l’argument de l’impossibilité d’une offre dite « légale » en face de l’offre dite « pirate ».

En 2003 – 6 ans déjà – Philippe Chantepie, alors chargé de mission au ministère de la Culture, affirmait « Il ne s’agit pas d’interdire le P2P, mais d’imaginer une offre alternative cohérente ». On mesure là non seulement l’immense recul de la réflexion politique depuis que le problème se pose, mais surtout le retard pris par l’industrie du disque dans la mise en place d’une telle offre.

Car si l’on reprend les différents modèles des services payants d’Internet, il n’est pas difficile de voir comment une offre légale cohérente pourrait prendre toute sa place sans pour autant légiférer dans l’urgence pour interdire toute alternative comme condition d’une telle offre.

D’abord, le maximum de valeur ajoutée, ensuite un tarif cohérent avec l’existence d’une offre gratuite. Or, que manque-t’il à l’offre « pirate » ? Pas mal de choses en réalité.

À l’évidence, sinon une centralisation de l’offre contraire aux usages d’Internet, au moins la mise en place d’un index centralisé permettant de savoir où acheter la version numérisée du disque que l’on cherche : que ce soit sur le site de l’artiste ou chez un revendeur, il sera nécessaire de faciliter l’achat en laissant à Google le soin de se charger – forcément moins bien – de l’offre concurrente.

Ensuite il faut bien entendu qu’à chaque titre de l’album soient attachées les paroles (s’il y a lieu), mais aussi l’index du titre dans l’album, la date de publication, le genre musical… Et qu’à chaque album soient attachés l’image de la jaquette ainsi que tous les textes et photos présents dans le boitier du CD physique. Bref, tout ce qui fera la différence entre une offre professionnelle et la numérisation faite au bon gré des amateurs qui ne prendront jamais le temps d’être aussi complets que des professionnels.

Il faudra aussi passer aux oubliettes le format MP3 : quelle que soit la qualité de numérisation choisie, ce format implique une perte de qualité par rapport à l’original numérique. Or si la compression des fichiers ainsi obtenue avait une raison d’être il y a quelques années, l’énorme augmentation de la taille de stockage des disques durs ainsi que de la bande passante des accès modernes ne nécessite plus depuis longtemps qu’on se contente d’une qualité moindre. Il faudra donc que les industriels se mettent d’accord sur un format « sans perte » qui sera adopté n’en doutons pas très rapidement par les fabricants de lecteurs portables.

Enfin, bien entendu, il faudra revoir à la baisse le prix d’un album numérique. Outre le fait qu’il coûte moins cher à produire que le disque physique – fait qui à lui seul devrait impliquer un tarif largement moindre – il faudra aussi que ce prix prenne en compte la disparition des intermédiaires que l’on a déjà vue, et qu’en soit donc déduite la part qui leur revenait.

Ainsi, si l’industrie musicale cessait de croire qu’elle pourra forcer le monde à faire marche arrière, on voit aisément la forme que devrait avoir la fameuse « offre légale » pour concurrencer avec succès tout ce que le monde de la flibusterie pourra lui opposer : l’exhaustivité de l’offre, des albums numériques aussi complets que leur équivalent physique, d’une qualité numérique irréprochable et à un prix « défiant toute concurrence ». Là sera le salut du modèle payant, et certainement pas dans la lutte illusoire pour faire disparaître toute concurrence.

Gageons qu’un jour viendra bientôt où nos majors cesseront de dépenser leur fortune en lobbying pour enfin se mettre au travail et nous présenter une alternative payante digne de ce nom. Il est plus que temps. Car, pendant qu’elles combattent des moulins à vent, l’offre pirate de qualité s’étoffe et – surtout – les artistes, auteurs, interprètes qu’elles avaient laissés de côté ont bel et bien commencé à s’organiser pour diffuser leurs albums sur les plates-formes de musique libre (dogmazic, jamendo, magnatune…) et pour mettre en place des systèmes de rémunération innovants (SARD).

Pourtant, quoi qu’elles fassent, l’essor de la culture libre semble largement irréversible aujourd’hui, comme l’était celui du logiciel libre il y a 10 ans.

Si les informaticiens ont compris les premiers que le partage de l’information était nécessaire à la création de logiciels toujours plus innovants, ce n’est peut-être pas un hasard. Le droit d’auteur dans le domaine du logiciel est récent, et avant les années 1970 il n’était même pas certain qu’il s’y applique. D’autant plus que les fabricants d’ordinateurs, en concurrence les uns avec les autres, se devaient d’offrir à leurs clients une base logicielle la plus large possible, et à cet effet n’hésitaient pas à diffuser très largement les outils permettant de développer ces logiciels (y compris le code source de ceux qu’ils avaient eux-même développés). Aujourd’hui encore, il n’est guère surprenant de voir des fabricants comme IBM soutenir le logiciel libre : la main-mise d’un unique vendeur de logiciel – Microsoft – sur le marché qui le fait vivre est un risque industriel qu’une grande entreprise ne peut pas se permettre. Il se doit donc de faire en sorte que la concurrence s’exerce au maximum pour ne pas dépendre d’une offre unique.

L’art libre, au-delà des aspects philosophiques qui président à sa nécessaire existence, n’est lui-même pas étranger à ces notions économiques. Entre des majors toutes-puissantes et des indépendants peu connus qui ont du mal à exister dans un marché en pleine crise, les artistes ont peu de choix s’ils n’ont pas eu la chance d’être remarqués par les unes ou les autres. Ainsi, l’image du musicien qui se déplaçait avec sa maquette pour tenter d’obtenir quelque passage à la radio est désormais remplacée par celle du génie qui, par son seul talent, va émerger de la masse anonyme qui diffuse ses œuvres sur Internet.

L’histoire n’est évidemment pas si simple, et il ne suffit pas d’être excellent pour être remarqué. Il faut aussi savoir se servir de cet outil, en connaître les moteurs, comprendre comment faire du « buzz » ou disposer du temps nécessaire pour se créer peu à peu une audience, bref : être un bon commerçant de sa propre image. Là où dans le passé l’artiste se reposait sur ses producteurs pour être mis en avant, il doit désormais apprendre à faire ce travail préalable seul, à peine aidé par les plates-formes de diffusion de culture libre. Sans même parler de vendre assez pour vivre, l’urgence sur Internet est de savoir se faire connaître. Et dans cette optique, il sera mal vu de demander à ses futurs clients de payer d’abord. La culture « libre » a de beaux jours devant elle, de la même manière qu’à mon époque il fallait, pour se faire un nom dans le milieu de la programmation, faire des « démos » largement diffusées pour prouver son talent.

À cet égard, la nouvelle génération née avec un clavier d’ordinateur entre les mains aura à court terme un avantage décisif sur ses parents, et il est probable que de plus en plus de nos idoles soient issues de cette culture du libre. Rompues aux réseaux sociaux, disposant depuis toujours d’une base « d’amis » et de « suiveurs », habituées à partager leur quotidien, nos nouvelles stars n’auront pas à apprendre ces notions pour atteindre une renommée que les anciens espéraient à peine. Élevés dans la logique de partage d’Internet, nos enfants n’hésiteront pas à diffuser librement leurs œuvres tant qu’ils n’auront pas atteint la notoriété nécessaire pour vivre de leur passion. Et même alors, ils sauront sans doute éviter les pièges d’une logique entièrement commerciale tant qu’ils seront eux-mêmes concurrencés par leurs pairs et l’offre gratuite qui persistera.

Loin de risquer la sclérose annoncée par les hérauts du tout-marchand, la culture va connaître, grâce à Internet, une nouvelle Renaissance.

Reste que pour qu’il soit le moteur annoncé de l’évolution du droit d’auteur, ainsi que d’une offre culturelle plus large, moins chère et de meilleure qualité, il faudra qu’Internet ne soit pas bâillonné par des lois rétrogrades visant à empêcher son essor.

Il ne passe guère de jour sans que tel ou tel homme politique ne nous assène qu’il faut – à tout prix – réguler ce « far-west » où seule la loi du plus fort s’appliquerait.

Bien sûr, cette caricature tient beaucoup au fait que la plupart d’entre eux n’apprécient guère de se voir porter la contradiction par de simples citoyens sur la place publique, habitués qu’ils étaient à disposer seuls de l’attention des médias anciens. Mais pour certains cela va plus loin, et la volonté de contrôler tout l’espace médiatique est telle qu’ils n’hésiteront pas à tenter de museler un espace de liberté qu’ils considèrent comme un vrai danger.

Ils ont raison.

Non pas qu’Internet soit un espace de non-droit : cette idée ridicule a toujours été battue en brèche tant les divers procès qui ont accompagné son évolution ont montré que le droit s’y appliquait avec toute sa rigueur. Quant aux fantasmes du pirate néo-nazi pédophile, nos élites sont plus promptes à les dénoncer dans le cyberespace (où la très grande majorité d’entre nous ne les a jamais croisé) que dans les rangs de leurs amis politiques ou médiatiques… La démagogie a du mal à exister dans un lieu où la contradiction est accessible à tout un chacun et où rien ne s’oublie.

Non : le vrai danger, pour eux, est dans la démonstration quotidienne de leur aveuglement. Plus ils crient que la gratuité n’existe pas et que le marché est tout-puissant, plus leurs concitoyens constatent l’inverse dans ce vaste réseau de partage des connaissances et des opinions. Plus ils affirment que la liberté de parole est dangereuse pour la démocratie, plus le succès des blogs politiques augmente. Plus ils expliquent qu’ils ne maîtrisent pas ces nouveaux outils – relégués à d’obscurs assistants parlementaires, plus le nombre de familles connectées croît.

Alors ils légifèrent. Depuis 1995 et la première émission de télévision traitant du phénomène Internet, on ne compte plus les lois qui ont tenté de « réguler » (lire « contrôler ») ce nouveau média. Le premier, François Fillon avait tenté en 1997 déjà de créer un « Conseil Supérieur de l’Internet » qui devait avoir la haute main sur tout ce qui était publié sur le Web. Déjà, il fut censuré par le Conseil Constitutionnel. Vinrent ensuite diverses tentatives, de droite comme de gauche, toutes avortées. La Commission Beaussant (qui cherchait à imposer aux hébergeurs, par contrat, l’obligation de respecter les décisions d’un comité Théodule chargé de censurer les sites irrévérencieux) dont le rapport fut mis au panier. L’amendement Bloche, tellement remanié par nos deux assemblées qu’il n’en est presque rien resté après son passage devant les mêmes sages. La LCEN de 2004, si stricte dans la forme qu’elle en est presque inapplicable. Et la DADVSI de 2006, qui impose le respect de mesures de protection anti-piratage abandonnées depuis par quasiment tous les industriels…

Une longue suite d’échecs patents qui – forcément – ridiculisent par avance les tentatives futures.

Car il n’est pas facile de faire des lois (forcément nationales) pour encadrer Internet (fondamentalement international). Le réseau est mouvant, il change quotidiennement et ses usages sont loin d’être établis. Il mute bien plus vite que nos législateurs ne sont capables de le prévoir. Hadopi n’était pas encore adoptée que ses contre-mesures étaient déjà en place. Et la future LOPPSI, dernière resucée de ces tentatives de créer une police privée chargée de la censure du réseau, se heurtera sans doute et malgré le volontarisme affiché de notre Président aux mêmes écueils que ses prédécesseurs : l’article 11 de notre Constitution est difficilement contournable, et Internet n’a jamais été prévu pour être centralisé de manière à permettre quelque contrôle que ce soit.

Cependant, ces essais ont bel et bien un effet. Mais sans doute pas celui que nos gouvernants espèrent…

Il y a à ce jour 28 millions d’abonnés à Internet en France. Plus d’un foyer sur deux est connecté. Très bientôt, la majorité de nos concitoyens auront goûté à la liberté d’expression que permet (enfin) cet outil. Qui peut dire aujourd’hui ce que signifie le fait que 28 millions de personnes aient désormais, dans ce pays, accès à la parole publique ?

Que deviendront les mondes associatifs et politiques quand ils verront arriver le flux de millions de gens désormais habitués à prendre la parole ? Que sera cet avenir où tout citoyen pourra non seulement débattre publiquement de ses opinions, mais aussi apprendre à les confronter à d’autres, mais encore réussir à se convaincre que sa parole est toute aussi importante que n’importe quelle autre. Que sera un monde dans lequel les enfants n’auront plus à demander la parole pour l’obtenir, au gré des parents et des maîtres, puis des médias et des politiciens ?

En s’attaquant à la liberté d’expression sur Internet, comme ils le font en critiquant, légiférant et Hadopisant, ils ne font pas que se heurter à une technologie définitivement non régulable. Ils lèvent aussi, contre eux, toute une génération de futurs acteurs qui seront devenus conscients de leur pouvoir et de leurs actes, et qui auront été formés comme jamais au fonctionnement de nos institutions, comme le sont tous les gamins qui ont suivi les débats et les méandres du feuilleton d’Hadopi.

Ils élèvent, de fait, tous ceux qui les enterreront par des compétences acquises à la dure – et autre part que sur les bancs bien sages de Science-Po et de l’ENA. Car que dire sinon la désolation que provoque l’écoute de ces politiciens professionnels, visiblement dépassés par un dossier qu’ils ne maîtrisent pas, qui avouent leur méconnaissance totale de cet outil pourtant utilisé par la majorité de leurs électeurs, et qui tremblent de peur devant cette évolution qu’ils n’ont ni voulue ni prévue ?

Comment croyez-vous que va réagir l’étudiant né dans le monde numérique quand il écoute un député annonçant des arguments débiles (« dans 20 ans plus personne n’achètera de CD », quel visionnaire !), mauvais orateur, répétant à l’envi des antiennes largement démontrées comme étant de purs mensonges ? Que croirez-vous qu’il se dira, sinon qu’un député grassement payé à ne presque rien faire ne mérite pas son poste ?

Car c’est vers ça qu’on se dirige, si vous m’en croyez. La révolution ne viendra pas des urnes, ou pas seulement, mais bien surtout de la réaction non aux idées mais à l’indigence des débats publics quand on les compare à la richesse des débats numériques.

Combien de bloggeurs d’aujourd’hui seront nos penseurs de demain ? Et quel talent, si l’on les compare à nos tristes habitués des plateaux télé. Quel verbe que celui d’un simple utilisateur de Twitter, habitué à faire passer son opinion en seulement 140 caractères, quand on le compare aux discours mal rédigés par des attachés parlementaires bien pâlots.


Et que croyez-vous que pensent tous ces utilisateurs d’Internet, lorsqu’ils s’envoient des adresses de billets tous plus intelligents les uns que les autres, quand ils constatent la bêtise flagrante de ceux qui sont sensés les représenter mais ne représentent finalement que les intérêts des grands industriels pourvoyeurs de financements politiques et de futures reconversions dans des postes de parachutistes dorés ?

Certes, il faudra du temps. On ne passe pas du jour au lendemain de MSN à la politique. Mais ce temps-là sera passé en lutte, et ces luttes accoucheront d’hommes d’État, je veux le croire, plutôt que d’hommes politiques. Elle seront menées contre la réaction à une évolution nécessaire et inéluctable de nos sociétés, et parce qu’elle se heurteront à cette réaction, elles ne feront guère de réactionnaires. Et les premiers mouvements comme les différents « partis pirates » d’Europe ne sont que les prémices d’un futur qui balaiera je l’espère la caste des parlementaires, idiots inutiles de la République.

C’est vrai : nul ne peut dire ce qu’il adviendra. Mais je peux sans trop de risque, après avoir observé l’évolution d’Internet depuis plus de 17 ans maintenant – déjà – prédire que le futur ne sera pas rose pour ces politiciens qui n’ont jamais connu de réelle concurrence et qui vont devoir s’y résigner.

Notes

[1] Crédit photo : Roby Ferrari (Creative Commons By-Sa)




L’ouverture selon Google : « The meaning of open » traduit en français

Zach Klein - CC byLe Framablog termine l’année avec une traduction de poids qui offre quelque part une excellente transition entre la décennie précédente et la décennie suivante, parce que le vaste sujet évoqué sera, mais en fait est déjà, un enjeu crucial pour l’avenir.

Le mot « open » est servi à toutes les sauces en ce moment dans le monde anglophone. Un peu comme l’écologie, c’est un mot à la mode qui pénètre de plus en plus de domaines, et tout le monde se doit de l’être ou de feindre de l’être sous peine d’éveiller les soupçons, voire la réprobation.

Mais dans la mesure où il n’en existe pas de définition précise, chacun le comprend comme il veut ou comme il peut. Et l’écart peut être grand entre un logiciel libre et une multinationale qui se déclarent tous deux comme « open ». Une multinationale comme Google par exemple !

Il n’est pas anodin que le vice-président de la gestion des produits et du marketing, Jonathan Rosenberg, ait pris aujourd’hui sa plume pour publiquement expliquer (ou tenter d’expliquer) dans le détail ce que Google entendait par « open », dans un récent billet du blog officiel de la société intitulé, excusez du peu, The meaning of Open (comme d’autres s’interrogent sur the meaning of life).

Tout comme l’autre géant Facebook, Google est en effet actuellement sous la pression de ceux qui, entre autres, s’inquiètent du devenir des données personnelles traitées par la société[1]. Et cette pression ira croissante au fur et à mesure que Google aura une place de plus en plus grande sur Internet, à grands coups de services qui se veulent à priori tous plus intéressants les uns que les autres.

« Don’t be evil » est le slogan à double tranchant que s’est donné Google. Nous ne sommes certainement pas en face du diable, mais ce n’est pas pour autant que nous allons lui accorder le bon Dieu sans confession.

À vous de juger donc si, dans le contexte actuel, ce document est une convaincante profession de foi.

Nous avons choisi de traduire tout du long « open » par « ouverture » ou « ouvert ». L’adéquation n’est pas totalement satisfaisante, mais laisser le terme d’origine en anglais eut été selon nous plus encore source de confusion.

L’ouverture selon Google

Google and The meaning of open

Jonathan Rosenberg – 21 décembre 2009 – Blog officiel de Google
(Traduction non officielle Framalang : Goofy et Olivier)

La semaine dernière j’ai envoyé un email interne sur le sens de « l’ouverture » appliquée à Internet, Google et nos utilisateurs. Dans un souci de transparence, j’ai pensé qu’il pouvait être opportun de partager également ces réflexions à l’extérieur de notre entreprise.

Chez Google nous sommes persuadés que les systèmes ouverts l’emporteront. Ils conduisent à davantage d’innovation, de valeur, de liberté de choix pour les consommateurs et à un écosystème dynamique, lucratif et compétitif pour les entreprises. Un grand nombre d’entre elles prétendront à peu près la même chose car elles savent que se positionner comme ouvertes est à la fois bon pour leur image de marque et totalement sans risque. Après tout, dans notre industrie il n’existe pas de définition précise de ce que peut signifier « ouvert ». C’est un terme à la Rashomon (NdT : expression issue du film éponyme de Kurosawa) : à la fois extrêmement subjectif et d’une importance vitale.

Le thème de l’ouverture est au centre de nombreuses discussions ces derniers temps chez Google. J’assiste à des réunions autour d’un produit où quelqu’un déclare que nous devrions être davantage « ouverts ». Il s’ensuit un débat qui révèle que même si l’« ouverture » fait l’unanimité, nous ne sommes pas forcément d’accord sur ce qu’elle implique concrètement.

Face à ce problème récurrent, j’en arrive à penser que nous devrions exposer notre définition de l’ouverture en termes suffisamment clairs, afin que chacun puisse la comprendre et la défendre. Je vous propose ainsi une définition fondée sur mes expériences chez Google et les suggestions de plusieurs collègues. Ces principes nous guident dans notre gestion de l’entreprise et dans nos choix sur les produits, je vous encourage donc à les lire soigneusement, à les commenter et les débattre. Puis je vous invite à vous les approprier et à les intégrer à votre travail. Il s’agit d’un sujet complexe et si un débat à lieu d’être (ce dont je suis persuadé), il doit être ouvert ! Libre à vous d’apporter vos commentaires.

Notre définition de l’ouverture repose sur deux composantes : la technologie ouverte et l’information ouverte. La technologie ouverte comprend d’une part l’open source, ce qui veut dire que nous soutenons activement et publions du code qui aide Internet à se développer, et d’autre part les standards ouverts, ce qui signifie que nous adhérons aux standards reconnus et, s’il n’en existe pas, nous travaillons à la création de standards qui améliorent Internet (et qui ne profitent pas seulement à Google). L’information ouverte comprend selon nous trois idées principales : tout d’abord les informations que nous détenons sur nos utilisateurs servent à leur apporter une valeur ajoutée, ensuite nous faisons preuve de transparence sur les informations les concernant dont nous disposons, et enfin nous leur donnons le contrôle final sur leurs propres informations. Voilà le but vers lequel nous tendons. Dans bien des cas nous ne l’avons pas encore atteint, mais j’espère que la présente note contribuera à combler le fossé entre la théorie et la pratique.

Si nous pouvons incarner un engagement fort à la cause de l’ouverture, et je suis persuadé que nous le pouvons, nous aurons alors une occasion unique de donner le bon exemple et d’encourager d’autres entreprises et industries à adopter le même engagement. Et si elles le font, le monde s’en trouvera un peu meilleur.

Les systèmes ouverts sont gagnants

Pour vraiment comprendre notre position, il faut commencer par l’assertion suivante : les systèmes ouverts sont gagnants. Cela va à l’encontre de tout ce en quoi croient ceux qui sont formatés par les écoles de commerce, ceux qui ont appris à générer une avantage compétitif durable en créant un système fermé, en le rendant populaire, puis en tirant profit du produit pendant tout son cycle de vie. L’idée répandue est que les entreprises devraient garder les consommateurs captifs pour ne laisser aucune place à la concurrence. Il existe différentes approches stratégiques, les fabricants de rasoirs vendent leurs rasoirs bon marché et leurs lames très cher, tandis que ce bon vieux IBM fabrique des ordinateurs centraux coûteux et des logiciels… coûteux aussi. D’un autre côté, un système fermé bien géré peut générer des profits considérables. Cela permet aussi à court terme de mettre sur le marché des produits bien conçus, l’iPod et l’iPhone en sont de bons exemples, mais finalement l’innovation dans un système fermé tend à être, au mieux, incrémentale (est-ce qu’un rasoir à quatre lames est vraiment tellement mieux qu’un rasoir à trois lames ?). Parce que la priorité est de préserver le statu quo. L’autosatisfaction est la marque de fabrique de tous les systèmes fermés. Si vous n’avez pas besoin de travailler dur pour garder votre clientèle, vous ne le ferez pas.

Les systèmes ouverts, c’est exactement l’inverse. Ils sont compétitifs et bien plus dynamiques. Dans un système ouvert, un avantage compétitif n’est pas assujetti à l’emprisonnement des consommateurs. Il s’agit plutôt de comprendre mieux que tous les autres un système très fluctuant et d’utiliser cette intuition pour créer de meilleurs produits plus innovants. L’entreprise qui tire son épingle du jeu dans un système ouvert est à la fois douée pour l’innovation rapide et la conception avant-gardiste ; le prestige du leader dans la conception attire les consommateurs et l’innovation rapide les retient. Ce n’est pas facile, loin de là, mais les entreprises qui réagissent vite n’ont rien à redouter, et lorsqu’elles réussissent elles peuvent générer de gigantesques dividendes.

Systèmes ouverts et entreprises prospères ne sont pas inconciliables. Ils tirent parti de l’intelligence collective et incitent les entreprises à une saine concurrence, à l’innovation et à miser leur succès sur le mérite de leurs produits et pas seulement sur un brillant plan marketing. La course à la carte du génome humain est un bon exemple.

Dans leur livre Wikinomics, Don Tapscott et Anthony Williams expliquent comment, au milieu des années 90, des entreprises privées ont découvert et breveté de grandes portions des séquences de l’ADN et ont prétendu contrôler l’accès à ces données et leur tarif. Faire ainsi du génome une propriété privée a fait grimper les prix en flèche et a rendu la découverte de nouveaux médicaments bien plus difficile. Et puis, en 1995, Merck Pharmaceuticals et le Centre de Séquençage du Génome de l’Université de Washington ont changé la donne avec une nouvelle initiative « ouverte » baptisée l’Index Génétique Merck. En trois ans seulement ils ont publié plus de 800 000 séquences génétiques et les ont mises dans le domaine public et bientôt d’autres projets collaboratifs ont pris le relais. Tout cela au sein d’un secteur industriel où la recherche initiale et le développement étaient traditionnellement menés dans des laboratoires « fermés ». Par sa démarche « ouverte », Merck a donc non seulement modifié la culture d’un secteur entier mais aussi accéléré le tempo de la recherche biomédicale et le développement des médicaments. L’entreprise a donné aux chercheurs du monde entier un accès illimité à des données génétiques, sous forme d’une ressource « ouverte ».

Les systèmes ouverts permettent l’innovation à tous les niveaux, voilà une autre différence majeure entre les systèmes ouverts et fermés. Ils permettent d’innover à tous les étages, depuis le système d’exploitation jusqu’au niveau de l’application, et pas uniquement en surface. Ainsi, une entreprise n’est pas dépendante du bon vouloir d’une autre pour lancer un produit. Si le compilateur GCC que j’utilise a un bogue, je peux le corriger puisque le compilateur est open source. Je n’ai pas besoin de soumettre un rapport de bogue et d’espérer que la réponse arrivera rapidement.

Donc, si vous essayez de stimuler la croissance d’un marché entier, les systèmes ouverts l’emportent sur les systèmes fermés. Et c’est exactement ce que nous nous efforçons de faire avec Internet. Notre engagement pour les systèmes ouverts n’est pas altruiste. C’est simplement dans notre intérêt économique puisque un Internet ouvert génère un flot continu d’innovations qui attirent les utilisateurs et créé de nouveaux usages, pour finalement faire croître un marché tout entier. Hal Varian note cette équation dans son livre Les règles de l’information :

 le gain = (la valeur totale ajoutée à une industrie) x (la part de marché dans cette industrie) 

Toutes choses étant égales par ailleurs, une augmentation de 10% de l’un ou l’autre de ces deux facteurs devrait produire au résultat équivalent. Mais dans notre marché une croissance de 10% génèrera un revenu bien supérieur parce qu’elle entraîne des économies d’échelle dans tout le secteur, augmentant la productivité et réduisant les coûts pour tous les concurrents. Tant que nous continuerons d’innover en sortant d’excellents produits, nous prospèrerons en même temps que tout notre écosystème. Nous aurons peut-être une part plus petite, mais d’un plus grand gâteau.

En d’autres termes, l’avenir de Google dépend de la sauvegarde d’un Internet ouvert, et notre engagement pour l’ouverture développera le Web pour tout le monde, y compris Google.

La technologie ouverte

Pour définir l’ouverture, il faut commencer par les technologies sur lesquelles repose Internet : les standards ouverts et les logiciels open source.

Les standards ouverts

Le développement des réseaux a toujours dépendu des standards. Lorsqu’on a commencé à poser des voies ferrées à travers les États-Unis au début du 19ème siècle, il existait différents standards d’écartement des voies. Le réseau ferré ne se développait pas et n’allait pas vers l’ouest jusqu’à ce que les diverses compagnies ferroviaires se mettent d’accord sur un écartement standard. (Dans ce cas précis la guerre de standards a été une vraie guerre : les compagnies ferroviaires sudistes furent obligées de convertir plus de 1100 miles au nouveau standard après que la Confédération eut perdu contre l’Union pendant la Guerre Civile.)

Il y eut un autre précédent en 1974 quand Vint Cerf et ses collègues proposèrent d’utiliser un standard ouvert (qui deviendrait le protocole TCP/IP) pour connecter plusieurs réseaux d’ordinateurs qui étaient apparus aux USA. Ils ne savaient pas au juste combien de réseaux avaient émergé et donc « l’Internet », mot inventé par Vint, devait être ouvert. N’importe quel réseau pouvait se connecter en utilisant le protocole TCP/IP, et grâce à cette décision à peu près 681 millions de serveurs forment aujourd’hui Internet.

Aujourd’hui, tous nos produits en développement reposent sur des standards ouverts parce que l’interopérabilité est un élément crucial qui détermine le choix de l’utilisateur. Quelles en sont les implications chez Google et les recommandation pour nos chefs de projets et nos ingénieurs ? C’est simple : utilisez des standards ouverts autant que possible. Si vous vous risquez dans un domaine où les standards ouverts n’existent pas, créez-les. Si les standards existants ne sont pas aussi bons qu’ils le devraient, efforcez-vous de les améliorer et rendez vos améliorations aussi simples et documentées que possible. Les utilisateurs et le marché au sens large devraient toujours être nos priorités, pas uniquement le bien de Google. Vous devriez travailler avec les organismes qui établissent les normes pour que nos modifications soient ajoutées aux spécifications validées.

Nous maitrisons ce processus depuis un certain temps déjà. Dans les premières années du Google Data Protocol (notre protocole standard d’API, basé sur XML/Atom), nous avons travaillé au sein de l’IEFT (Atom Protocol Working Group) à élaborer les spécifications pour Atom. Mentionnons aussi notre travail récent au WC3 pour créer une API de géolocation standard qui rendra plus facile le développement d’applications géolocalisées pour le navigateur. Ce standard aide tout le monde, pas seulement nous, et offrira aux utilisateurs beaucoup plus d’excellentes applications mises au point par des milliers de développeurs.

Open source

La plupart de ces applications seront basées sur des logiciels open source, phénomène à l’origine de la croissance explosive du Web de ces quinze dernières années. Un précédent historique existe : alors que le terme « Open Source » a été créé à la fin des années 90, le concept de partage de l’information utile dans le but de développer un marché existait bien avant Internet. Au début des années 1900, l’industrie automobile américaine s’accorda sur une licence croisée suivant laquelle les brevets étaient partagés ouvertement et gratuitement entre fabricants. Avant cet accord, les propriétaires du brevet des moteurs à essence à deux temps contrôlaient carrément l’industrie.

L’open source de nos jours va bien plus loin que le groupement de brevets de l’industrie automobile naissante, et a conduit au développement des composants logiciels sur lesquels est bâti Google : Linux, Apache, SSH et d’autres. En fait, nous utilisons des dizaines de millions de lignes de code open source pour faire tourner nos produits. Nous renvoyons aussi l’ascenseur : nous sommes les plus importants contributeurs open source du monde, avec plus de 800 projets pour un total de 20 millions de lignes de code open source, avec quatre projets (Chrome, Android, Chrome OS et le Google Web Toolkit) qui dépassent chacun un million de lignes. Nos équipes collaborent avec Mozilla et Apache et nous fournissons une plateforme d’hébergement de projets open source (code.google.com/hosting) qui en accueille plus de 250 000. Ainsi, non seulement nous savons que d’autres peuvent participer au perfectionnement de nos produits, mais nous permettons également à tout un chacun de s’inspirer de nos produits s’il estime que nous n’innovons plus assez.

Lorsque nous libérons du code, nous utilisons la licence ouverte, standard, Apache 2.0, ce qui signifie que nous ne contrôlons pas le code. D’autres peuvent s’en emparer, le modifier, le fermer et le distribuer de leur côté. Android en est un bon exemple, car plusieurs assembleurs OEM ont déjà tiré parti du code pour en faire des choses formidables. Procéder ainsi comporte cependant des risques, le logiciel peut se fragmenter entre différentes branches qui ne fonctionneront pas bien ensemble (souvenez-vous du nombre de variantes d’Unix pour station de travail : Apollo, Sun, HP, etc.). Nous œuvrons d’arrache-pied pour éviter cela avec Android.

Malgré notre engagement pour l’ouverture du code de nos outils de développement, tous les produits Google ne sont pas ouverts. Notre objectif est de maintenir un Internet ouvert, qui promeut le choix et la concurrence, empêchant utilisateurs et développeurs d’être prisonniers. Dans de nombreux cas, et particulièrement pour notre moteur de recherche et nos projets liés à la publicité, ouvrir le code ne contribuerait pas à atteindre ces objectifs et serait même dommageable pour les utilisateurs. La recherche et les marchés publicitaires se livrent déjà une concurrence acharnée pour atteindre les prix les plus justes, si bien que les utilisateurs et les publicitaires ont déjà un choix considérable sans être prisonniers. Sans parler du fait qu’ouvrir ces systèmes permettrait aux gens de « jouer » avec nos algorithmes pour manipuler les recherches et les évaluations de la qualité des publicités, en réduisant la qualité pour tout le monde.

Alors lorsque que vous créez un produit ou ajoutez de nouvelles fonctions, il faut vous demander : est-ce que rendre ce code open source va promouvoir un Internet ouvert ? Est-ce qu’il va augmenter le choix de l’utilisateur, du publicitaire et des partenaires ? Est-ce qu’il va en résulter une plus grande concurrence et davantage d’innovation ? Si c’est le cas, alors vous devriez passer le code en open source. Et quand vous le ferez, faite-le pour de bon ; ne vous contentez pas de le balancer dans le domaine public et puis de l’oublier. Assurez-vous que vous avez les ressources pour maintenir le code et que vos développeurs soient prêt à s’y consacrer. Le Google Web Toolkit, que nous avons développé en public en utilisant un gestionnaire de bogues et un système de version publics, est ainsi un exemple de bonnes pratiques.

L’information ouverte

La création des standards ouverts et de l’open source a transformé le Web en un lieu où d’énormes quantités d’informations personnelles sont régulièrement mises en ligne : des photos, des adresses, des mises à jour… La quantité d’informations partagées et le fait qu’elles soient enregistrées à jamais impliquent une question qu’on ne se posait pas vraiment il y a quelques années : qu’allons-nous faire de ces informations ?

Historiquement, les nouvelles technologies de l’information ont souvent permis l’émergence de nouvelles formes de commerce. Par exemple, quand les marchands du bassin méditerranéen, vers 3000 avant JC ont inventé les sceaux (appelés bullae) pour s’assurer que leur cargaison atteindrait sa destination sans être altérée, ils ont transformé un commerce local en commerce longue distance. Des modifications semblables ont été déclenchées par l’apparition de l’écriture, et plus récemment, par celle des ordinateurs. À chaque étape, la transaction, un accord mutuel où chaque partie trouve son compte, était générée par un nouveau type d’information qui permettait au contrat d’être solidement établi.

Sur le Web la nouvelle forme de commerce, c’est l’échange d’informations personnelles contre quelque chose qui a de la valeur. C’est une transaction à laquelle participent des millions d’entre nous chaque jour et qui a d’énormes avantages potentiels. Un assureur automobile peut surveiller les habitudes de conduite d’un client en temps réel et lui donner un bonus s’il conduit bien, un malus dans le cas contraire, grâce aux informations (suivi GPS) qui n’étaient pas disponibles il y a seulement quelques années. C’est une transaction tout à fait simple, mais nous rencontrerons des cas de figure bien plus délicats.

Supposons que votre enfant ait une allergie à certains médicaments. Est-ce que vous accepteriez que son dossier médical soit accessible par une seringue intelligente en ligne qui empêcherait un médecin urgentiste ou une infirmière de lui administrer accidentellement un tel médicament ? Moi je pourrais le faire, mais vous pourriez décider que le bracelet autour de son poignet est suffisant (NdT : voir allergy bracelet). Et voilà le problème, tout le monde ne prendra pas la même décision, et quand on en vient aux informations personnelles nous devons traiter chacune de ces décisions avec le même respect.

Mais si mettre davantage d’informations en ligne peut être bénéfique pour tout le monde, alors leurs usages doivent être régis par des principes suffisamment responsables, proportionnés et flexibles pour se développer et s’adapter à notre marché. Et à la différence des technologies ouvertes, grâce auxquelles nous souhaitons développer l’écosystème d’Internet, notre approche de l’information ouverte est de créer la confiance avec les individus qui s’engagent dans cet écosystème (les utilisateurs, les partenaires et les clients). La confiance est la monnaie la plus importante en ligne, donc pour la créer nous adhérons à trois principes de l’information ouverte : valeur, transparence et contrôle.

La valeur

En premier lieu, nous devons créer des produits qui ont une valeur aux yeux des utilisateurs. Dans de nombreux cas, nous pouvons faire des produits encore meilleurs si nous disposons de davantage d’informations sur l’utilisateur, mais des problèmes de protection de la vie privée peuvent survenir si les gens ne comprennent pas quelle valeur ajoutée ils obtiennent en échange de leurs informations. Expliquez-leur cette valeur cependant, et le plus souvent ils accepteront la transaction. Par exemple, des millions de gens laissent les organismes de cartes de crédit retenir leurs informations au moment de l’achat en ligne, en échange cela leur évite d’utiliser de l’argent liquide.

C’est ce que nous avons fait lorsque nous avons lancé Interest-Based Advertising (la publicité basée sur l’intérêt des utilisateurs) en mars. L’IBA rend les publicités plus pertinentes et plus utiles. C’est une valeur ajoutée que nous avons créée, basée sur les informations que nous collectons. L’IBA comprend aussi un gestionnaire de préférences de l’utilisateur qui lui explique clairement ce qu’il obtiendra en échange de ses informations, qui lui permet de se désengager ou de régler ses paramètres. La plupart des gens parcourant le gestionnaire de préférences choisissent de régler leurs préférences plutôt que de se désinscrire parce qu’ils ont pris conscience de l’intérêt de recevoir des publicités ciblés.

Telle devrait être notre stratégie : dire aux gens, de façon explicite et en langage clair, ce que nous savons d’eux et pourquoi il leur est profitable que nous le sachions. Vous croyez peut-être que la valeur de nos produits est tellement évidente qu’elle n’a pas besoin d’être expliquée ? Pas si sûr.

La transparence

Ensuite, il nous faut permettre aux utilisateurs de trouver facilement quelles informations nous collectons et stockons à travers tous nos produits. Le tableau de bord Google est à ce titre un énorme pas en avant (NdT : le Google Dashboard). En une page, les utilisateurs peuvent voir quelles données personnelles sont retenues par tel produit Google (ce qui couvre plus de 20 produits, notamment Gmail, YouTube et la recherche) et où ils peuvent contrôler leurs paramètres personnels. Nous sommes, à notre connaissance, la première entreprise sur Internet à offrir un tel service et nous espérons que cela deviendra la norme. Un autre exemple est celui de notre politique de confidentialité, qui est rédigée pour des être humains et non pour des juristes.

Nous pouvons cependant en faire plus encore. Tout produit qui récolte des informations sur les utilisateurs doit apparaître sur le tableau de bord. S’il y est déjà, vous n’en avez pas fini pour autant. À chaque nouvelle version ou nouvelle fonctionnalité, demandez-vous si vous ne devriez pas ajouter quelques nouvelles informations au tableau de bord (peut-être même des informations sur les utilisateurs publiquement disponibles sur d’autres sites).

Réfléchissez aux moyen de rendre vos produits plus transparents aussi. Quand vous téléchargez une application pour Android, par exemple, votre appareil vous dit à quelles informations l’application pourra accéder, concernant votre téléphone et vous-même, et vous pouvez alors décider si vous souhaitez ou non poursuivre. Pas besoin de faire une enquête approfondie pour trouver quelles informations vous divulguez, tout est écrit noir sur blanc et vous êtes libre de décider (NdT : allusion à peine voilée aux récents problèmes rencontrés par l’iPhone sur le sujet). Votre produit entre dans cette catégorie ? Comment la transparence peut-elle servir la fidélisation de vos utilisateurs ?

Le contrôle

Nous devons toujours donner le contrôle final à l’utilisateur. Si nous avons des informations sur lui, comme avec l’IBA, il devrait être facile pour lui de les supprimer et de se désinscrire. S’il utilise nos produits et stocke ses contenus chez nous, ce sont ses contenus, pas les nôtres. Il devrait être capable de les exporter et de les supprimer à tout moment, gratuitement, et aussi aisément que possible. Gmail est un très bon exemple de ce processus puisque nous proposons une redirection gratuite vers n’importe quelle adresse. La possibilité de changer d’opérateur est cruciale, donc au lieu de bâtir des murs autour de vos produits, bâtissez des ponts. Donnez vraiment le choix aux utilisateurs.

S’il existe des standards pour gérer les données des utilisateurs, nous devons nous y conformer. S’il n’existe pas de standard, nous devons travailler à en créer un qui soit ouvert et profite au Web tout entier, même si un standard fermé nous serait plus profitable (souvenez-vous que ce n’est pas vrai !). Entretemps nous devons faire tout notre possible pour que l’on puisse quitter Google aussi facilement que possible. Google n’est pas l’Hôtel California (NdT : en référence à la célèbre chanson des Eagles), vous pouvez le quitter à tout moment et vous pouvez vraiment partir, pour de bon !

Comme le signalait Eric dans une note stratégique « nous ne prenons pas les utilisateurs au piège, nous leur facilitons la tâche s’ils veulent se tourner vers nos concurrents ». On peut comparer cette politique aux sorties de secours dans un avion, une analogie que notre PDG apprécierait. Vous espérez n’avoir jamais à les utiliser, mais vous êtes bien content qu’elles soient là et seriez furieux s’il n’y en avait pas.

Voilà pourquoi nous avons une équipe, le Data Liberation Front (dataliberation.org) (NdT : le Front de Libération des Données), dont le travail consiste à rendre la « désinscription » facile. Leurs derniers hauts faits : Blogger (les gens qui choisissent de quitter Blogger pour un autre service peuvent facilement emporter leurs données avec eux) et les Docs (les utilisateurs peuvent maintenant rassembler tous leurs documents, présentations, feuilles de calcul dans un fichier compressé et le télécharger). Créez vos produits en ayant ceci à l’esprit. Vous pouvez le faire grâce à une bonne API publique (NdT : interface de programmation) répertoriant toutes les données de vos utilisateurs. N’attendez pas d’être en version 2 ou 3, discutez-en le plus tôt possible et faites-en une fonctionnalité dès le démarrage de votre projet.

Lorsque les journalistes du Guardian (un quotidien anglais de premier ordre) ont rendu compte des travaux du Data Liberation Front , ils ont déclaré que c’était « contre-intuitif » pour ceux qui sont « habitués à la mentalité fermée des guerres commerciales passées ». Ils ont raison, c’est contre-intuitif pour les gens qui sont restés coincés dans leur conception d’école de commerce, mais si nous faisons bien notre travail, ce ne sera plus le cas. Nous voulons faire de l’ouverture la norme. Les gens vont s’y habituer doucement, ensuite elle deviendra la norme et ils l’exigeront. Et s’ils ne l’obtiennent pas cela ne leur plaira pas. Nous considèrerons notre mission accomplie lorsque l’ouverture ira de soi.

Plus c’est grand, mieux c’est

Les systèmes fermés sont bien définis et génèrent du profit, mais seulement pour ceux qui les contrôlent. Les systèmes ouverts sont chaotiques et génèrent du profit, mais seulement pour ceux qui les comprennent bien et s’adaptent plus vite que les autres. Les systèmes fermés se développent vite alors que les systèmes ouverts se développent plus lentement, si bien que parier sur l’ouverture nécessite de l’optimisme, de la volonté et les moyens de pouvoir se projeter sur le long terme. Heureusement, chez Google nous avons ces trois atouts.

En raison de notre dimension, de nos compétences et de notre appétit pour les projets ambitieux, nous pouvons relever des défis importants nécessitant de lourds investissements sans perspective évidente de rentabilité à court terme. Nous pouvons photographier toutes les rues du monde pour que vous puissiez explorer le quartier autour de l’appartement que vous envisagez de louer, à plusieurs milliers de kilomètres de chez vous. Nous pouvons numériser des milliers de livres et les rendre largement accessibles (tout en respectant les droits des auteurs et des éditeurs). Nous pouvons créer un système de mail qui vous donne un gigaoctet d’espace de stockage (maintenant plus de 7 gigas, en fait) au moment où tous les autres services ne vous procurent guère qu’une petite fraction de ce volume. Nous pouvons traduire instantanément des pages Web dans n’importe quelle des 51 langues disponibles. Nous pouvons traiter des recherches de données qui aident les agences de santé publiques à détecter plus tôt les pics d’épidémie grippale. Nous pouvons élaborer un navigateur plus rapide (Chrome), un meilleur système d’exploitation pour mobile (Android), et une plateforme de communication entièrement nouvelle (Wave), et puis nous pouvons ouvrir tout cela pour que le monde entier puisse innover sur cette base, afin de la personnaliser et l’améliorer.

Nous pouvons réaliser tout cela parce que ce sont des problèmes d’information et que nous avons des spécialistes en informatique, en technologie, et les capacités informatiques pour résoudre ces problèmes. Quand nous le faisons, nous créons de nombreuses plateformes, pour les vidéos, les cartes, les mobiles, les ordinateurs personnels, les entreprises, qui sont meilleures, plus compétitives et plus innovantes. On nous reproche souvent d’être de trop « gros », mais parfois être plus gros nous permet de nous attaquer à ce qui semble impossible.

Tout ceci sera pourtant vain si nous négocions mal le virage de l’ouverture. Il nous faut donc nous pousser nous-mêmes en permanence. Est-ce que nous contribuons à des standards ouverts qui bénéficient à l’industrie ? Qu’est-ce qui nous empêche de rendre notre code open source ? Est-ce que nous donnons à nos utilisateurs davantage de valeur, de transparence et de contrôle ? Pratiquez l’ouverture autant que vous le pouvez et aussi souvent que possible, et si quelqu’un se demande si c’est la bonne stratégie, expliquez-lui pourquoi ce n’est pas simplement une bonne stratégie, mais la meilleure qui soit . Elle va transformer les entreprises et le commerce de ce tout début du siècle, et quand nous l’aurons emporté nous pourrons effectivement ré-écrire les topos des écoles de commerce pour les décennies à venir.

Un Internet ouvert transformera notre vie tout entière. Il aura le pouvoir d’apporter les informations du monde entier jusque dans le creux de la main de chacun et de donner à chacun le pouvoir de s’exprimer librement. Ces prédictions étaient dans un e-mail que je vous ai envoyé au début de cette année (repris ensuite dans un billet du blog) et qui vous décrivait ma vision du futur d’Internet. Mais maintenant je vous parle d’action, pas de vision. L’Internet ouvert a ses détracteurs, des gouvernements désirant en contrôler l’accès, des entreprises luttant dans leur intérêt exclusif pour préserver le statu quo. Ces forces sont puissantes et si elles réussissent, nous allons nous retrouver entravés dans un Internet fragmenté, stagnant, à coût élevé et à faible concurrence.

Nos compétences et notre culture nous offrent l’occasion et nous donnent la responsabilité d’empêcher que cela n’arrive. Nous croyons que la technologie a le pouvoir de répandre l’information. Nous croyons que l’information a le pouvoir d’améliorer les choses. Nous croyons que la majorité ne profitera de cette révolution que grâce à l’ouverture. Nous sommes des techno-optimistes confiants dans l’idée que le chaos de l’ouverture profite à tout le monde. Et nous nous battrons pour la promouvoir en toutes occasions.

L’ouverture l’emportera. Elle l’emportera sur Internet et gagnera par effet boule de neige beaucoup de domaines de notre vie. L’avenir des gouvernements est la transparence. L’avenir du commerce est l’information réciproque. L’avenir de la culture est la liberté. L’avenir de l’industrie du divertissement est l’interactivité. Chacun de ces futurs dépend de l’ouverture d’Internet.

En tant que chefs de produits chez Google, vous élaborez quelque chose qui nous survivra à tous, et personne ne sait dans quelles directions Google poursuivra son développement, ni à quel point Google va changer la vie des gens. Dans cette perspective, nous sommes comme notre collègue Vint Cerf, qui ne savait pas exactement combien de réseaux feraient partie de ce fameux « Internet » et qui l’a laissé ouvert par défaut. Vint a certainement eu raison. Je crois que le futur nous donnera raison aussi.

Notes

[1] Crédit photo : Zach Klein (Creative Commons By)