Combien d’écoles Jean-Macé en France ?

Tinou Bao - CC byLe titre de ce billet fait naturellement écho à Combien de lycées Sud Médoc en France ? où nous feignions d’interroger la situation française alors qu’il ne s’agissait que de mettre en valeur une remarquable initiative locale, fort justement relayée par la presse.

Il en va de même ici, non plus dans le secondaire mais dans le primaire, à l’école Jean-Macé d’Hazebrouck[1].

Cette école ne disposait pas de salle informatique. Lacune aujourd’hui comblée avec une quinzaine de postes qui, depuis décembre, tournent sous le système d’exploitation GNU/Linux.

C’est déjà remarquable en soi mais ce qui l’est peut-être tout autant voire plus, c’est d’avoir fait constater par l’autorité de tutelle, à savoir ici l’Inspection académique, que « l’absence Microsoft » ne pénalise nullement les usages pédagogiques et l’obtention du B2i, bien au contraire.

Un événement rapporté comme il se doit par les journaux locaux (voir ci-dessous), et le moins que l’on puisse dire c’est que cela fait plaisir à lire.

Source de l’information sur le site de l’école

Du matériel informatique neuf et innovant à l’école Jean-Macé

Image scannée de l'article de la Voix du Nord6 avril 2009 – La Voix du Nord

Mardi après-midi, deux conseillers en technologies de l’information et de la communication (TICE) sont venus s’enquérir du bon fonctionnement de la salle informatique de l’école Jean-Macé. Un site précurseur en la matière.

La municipalité a décidé de restaurer le parc informatique des écoles de la commune. Première à bénéficier de cette politique, l’école Jean-Macé fait figure de site pilote. En effet, son nouveau matériel, quinze unités centrales, fonctionne avec un système d’exploitation libre.

Des utilisateurs conquis

« L’intérêt de notre visite, c’est de vérifier que tout se déroule correctement et que l’utilisation d’un système d’exploitation libre est pertinente pour la délivrance du B2I, Brevet informatique et Internet, aux enfants de CM 2 », explique Thierry Heuguebart, conseiller en TICE pour le secteur d’Hazebrouck, venu, mardi, accompagné de Luc Simon, son homologue pour l’inspection académique du Nord.

Le moins que l’on puisse dire est que tous les utilisateurs sont conquis. Enseignants et élèves n’ont eu aucun mal à s’adapter au nouveau logiciel qui permet de sortir de la logique Windows.

Le directeur de l’établissement, Stéphane Olivier, ne cache pas lui non plus sa satisfaction devant l’investissement municipal. « Désormais, chaque élève dispose du même équipement. Avant, tout était dépareillé. Nous n’avons plus de bug et, grâce au serveur, nous sommes tous en ligne », s’enthousiasme-t-il.

Les écoliers expérimentent le logiciel libre

Image scannée de l'article de l'Indicateur des FlandresA. R.-M. – 9 avril 2009 – L’Indicateur des Flandres

Avec quinze ordinateurs neufs, élèves et enseignants de l’école Jean-Macé ont de quoi se réjouir. La municipalité d’Hazebrouck a décidé, sous la responsabilité de l’adjoint aux Affaires scolaires, Michel Labitte, de renouveler chaque année le parc informatique d’une école.

Cette politique volontariste en terme d’informatique ne s’arrête pas là puisque depuis le mois de décembre, les écoliers travaillent sous Linux, un système d’exploitation libre et donc gratuit, dans le cadre d’une expérimentation autorisée par l’Éducation nationale. Ce test a des répercussions économiques : la municipalité de devra plus payer le système Microsoft, ni acheter ses logiciels.

Ce qui intéressent davantage élus, enseignants et représentants de l’Inspection académique, qui étaient en visite mardi 31 mars à l’école Jean-Macé, c’est l’aspect d’ouverture d’esprit. Professeurs comme élèves découvrent qu’il existe d’autres systèmes d’exploitation que celui lancé par l’américain Bill Gates, Microsoft, devenu incontournable puisqu’il est vendu avec chaque ordinateur neuf. Cela pourrait bien changer car la commission européenne s’inquiète de ce monopole.

Dans les faits, les enfants ne se rendent pas compte de la différence. Ils viennent dans cette salle informatique pour acquérir des connaissances en français ou encore en mathématiques, avec une certaine autonomie, tout en s’initiant aux nouvelles technologies dans le cadre du B2i. Quant aux professeurs, ils ont tous reçu une formation dispensée par Thierry Heuguebart, conseiller pédagogique TIC (technologies de l’information et de la communication) dans la circonscription d’Hazebrouck.

Le directeur, Stéphane Olivier, confirme : « Le changement de logiciel s’est fait sans problème ». L’expérience semble donc concluante. La municipalité devrait poursuivre dans cette voie, tout comme l’Éducation nationale. Autre avantage non négligeable de l’expérience : le responsable informatique de la mairie, Grégory Houte, n’est plus dérangé fréquemment à cause de problèmes techniques. Quand un ordinateur ne répond plus, le serveur le réinitialise et l’enfant peut reprendre son travail.

Notes

[1] Crédit photo : Tinou Bao (Creative Commons By)




L’avenir du livre reste à écrire…

Richardmasoner - CC by-saLe succès récent du lecteur de livre électronique Kindle 2 d’Amazon est venu nous rappeler que le monde de l’édition ne pourra être longtemps épargné par les bouleversements technologiques actuels. Ce n’est qu’une question de temps, celui que mettra l’industrie à nous offrir un réel confort de lecture numérique, accompagnée par une offre plurielle au prix raisonnable et… aux formats ouverts !

Le meilleur moyen d’appréhender la nouvelle donne qui s’annonce et d’en mesurer dès à présent les enjeux est certainement de parcourir l’excellent blog La Feuille.

Quant à nous, après avoir évoqué, non sans ironie, la question du piratage, nous vous proposons une traduction du Guardian qui témoigne du fait que, comme pour la musique, c’est tout la chaîne de production qui risque d’être bientôt impactée[1].

Sans oublier bien sûr notre projet de livres libres Framabook en partenariat avec InLibroVeritas (et Les Complexes).

L’avenir de l’édition : aussi terrifiant qu’un récit de Stephen King ?

The future of publishing: as frightening as any Stephen King story?

Naomi Alderman – 17 février 2009 – The Guardian
(Traduction Framalang : DonRico et Goofy)

Pour le livre électronique, on est à mille lieues de se soucier du piratage.

La révolution du livre électronique est peut-être en marche. L’année dernière, Amazon a sorti son lecteur d’e-books, le Kindle, et estime qu’il s’en est vendu plus que d’iPods lors de leur première année de commercialisation. Il y a peu, Amazon a sorti le Kindle 2, lequel était accompagné, pour fêter l’événement, d’une nouvelle écrite pour l’occasion par Stephen King.

Parmi mes interlocuteurs dans le monde de l’édition – auteurs, agents, responsables éditoriaux et éditeurs d’œuvres numériques –, la portée d’une révolution du livre électronique suscite à la fois un grand intérêt et une vive inquiétude. Les éditeurs craignent les possibilités de piratage. Si l’on prend l’exemple de l’industrie du disque, cette inquiétude peut sembler légitime. Trouver des livres électroniques piratés n’a rien de difficile : en cherchant « eBook Stephen King » sur Google, on récolte des tas de liens. Cela ne pose pas de problème pour l’instant car dans leur grande majorité, les lecteurs n’aiment pas lire de longues œuvres sur un écran d’ordinateur. Si un appareil offrant un plus grand confort de lecture se démocratisait – et même le Kindle permet à ses utilisateurs de lire des PDF grâce à un système de conversion « expérimentale » –, la donne changerait rapidement.

Mais les inquiétudes concernant le piratage ne sont peut-être qu’un leurre. La démocratisation du lecteur de livres électroniques pourrait avoir un effet bien plus immédiat et plus profond sur la façon dont on publiera et vendra les livres, et Stephen King nous en a offert un parfait exemple. En 2000, il a publié son roman The Plant sous forme d’e-book, découpé en épisodes. Il l’a mis à disposition sur son site Web, se passant ainsi d’éditeur. Dans les grandes lignes, l’expérience s’est soldée par un échec : on peut lire d’intéressantes analyses à ce propos sur Salon, Wikipédia et Another Sky Press. La démarche fonctionnait selon un modèle économique très particulier, mais la plupart des lecteurs potentiels ne possédaient pas d’appareil sur lequel il était plaisant de lire un long e-book.

Si les ventes de lecteurs d’e-books décollaient, en revanche, des auteurs de renom tel que Stephen King pourraient passer à l’auto-publication. Et cela pourrait marquer la fin du système éditorial tel que nous connaissons à l’heure actuelle. À cause de la structure de l’édition, ce sont les auteurs de renom dont les livres se vendent par millions qui, de fait, soutiennent l’industrie à bout de bras. J’ai lu diverses statistiques concernant le pourcentage de livres qui génèrent vraiment des bénéfices. Un agent littéraire que j’interrogeais m’a expliqué que 95% des œuvres publiées n’étaient pas rentables. D’autres m’ont indiqué des nombres moins élevés. Quoi qu’il en soit, tout le monde s’accorde à dire qu’une grande majorité des bénéfices provient d’une petite minorité d’auteurs.

Si Stephen King, Dan Brown, JK Rowling et Patricia Cornwell décidaient de concert de vendre leurs livres eux-mêmes en ligne au lieu de passer par une maison d’édition, ils en tireraient sans aucun doute des avantages financiers. En gros, un auteur ne touche qu’une livre (Ndt : un peu plus d’un euro) sur chaque exemplaire vendu. Au lieu de s’en remettre à un éditeur, les auteurs de renom pourraient se permettre de n’employer qu’un assistant d’édition, un attaché de presse, un compositeur et un graphiste. Ils pourraient vendre leurs livres seulement 2 ou 3 livres et gagner malgré tout plus d’argent qu’avec le système actuel.

Mais sans les revenus générés par ces auteurs pour maintenir à flot les éditeurs, le système actuel ne serait plus viable. Que se passerait-il alors ? Difficile de le savoir. À l’évidence, les maisons d’éditions devraient réduire leur taille, et les auteurs qui ne connaissent pas un immense succès international ne pourraient bénéficier d’avances sur droits d’auteurs fort utiles. Il serait plus difficile de continuer à écrire lorsqu’on serait un écrivain moyennement vendeur, à moins de bénéficier d’une source de revenus personnelle. Les lecteurs chercheraient toujours à découvrir de nouveaux auteurs formidables, aussi les marques des éditeurs connus conserveraient leur valeur, car elles permettraient aux lecteurs de séparer le bon grain de l’ivraie. Mais Penguin, Harper Collins et Random House pourraient se réduire à des icônes sur des canaux d’agrégateurs de livres électroniques et n’être plus les moteurs de la production éditoriale qu’elles sont aujourd’hui.

Étant moi-même auteur, j’évoque souvent les mérites du livre électronique et l’intérêt que je porte aux nouvelles possibilités de création qu’il permet. De plus, je ne doute pas que les lecteurs auront toujours envie de lire d’excellents livres. Mais toute révolution est terrifiante, et celle-ci pourrait être aussi effrayante qu’une histoire de Stephen King.

Notes

[1] Crédit photo : Richardmasoner (Creative Commons By-Sa)




Numérique, droit d’auteur et pédagogie

Mr. Theklan - CC by-saPour ceux qui arrivent encore à résister aux sollicitations permanentes d’Internet pour réussir l’exploit de parcourir jusqu’au bout de longs documents, nous vous proposons aujourd’hui la lecture d’un article de Jean-Pierre Archambault, paru initialement dans la revue Terminal, qui interroge le présent mais surtout l’avenir des ressources pédagogiques à l’ère du numérique.

Parce que si l’on n’y prend pas garde, on pourrait bien vite se retrouver peu ou prou en face des mêmes tensions que celles qui ont été mises à jour lors de l’examen du projet de loi Création et Internet. Quid en effet d’un monde[1] où la propriété finirait par contraindre de trop l’accès et le partage, a fortiori à l’école ?

Numérique, droit d’auteur et pédagogie

Jean-Pierre Archambault
Terminal n° 102, Automne-Hiver 2008-2009, édition l’Harmattan, p. 143-155.

Les ressources pédagogiques utilisées dans les cours sont l’un des cœurs de l’enseignement, correspondant à des démarches et des conceptions d’apprentissage. Il y a les ressources que se procurent les enseignants. Éditées à des fins explicitement pédagogiques ou matériaux bruts non conçus initialement pour des usages scolaires, mais y trouvant naturellement leur place, comme une œuvre musicale ou une reproduction de tableau. Leurs modèles économiques et leurs modalités de propriété intellectuelle, vis-à-vis de l’institution éducative sont nécessairement distincts.

Il y a aussi les ressources produites par les enseignants eux-mêmes, aujourd’hui dans le contexte radicalement nouveau issu de l’omniprésence de l’ordinateur et d’Internet, à des échelles dont les ordres de grandeur sont sensiblement différents de ceux de l’ère du pré-numérique. Elles sont élaborées dans des processus collaboratifs qui appellent nécessairement des réponses en termes de droits d’auteur de nature à permettre et favoriser l’échange par une circulation fluide des documents.

La problématique juridique est vaste. Nous examinerons les licences de logiciels et de ressources libres – certains points qui font débat comme la sécurité juridique, considération importante pour les établissements scolaires. En effet, elles éclairent et illustrent la situation nouvelle et irréversible créée par l’irruption du numérique dans les processus de création de biens informationnels et la place de ceux-ci, sans cesse croissante, relativement et en valeur absolue. Nous poserons la question de l’exception pédagogique, en relation avec les missions de l’École et l’exercice concret du métier d’enseignant, au temps nouveau du numérique.

Un modèle français

Les ressources pédagogiques, au premier rang desquelles les manuels scolaires, mais aussi la banale préparation de cours, l’article ou la photographie « sur laquelle on est tombé »… ont toujours joué un rôle important dans l’exercice du métier d’enseignant, variable selon les disciplines. Comme support de cours bien sûr, mais aussi comme vecteur de mise en oeuvre de nouveaux programmes ou support de formation (derrière un scénario pédagogique, il y a toujours une pratique professionnelle). Il existe un modèle français de l’édition scolaire dont la figure centrale, le manuel des élèves, relève pour l’essentiel du secteur privé. Ce modèle a acquis ses lettres de noblesse et fait ses preuves depuis deux siècles. L’histoire de l’édition scolaire en France est l’histoire des relations entre trois acteurs majeurs, l’État, les éditeurs et les auteurs – des enseignants et des inspecteurs – et de leurs rapports de force mouvants, dans lesquels il arrive que la technique intervienne. Ainsi, à partir de 1811, un auteur ne peut plus soumettre directement à l’État un manuscrit sous prétexte, parmi d’autres raisons, que son examen est long et difficile. Une proposition de manuel doit être obligatoirement communiquée sous forme d’imprimé. L’éditeur devient, de fait, incontournable.

Depuis une quarantaine d’années, les manuels scolaires se sont profondément transformés. L’iconographie occupe jusqu’à 50 % de la surface. L’ouvrage permet des lectures plurielles et des usages multiples, qui préfigurent ceux de l’hypermédia. Il n’y a plus de cours en tant que tel… Le résultat combiné de cette complexité croissante des manuels, de la concurrence des méthodes actives et de la souplesse de la photocopie est sans appel : on constate depuis les années quatre-vingt une tendance à la perte de vitesse de l’utilisation du manuel traditionnel, même si l’attachement symbolique demeure[2][3]. L’enfant chéri de l’édition scolaire connaît une forme de crise…

Une rupture

…et le numérique arrive dans ce contexte. Rude concurrent ! En effet, le manuel scolaire, ce livre d’une centaine de pages, qu’on ne lit plus d’une façon linéaire mais dans lequel on navigue avec des index et des renvois, ce livre ne saurait rivaliser avec Internet et le multimédia, leurs hyperliens, leurs millions de pages et leurs outils de recherche automatisée. Le livre n’est désormais plus « l’enfant unique ».

Plus généralement, le numérique transforme radicalement le paysage éditorial installé. Certes, les enseignants ont toujours réalisé des documents à l’intention de leurs élèves, en préparant leurs cours. Jusqu’à l’arrivée de l’ordinateur et d’Internet, une élaboration collaborative avec des collègues et la visibilité des ressources produites ne pouvaient aller au-delà d’un cercle restreint et rapproché. Modifier un document écrit à la main était et demeure une opération lourde, qui plus est quand il circule et que chacun y met sa griffe. Dans les années 70 encore, les photocopieuses étaient rarissimes, les machines à alcool fastidieuses à utiliser.

Des échanges sur une plus grande échelle supposaient de mettre en forme des notes manuscrites, et la machine à écrire manquait de souplesse, ne tolérant pas vraiment les fautes de frappe. Le manuel scolaire était alors la seule perspective pour une diffusion élargie, l’éditeur le passage obligé, et on lui accordait d’autant plus facilement des droits sur la fabrication des ouvrages que l’on ne pouvait pas le faire soi-même ! Mais, aujourd’hui, les conditions de la production des ressources pédagogiques, numériques pour une part en augmentation régulière, ont donc radicalement changé, du fait de la banalisation des outils informatiques de réalisation des contenus (du traitement de texte aux logiciels de publication) et d’Internet qui favorise à la fois les productions individuelles et le développement du travail collectif des enseignants, dans leur établissement, ou disséminés sur un vaste territoire, à la manière des programmeurs qui écrivent des logiciels libres.

Il y a une transférabilité de l’approche du libre, des logiciels à la réalisation des autres biens immatériels. Internet permet aux auteurs de toucher un vaste public potentiel qui peut aisément reproduire leurs documents, les utiliser, les modifier… La profusion des ressources éducatives que l’on peut consulter sur Internet est là pour en témoigner. En nombre, les enseignants auteurs-utilisateurs sont devenus un acteur autonome à part entière de l’édition scolaire. On peut, pour le moins, parler de turbulences dans le secteur[4][5].

Sésamath

Cette association est synonyme d’excellence en matière de production pédagogique et de communauté d’enseignants-auteurs-utilisateurs. En effet, Sésamath a reçu une mention d’honneur pour le prix 2007 Unesco-Roi Hamad Bin Isa Al-Khalifa sur l’utilisation des technologies de l’information et de la communication dans l’éducation. L’Unesco a décidé d’attribuer une mention spéciale au projet de manuel libre « pour la qualité de ses supports pédagogiques et pour sa capacité démontrée à toucher un large public d’apprenants et d’enseignants ». L’association a également été récompensée aux Lutèce d’Or (Paris, capitale du libre). Elle regroupe une soixantaine de professeurs de mathématiques de collèges. De l’ordre de 400 contributeurs-auteurs utilisent régulièrement les outils de travail coopératif qu’elle a mis en place (Wiki, Spip, forums, listes de diffusion…). Animée d’une volonté forte de production de ressources sous licence libre, et si possible formats ouverts, Sésamath ne soutient que des projets collaboratifs dont elle favorise et encourage les synergies. L’association donne les résultats : environ un million de visiteurs sont comptabilisés chaque mois sur l’ensemble de ses sites. Parmi les projets soutenus par l’association figure Mathenpoche. Dix académies hébergent le logiciel sur un serveur local, en plus du serveur mis à disposition par Sésamath pour les professeurs des autres académies, en partenariat avec le Centre de ressources informatiques de Haute-Savoie (Citic74).

Ce sont ainsi 5 000 professeurs qui utilisent la version réseau de Mathenpoche à laquelle sont inscrits 260 000 élèves. Plus de 160 000 connexions élèves sont enregistrées sur les serveurs chaque mois, auxquelles il faut ajouter 236 000 connexions en accès libre sur le site public de Mathenpoche. MathémaTICE est une revue en ligne sur l’intégration des TICE dans l’enseignement des mathématiques, née en septembre 2006. Enfin, Le Manuel Sésamath pour la classe de cinquième, premier manuel scolaire libre, fruit du travail collaboratif d’une cinquantaine de collègues, s’est vendu à 72 000 exemplaires à la rentrée 2006. Le Manuel Sésamath pour la quatrième s’est vendu, lui, à plus de 90 000 exemplaires en septembre 2006. à n’en point douter, en cette rentrée 2008, le Manuel de troisième connaîtra le succès, comme ses prédécesseurs.

Les communautés d’enseignants auteurs-utilisateurs se multiplient[6][7][8]. Utilisant à plein les potentialités d’interaction du Web, elles fonctionnent comme les communautés de développeurs de logiciels libres. Leurs membres ont une vision et une identité communes. Organisées pour fédérer les contributions volontaires, dans une espèce de synthèse de « la cathédrale et du bazar », ces communautés répondent à des besoins non ou mal couverts et doivent compter en leur sein suffisamment de professionnels ayant des compétences en informatique. Les maîtres mots de la division du travail y sont « déléguez » et « distribuez ».

Les licences de logiciels libres

Les logiciels libres sont désormais une composante à part entière de l’informatique[9]. Parmi les raisons qui expliquent cette rapide évolution, le fait que l’approche du libre, qui relève du paradigme de la recherche scientifique, est en phase avec la nature profonde de l’activité d’écriture de logiciels (difficile par exemple de mener des projets combinant des millions et des millions de lignes de programme quand on n’a pas accès au code source) et qu’elle est ainsi gage d’efficacité et de qualité. Les enseignants utilisent des logiciels libres et certains en produisent. Pour autant, le long fleuve du libre, en général et dans l’éducation en particulier, n’est pas toujours tranquille. Intimement liées au modèle économique, il y a les réponses en termes de droit d’auteur. Et il arrive que des questions juridiques soient mises en avant, notamment celles ayant trait à la compatibilité des licences libres avec le droit français, à une certaine insécurité juridique. Qu’en est-il exactement ?[10].

La typologie classique des licences Logiciel libre comprend deux ensembles principaux, licences avec ou sans copyleft, et un cas spécial : le domaine public. La caractéristique des licences sans copyleft, dites type BSD est de ne pas obliger à conserver la même licence pour une oeuvre dérivée. Le code des logiciels utilisant ces licences peut donc être intégré dans du logiciel propriétaire ou du logiciel libre avec copyleft.

Les licences avec copyleft exigent qu’un logiciel dérivé conserve son statut de logiciel libre, notamment par la fourniture du code source de la version modifiée. En pratique, cela signifie qu’il n’est pas possible de diffuser un logiciel propriétaire incorporant du code utilisant une telle licence. La principale licence de ce type est la GNU General Public licence (GNU GPL) de la FSF (Free Software Fondation). D’autres licences de ce type sont la Lesser General Public License (LGPL) de la FSF, qui offre la possibilité de lier dynamiquement le programme à une application propriétaire. La LGPL est notamment utilisée par le projet OpenOffice.org. La licence CeCILL est une licence francophone proposée par le CEA, le CNRS et l’Inria pour les mondes de la recherche, de l’entreprise et des administrations, et plus généralement pour toute entité ou individu désirant diffuser ses résultats sous licence de logiciel libre, en toute sécurité juridique. Les auteurs de CeCILL l’ont déclarée compatible avec la GNU GPL. Et la FSF a indiqué que CeCILL faisait partie des licences compatibles avec la GNU GPL. Chaque licence doit préciser les licences qui lui sont compatibles.

« Une complexité conceptuelle de la licence GPL est qu’elle prétend ne pas être un contrat, ce qui peut poser des difficultés de compréhension en Europe ». Si, aux États-Unis, la GPL s’appuie essentiellement sur le copyright, en France et dans de nombreux pays d’Europe, l’habitude est de licencier les logiciels par des contrats, acceptés par les deux parties avec les clauses de responsabilité inhérentes aux contrats logiciels. « L’utilisation licite d’un programme sous GNU GPL n’impose pas une relation contractuelle entre l’utilisateur et le titulaire des droits d’auteur »[11]. Cette différence d’appréciation et la volonté d’avoir une licence d’origine française ou européenne basée sur une mécanique contractuelle sont à l’origine de la rédaction des licences CeCILL et EUPL. « Néanmoins, la validité de la licence GPL a été confirmée à plusieurs reprises par des tribunaux européens ». La diffusion sous des licences d’origine américaine comme la GNU GPL pouvant poser certaines questions de droit, engendrant des incertitudes qui peuvent dissuader des entreprises ou des organisations d’utiliser ou d’apporter leurs contributions aux logiciels libres. Dans ce contexte, le Cea, le Cnrs et l’Inria ont donc entrepris la rédaction de contrats de licences de logiciels libres visant à accroître la sécurité juridique « en désignant un droit applicable (et les tribunaux compétents pour juger d’éventuels litiges), en l’occurrence le droit français, conforme au droit européen et qui a vocation à concerner 27 pays », à préciser exactement l’étendue des droits cédés et à encadrer « la responsabilité et les garanties accordées par les concédants dans les limites permises par le droit français et européen ». Il y a une version française qui, avec la version anglaise fait également foi. Elle s’impose, de par la loi, aux organismes de recherche et établissements publics français.

L’utilisateur secondaire, c’est-à-dire la personne admise à utiliser un logiciel libre (vous et moi) à l’exclusion de tout acte de copie, de modification, d’adaptation et de distribution, est dans une situation juridique spéciale. Il n’a pas de relation contractuelle avec le concédant de la licence dans la mesure où il n’a pas consenti à la licence et ne connaît pas le plus souvent le concédant, auteur du logiciel libre qu’il utilise. « Il ne paraît pas possible de faire valoir un éventuel consentement implicite à la conclusion d’une licence et ce d’autant plus que le droit français ne permet pas en cette matière les accords tacites ».

Ces difficultés tiennent pour une part au droit, français notamment, qui, s’il accorde aux auteurs un droit exclusif sur leurs créations, ne dit rien d’explicite quant à des modalités leur permettant de faire connaître leurs volontés concernant les usages de leurs œuvres. Il y a là un vide juridique, sinon une forme d’incohérence. Cela étant, les licences de type GPL sont particulièrement protectrices des droits des utilisateurs dans la mesure où les contributeurs successifs s’obligent les uns les autres à respecter les dits droits, en s’appuyant sur les traités internationaux en matière de droit d’auteur. De plus, la publication et l’utilisation par les administrations françaises et européennes de licences libres (comme CeCILL et EUPL) traduisent la maturation juridique de la diffusion du libre, contribuant ainsi de fait, plus que fortement, à créer un environnement « sécurisé » pour les utilisateurs. Et puis, il y a des millions et des millions d’utilisateurs de logiciels libres en France et dans le monde. Une des vertus du droit étant de s’adapter aux évolutions, technologiques en particulier… l’insécurité, très relative, ne manquera pas de n’avoir été que momentanée.

Les licences de ressources libres

Les enseignants et les institutions éducatives ont encore tendance à mettre en ligne des ressources pédagogiques sans se poser explicitement la question de leurs licences. D’où un certain flou. Mais les licences de ressources libres ont commencé à faire leur chemin dans les problématiques éditoriales. Leur objectif est de favoriser le partage, la diffusion et l’accès pour tous sur Internet des œuvres de l’esprit, en conciliant les droits légitimes des auteurs et des usagers. Cela passe par des modalités juridiques correspondant aux potentialités de la Toile, notamment à cette possibilité de diffusion quasi instantanée d’une ressource immatérielle à des milliers et des millions de personnes. Le projet Creative Commons s’y emploie[12]. Il a vu le jour à l’université de Standford, au sein du Standford Law School Center for Internet et Society, Lawrence Lessig en étant l’un des initiateurs. Il s’agit donc d’adapter le droit des auteurs à Internet.

Creative Commons renverse le principe de l’autorisation obligatoire. Il permet à l’auteur d’autoriser par avance, et non au coup par coup, certains usages et d’en informer le public. Il est autorisé d’autoriser. Métalicence, Creative Commons permet aux auteurs de se fabriquer des licences, dans une espèce de jeu de Lego simple, constitué de seulement quatre briques. Première brique : attribution. L’utilisateur, qui souhaite diffuser une œuvre, doit mentionner l’auteur. Deuxième brique : commercialisation. L’auteur indique si son travail peut faire l’objet ou pas d’une utilisation commerciale. Troisième brique : non-dérivation. Un travail, s’il est diffusé, ne doit pas être modifié. Quatrième brique : partage à l’identique. Si l’auteur accepte que des modifications soient apportées à son travail, il impose que leur diffusion se fasse dans les mêmes termes que l’original, c’est-à-dire sous la même licence. La possibilité donnée à l’auteur de choisir parmi ces quatre composantes donne lieu à onze combinaisons de licences. Grâce à un moteur de licence proposé par le site de Creative Commons, l’auteur obtient automatiquement un code HTML à insérer sur son site qui renvoie directement vers le contrat adapté à ses désirs.

L’exception pédagogique

Les enseignants utilisent des documents qu’ils n’ont pas produits eux-mêmes, dans toutes les disciplines, mais particulièrement dans certaines d’entre d’elles comme l’histoire-géographie, les sciences économiques et sociales ou la musique : récitation d’un poème, lecture à haute voix d’un ouvrage, consultation d’un site Web… Ces utilisations en classe ne sont pas assimilables à l’usage privé. Elles sont soumises au monopole de l’auteur dans le cadre du principe de respect absolu de la propriété intellectuelle. Cela peut devenir mission impossible, tellement la contrainte et la complexité des droits se font fortes. Ainsi pour les photographies : droits du photographe, de l’agence, droit à l’image des personnes qui apparaissent sur la photo ou droit des propriétaires dont on aperçoit les bâtiments… Difficile d’imaginer les enseignants n’exerçant leur métier qu’avec le concours de leur avocat ! Mais nous avons vu les licences Creative Commons qui contribuent, en tout cas sont un puissant levier, à développer un domaine public élargi de la connaissance. Et la GNU GPL et le CeCILL qui permettent aux élèves et aux enseignants de retrouver, dans la légalité, leurs environnements de travail sans frais supplémentaires, ce qui est un facteur d’égalité et de démocratisation. Mais la question de l’exception pédagogique dans sa globalité, une vraie question, reste posée avec une acuité accrue de par le numérique : quelque part, le copyright est antinomique avec la logique et la puissance d’Internet.

L’exception pédagogique, c’est-à-dire l’exonération des droits d’auteurs sur les oeuvres utilisées dans le cadre des activités d’enseignement et de recherche, et des bibliothèques, concerne potentiellement des productions qui n’ont pas été réalisées à des fins éducatives. Par exemple, le Victoria and Albert Museum de Londres, à l’instar du Metropolitan Museum of art de New York, a décidé de ne plus facturer le droit de reproduction des œuvres de sa collection lorsqu’elles sont publiées à des fins d’enseignement, leur mise en ligne restant cependant soumise à conditions 13.

La société Autodesk a ouvert un portail étudiant de l’ingénierie et de la conception numérique depuis lequel les élèves, étudiants et enseignants de toutes les disciplines peuvent notamment télécharger gratuitement des versions pour étudiants de ses logiciels, toutes ses ressources concernant la conception architecturale, la conception graphique, le génie civil et la conception mécanique et électrique.

L’activité d’enseignement est désintéressée et toute la société en bénéficie. L’éducation n’est pas un coût mais le plus nécessaire (et le plus noble) des investissements. L’exception pédagogique a donc une forte légitimité sociétale. De plus, entrés dans la vie active, les élèves auront naturellement tendance à, par exemple, préconiser les logiciels qu’ils auront utilisés lors de leur scolarité. En la circonstance le système éducatif promeut des produits qu’il a pendant longtemps payé cher (avant que le libre contribue à une baisse sensible des prix pratiqués). D’un strict point de vue économique, il ne serait nullement aberrant que ce soit au contraire les éditeurs qui payent pour que les élèves utilisent leurs produits ! On n’en est pas encore là. Sans nier certains excès auxquels la photocopie non maîtrisée peut donner lieu, il ne faut pas oublier que les établissements d’enseignement contribuent déjà à la défense du droit d’auteur en versant des sommes importantes (près de trois millions d’euros de la part des universités) pour la photocopie d’œuvres protégées, au nom de la fameuse lutte contre le « photocopillage ». Les bibliothèques, quant à elles, doivent déjà faire face au paiement de droits de prêt diminuant fortement leur pouvoir d’achat.

On distingue le cas de l’édition scolaire dont la raison d’être est de réaliser des ressources pour l’éducation, et qui bien évidemment doit en vivre. L’édition scolaire traverse une période de turbulences de par le numérique. Les questions posées sont notamment celles de son positionnement par rapport aux productions enseignantes, du caractère raisonnable ou non des prix pratiqués, de l’existence d’un marché captif, d’un nouveau modèle économique combinant licences libres et rémunération sur les produits dérivés… mais pas celle du bien-fondé d’une légitime rémunération d’un travail fait, dans le contexte d’une école républicaine gratuite et laïque. Deux types de solutions existent pour assurer l’exception pédagogique : la voie contractuelle et la voie législative.

La voie contractuelle

En mars 2006, le ministère de l’Éducation nationale a signé des accords avec les syndicats d’éditeurs. Ils concernent les œuvres des arts visuels ; les enregistrements sonores d’oeuvres musicales, la vidéo-musique et les interprétations vivantes des œuvres musicales ; les œuvres cinématographiques et audiovisuelles ; les livres et les musiques imprimées ; les publications périodiques imprimées. Ils autorisent et limitent certains usages d’œuvres protégées par les enseignants, à des fins d’illustration des activités d’enseignement et de recherche. Ils couvrent une période allant de janvier 2007 à 2009, date à laquelle une exception sera inscrite dans le Code de la Propriété intellectuelle (CPI).

Les publics visés sont notamment la classe et la formation initiale. Les cas autorisés sont la diffusion ou projection en classe d’œuvres protégées de tout enregistrement audio (même intégral), de toute image, texte ou de partition, de toute œuvre audiovisuelle obtenue par un canal hertzien gratuit, de toute représentation (interprétation en particulier) en classe d’une œuvre ; la reproduction papier d’œuvres protégées pour les élèves de la classe (10 % maximum d’un livre ou d’une partition, 30 % d’un périodique) avec selon les types d’établissements un quota de copies par élève et par an ; la reproduction numérique d’images protégées donnée à titre temporaire pour toute œuvre diffusée en classe, avec un maximum de 20 images incorporées dans chaque travail pédagogique ou de recherche mis en ligne sur Intranet et des limitations (400 × 400 pixels, 72 dpi, pas de recadrage, pas d’accès direct aux œuvres, pas d’indexation, déclaration des œuvres par formulaire à l’AVA) ; la diffusion audio et audiovisuelle lors de concours ou colloques (extraits audio d’une œuvre limités à 30 secondes dans la limite de 10 % de la durée totale chacun, représentants, additionnés, moins de 15 % du total).

Les accords ne concernent notamment pas l’analyse d’une œuvre pour elle-même, la formation continue, l’utilisation en classe de DVD ou de VHS du commerce (les droits de diffusions ou de prêt doivent être alors acquittés par les centres de documentation des établissements), la création de bases d’œuvres protégées numérisées consultables en Intranet (sous forme de fichiers image, son ou vidéo en particulier), la distribution de fichiers numériques d’œuvres protégées aux élèves, la possibilité de faire des liens profonds sur des sites pour disposer, par exemple, d’extraits audio organisés de manière thématique.

Pour les livres et les musiques imprimées, les accords prévoient des vérifications (Article 10) : « Les représentants des ayants droit pourront procéder ou faire procéder à des vérifications portant sur la conformité des utilisations d’œuvres visées par l’accord au regard des clauses de l’accord. Les agents assermentés de chaque représentant des ayants droit auront la faculté d’accéder aux réseaux informatiques des établissements afin de procéder à toutes vérifications nécessaires. Ils pourront contrôler notamment l’exactitude des déclarations d’usage et la conformité de l’utilisation des œuvres visées par l’accord avec chaque stipulation de l’accord. En cas de manquement à ces obligations contractuelles, les représentants des ayants droit pourront requérir du chef d’établissement ou du responsable du réseau le retrait des œuvres ou extraits d’œuvres visées par l’accord utilisé illicitement. En cas de contestation sur l’application de l’accord, le comité de suivi se réunit pour constater l’absence de respect d’une clause de l’accord et proposer une solution aux parties. » Cette possibilité d’intrusion sur les réseaux des établissements scolaires a été diversement appréciée.

Des entraves à l’activité pédagogique

Les limitations prévues dans les accords (nombre de pixels, durée des extraits…) ne sont pas sans poser de réels problèmes pédagogiques. Yves Hulot, professeur d’éducation musicale à l’IUFM de Versailles (Cergy-Pontoise), en pointent quelques-uns. La combinaison d’une résolution limitée à 400 × 400 pixels et d’une définition de 72 dpi de la représentation numérique d’une œuvre avec une utilisation portant sur l’œuvre intégrale empêche le recours à des photos de détails des oeuvres.

Par exemple : « Le tableau Les noces de Cana de Véronèse comporte une intéressante viola da braccio au premier plan. Avec une telle limite de résolution sur cet immense tableau, il est impossible de projeter et de zoomer convenablement sur ce détail. Qui peut croire justifier de telles limitations ? » La durée des extraits d’une oeuvre musicale crée également des obstacles de nature pédagogique. « Si je travaille en classe de troisième sur la compagnie des Ballets russes, il me semble évident que pour apprécier l’importance de la révolution qu’elle apporta, une analyse d’au moins deux ballets s’impose, en l’occurrence L’après-midi d’un faune et Le sacre du Printemps, ce qui permet d’aborder deux musiciens capitaux, Debussy et Stravinsky. Le premier dure environ dix minutes, le second environ trente. Habitués que sont nos élèves à côtoyer majoritairement le genre chanson, il me semble utile de les confronter à d’autres durées et d’autres langages musicaux ou chorégraphiques. Mais je crains qu’à trop limiter l’activité pédagogique des enseignants on finisse par empêcher ceux qu’ils éduquent de réellement avoir les clés d’accès à la culture ! »

La voie législative

Les contenus numériques en ligne sont quasiment absents des accords précités. Est-ce un hasard ? L’affrontement fondamental est-il prudemment différé ? C’est principalement l’écrit numérique qui est envisagé, l’audio et l’audiovisuel en étant exclus. La mise en ligne d’images protégées suppose qu’elles soient incorporées à un travail pédagogique ou de recherche, et qu’elles soient limitées en qualité et en quantité. Ces accords couvrent essentiellement des activités de diffusion en classe, les seuls cas de reproduction à des fins de distribution concernent la photocopie. Les possibilités d’échange de fichiers numériques avec les élèves et les étudiants sont donc limitées, tout comme les échanges entre collègues lors de travaux interdisciplinaires.

Ils favorisent une offre éditoriale qui est de type catalogue et non sur-mesure ou granulaire malgré les développements récents de l’offre numérique. « En dehors du cadre et des limites prévus par les accords, l’obtention dans l’enseignement des droits d’exploitation d’œuvres protégées, représente une double difficulté : savoir à quels ayants droit demander les autorisations et avoir le budget éventuellement nécessaire pour s’en acquitter. D’où la nécessité de proposer un dispositif permettant aux enseignants d’être à la fois clairs du point de vue juridique et d’obtenir facilement les droits pour ce qu’ils se proposent de faire pour leurs élèves ou leurs étudiants. »[13]

Les enjeux de l’exception pédagogique demeurent

À l’occasion de la transposition par le Parlement, en 2006, de la directive européenne sur les Droits d’auteurs et les droits voisins dans la société de l’information (Dadvsi), qui prévoit la possibilité d’une exception pédagogique, la CPU (Conférence des présidents d’université) et l’ADBU (Association des directeurs de bibliothèque universitaire), constatant que la France était est l’un des rares pays européens à ne pas l’avoir retenue dans son projet de loi, redoutaient que cette législation n’aboutisse à une domination accrue de la littérature de langue anglaise déjà majoritaire parmi les ressources d’information disponibles en ligne, notre seule référence devenant Google et nos seules sources étant les données anglo-saxonnes.

Un amendement adopté lors du débat de 2006, applicable en 2009 (CPI L122-5 3-e), définit l’exception pédagogique comme : « La représentation ou la reproduction de courtes œuvres ou d’extraits d’œuvres, autres que des œuvres elles-mêmes conçues à des fins pédagogiques, à des fins exclusives d’illustration ou d’analyse dans le cadre de l’enseignement et de la recherche, à l’exclusion de toute activité ludique ou récréative, et sous réserve que le public auquel elles sont destinées soit strictement circonscrit au cercle des élèves, étudiants, enseignants et chercheurs directement concernés, que leur utilisation ne donne lieu à aucune exploitation commerciale, et qu’elle soit compensée par une rémunération négociée sur une base forfaitaire nonobstant la cession du droit de reproduction par reprographie mentionnée à l’article L. 122-10 ». Il comporte des aspects restrictifs. Le rendez-vous de 2009 est important.

Un usage loyal

Pierre-Yves Gosset, délégué de Framasoft, se prononce pour un système de fair use à l’américaine. Aux États-Unis, le fair use, (usage loyal, ou usage raisonnable, ou usage acceptable) est un ensemble de règles de droit, d’origine législative et jurisprudentielle, qui apportent des limitations et des exceptions aux droits exclusifs de l’auteur sur son œuvre (copyright). Il essaie de prendre en compte à la fois les intérêts des bénéficiaires des copy – rights et l’intérêt public, pour la distribution de travaux créatifs, en autorisant certains usages qui seraient, autrement, considérés comme illégaux. Des dispositions similaires existent également dans beaucoup d’autres pays.

Les critères actuels du fair use aux États-Unis sont énoncés au titre 17 du code des États-Unis, section 107 (limitations des droits exclusifs : usage loyal (fair use) : « Nonobstant les dispositions des sections 106 et 106A, l’usage loyal d’une oeuvre protégée, y compris des usages tels la reproduction par copie, l’enregistrement audiovisuel ou quelque autre moyen prévu par cette section, à des fins telles que la critique, le commentaire, l’information journalistique, l’enseignement (y compris des copies multiples à destination d’une classe), les études universitaires et la recherche, ne constitue pas une violation des droits d’auteur. Pour déterminer si l’usage particulier qui serait fait d’une œuvre constitue un usage loyal, les éléments à considérer comprendront : l’objectif et la nature de l’usage, notamment s’il est de nature commerciale ou éducative et sans but lucratif ; la nature de l’œuvre protégée ; la quantité et l’importance de la partie utilisée en rapport à l’ensemble de l’œuvre protégée ; les conséquences de cet usage sur le marché potentiel ou sur la valeur de l’œuvre protégée. Le fait qu’une œuvre ne soit pas publiée ne constitue pas en soi un obstacle à ce que son usage soit loyal s’il apparaît tel au vu de l’ensemble des critères précédents ». « L’originalité du fair use par rapport aux doctrines comparables est l’absence de limites précises aux droits ouverts : alors que les autres pays définissent assez précisément ce qui est autorisé, le droit des États-Unis donne seulement des critères (factors) que les tribunaux doivent apprécier et pondérer pour décider si un usage est effectivement loyal. Par conséquent, le fair use tend à couvrir plus d’usages que n’en autorisent les autres systèmes, mais au prix d’un plus grand risque juridique. »

De la propriété à l’accès ?

Lors des Rencontres de l’Orme 2008, Frédérique Muscinési, médiatrice culturelle, a risqué le débat : « Aujourd’hui, l’intermédiaire ne peut plus constituer l’agent de la culture établie, ni du discours officiel. Il doit réfléchir, à l’heure des nouvelles technologies et de la substitution progressive de la propriété par la notion d’accès, à son rôle dans le cadre d’une probable et enfin réalisable démocratisation de la culture, non de sa consommation que son propre rôle antérieur rendait impossible ou invalidait, mais de sa création. » Elle a rappelé que « l’imitation et la modification sont à la base de la création entendue comme mémoire et transmission, puisqu’elles sont le moteur de l’apprentissage, processus ou objet même de la création ».

En conséquence, la propriété intellectuelle appliquée aux objets ou aux expériences artistiques, a passé d’être un appui aux auteurs à celui des industries culturelles qui, restreignant l’accès à l’objet de création, restreignent par là même ses possibilités. Culture et éducation cheminent ensemble, c’est bien connu…

Notes

[1] Crédit photo : Mr. Theklan (Creative Commons By-Sa)

[2] Les manuels scolaires : histoire et actualité, Alain Choppin, INRP, Hachette 1992

[3] « L’édition scolaire au temps du numérique », Jean-Pierre Archambault, Médialog n° 41

[4] Les turbulences de l’édition scolaire, Jean-Pierre Archambault, colloque SIF « Les institutions éducatives face au numérique », organisé par la Maison des Sciences de l’Homme de Paris-Nord, Paris les 12 et 13 décembre 2005

[5] Sur le blog du CNS (Canal numérique des savoirs), Laurent Catach (dictionnaires Le Robert) propose à ses collègues des voies de sortie des turbulences, leur demandant de se montrer optimistes : «  Éditeurs, ayez confiance, le web est une formidable opportunité, comme sans doute il n’en arrive que tous les quelques siècles… ». Il s’emploie à les rassurer : « Il est en effet logique et inévitable que plus la quantité d’informations augmente plus on a besoin de la hiérarchiser, de la filtrer, de la commenter, de l’animer et de la fédérer. Comment par exemple feront les élèves pour se repérer et trouver une juste information dans les 15 millions de livres numérisés de Google ? ». Il voit « se profiler un véritable eldorado éditorial ! ». Il met les points sur les i : « Nous avons à notre disposition un matériau informationnel extraordinaire (toute la richesse du web) à mettre en forme et à mettre en scène. Et l’information et sa mise en scène, n’est-ce pas là très précisément notre métier ?… La question n’est donc pas de savoir si les éditeurs scolaires ont un rôle à jouer sur le web : c’est une évidence. Et c’est même leur responsabilité vis-à-vis des jeunes générations de ne pas laisser les élèves se débrouiller tous seuls avec Internet. La seule et unique question est de savoir comment ils seront rémunérés. »

[6] Squeak – Hilaire Fernandes, « Squeak, un outil pour modéliser », EpiNet n° 86

[7] Abuledu

[8] Voir Wikipédia, notamment un « Wikipédia éducatif » et « Wikipédia : la rejeter ou la domestiquer », Éric Bruillard, Médialog n° 61

[9] Pour l’éducation voir « Les logiciels libres dans le système éducatif », Jean-Pierre Archambault et « Favoriser l’essor du libre à l’École », Jean-Pierre Archambault, Médialog n° 66

[10] Voir le Livre blanc sur les modèles économiques du libre, publié par l’April et Rapport du CSPLA (Conseil supérieur de la propriété littéraire et artistique) sur la diffusion ouverte des oeuvres de l’esprit

[11] Voir note 8, le Livre blanc sur les modèles économiques du libre, publié par l’April

[12] « Naissance d’un droit d’auteur en kit ? », Jean-Pierre Archambault, Médialog n° 55 et « Les licences Creative Commons dans le paysage éducatif de l’édition… rêve ou réalité ? », réflexions de Michèle Drechsler

[13] Arsmusicae Site d’information sur l’exception pédagogique pour l’enseignement et la recherche




Trop souvent placé sur le terrain idéologique et associatif…

Littledan77 - CC byOn attendait la dépêche AFP sur THE manifestation du moment, à savoir Solutions Linux, et elle vient de tomber sur mon téléscripteur.

Comme souvent avec l’agence, le premier paragraphe résume et annonce simultanément la couleur : « À contre-courant d’un secteur informatique qui fait grise mine, le logiciel libre avance ses pions à la faveur de la crise qui incite les entreprises à faire des économies et met ainsi au défi ce jeune marché de faire ses preuves ».

Qu’on y parle principalement business c’est somme toute logique pour un événement qui s’adresse avant tout au monde de l’entreprise. Mais que signifie exactement cette « mise au défi de faire ses preuves » ?

La réponse est peut-être dans la conclusion : « Trop souvent placé sur le terrain idéologique et associatif, le monde du logiciel libre doit, selon M. Poujol, se professionnaliser beaucoup plus pour réussir sa mue ».

Doit-on comprendre : quitter l’immaturité du « logiciel libre » pour adopter le plus sérieux et rassurant « Open Source » ?

Je ne connais pas ce M. Poujol mais j’y vois là comme une pointe de condescendance vis-à-vis d’un mouvement qui pourrait y perdre beaucoup si jamais ils réussissait effectivement cette mue[1].

Et vous ?

Notes

[1] Crédit photo : Littledan77 (Creative Commons By)




Et pourquoi pas aussi l’Open Money ?

Jessica Shannon - CC by-saCela demande analyse et précision au cas par cas mais on ne peut que constater que « l’état d’esprit du logiciel libre » est en train de s’infiltrer un peu partout actuellement. Et si le très sérieux journal britannique The Guardian posait récemment la question de la construction d’un monde Open Source il doit bien y avoir une raison.

Dans la sphère anglophone cela se traduit en effet par la multiplication des expressions précédées de l’adjectif « Open ». Les idées véhiculées ne sont pas forcément neuves ni originales mais elle retrouvent force et vigueur à l’heure du numérique, en s’inspirant toutes plus ou moins directement de la matrice Open Source.

Ce qui donne, et j’en oublie certainement, Open Hardware, Open Format, Open Data, Open ID, ou encore Open Politics, Open Gouvernance, et puis également Open Content, Open Knowledge, Open Research, Open Education (dont le très prometteur dérivé Open Educational Resources), sans oublier, cela va de soi, le champ culturel avec par exemple ses Open Music et Open Movie.

Et si la lecture de cette longue liste vous a donné soif, nous vous suggérons Open Cola ou, avec modération, Open Beer 😉

Tout comme Wikipédia dont sont issus l’ensemble des liens précédents, ces jeunes expressions ne sont pas figées. Elles sont en construction et susceptibles de fortement évoluer avec le temps. Mais mises en commun cela donne du sens et témoigne indéniablement que quelque chose d’intéressant est en train de se produire.

L’Histoire nous dira ce qui émergera exactement de cette effervescence. Certains voudraient déjà remplacer un modèle par un autre. Nous n’en sommes pas encore là mais il y a peut-être déjà un acquis : celui d’introduire une perturbation dans de nombreux systèmes dont nous ne nous étions pas toujours rendus compte qu’ils s’étaient avec le temps souvent refermés sur eux-même en laissant à l’économie et à l’argent une trop large place.

L’argent[1], justement, tiens, parlons-en ! Dans ce contexte-là pourquoi ne pas en profiter pour le mettre lui aussi sur la sellette ? Ne peut-on pas quelque part le considérer en l’état comme propriétaire ? Quelques hurluberlus ont donc osé s’attaquer de front au tabou pour créer une nouvelle expression à ajouter au corpus : « l’Open Money ».

C’est la traduction d’un vieux document que nous vous proposons ci-dessous pour alimenter le débat. Vous jugerez peut-être ce manifeste naïf, utopique et irréalisable, mais GNU/Linux, Wikipédia ou Creative Commons n’étaient-ils pas eux aussi des projets impossibles ?

Ce n’est qu’un simple exemple mais ne vous arrive-t-il pas de rêver à des alternatives à PayPal, carte de crédit et grosse ponction au passage, lorsque vous souhaitez faire un simple don à un logiciel libre sur Internet ? Pourquoi est-ce si compliqué, alors même que l’argent se dématérialise ? Et dois-je vous faire l’affront d’évoquer la crise globale que nous subissons aujourd’hui avec fatalisme, venue d’on ne sait où si ce n’est d’un monde financier devenu légèrement dément ?

Une folie en vaut bien une autre. Alors pourquoi ne pas tenter ensemble de lentement mais sûrement organiser différemment les échanges, la richesse, l’argent, les banques… en privilégiant cette fois-ci l’humain et le bien commun ?

Vous trouverez en fin d’article, une première liste de liens connexes autour du sujet (que nous vous invitons à compléter dans les commentaires). Nous vous proposons également en pièce-jointe la page du dossier « Sortie de crise : l’enjeu vital de la création de la monnaie » du journal Vendredi, qui a eu la bonne idée de reprendre ce billet dans son édition du 10 avril 2009.

Le manifeste de la monnaie libre

Open money manifesto

Michael Linton – 2001 – OpenMoney.info
(Traduction Framalang : Claude, Don Rico et Poupoul2)

Les problèmes dûs à l’argent proviennent entièrement du traitement de la monnaie conventionnelle : elle est créée par des banques centrales en quantité limitée. Il y a trois choses que nous savons sur cet argent. Nous savons ce qu’il fait : il va et il vient. Nous savons ce qu’il est : rare et difficile à obtenir. Et nous savons d’où il vient : il vient d’eux, pas de nous.

Ces trois caractéristiques, communes à toutes les monnaies nationales, font que l’on doit constamment lutter pour partager un bout du truc qui fait tourner le monde. Cet argent peut aller n’importe où, ce qu’il fait inévitablement, laissant la communauté démunie de son moyen d’échange.

C’est tout simplement dans la nature de la monnaie conventionnelle de créer, par ses allées et venues, les conditions de compétition et de rareté à l’intérieur des communautés ou entre elles.

Ainsi devons-nous courir après l’argent pour survivre, obligés de combattre pour lui, souvent durement. Tentés d’avoir le plus pour le moins, nous cherchons les meilleures affaires en tant qu’individus, entreprises, associations caritatives, gouvernements ou nations.

Telle société, telle génération : il semble que nous soyons déterminés à tout avoir, quelques soient les conséquences de nos excès et négligences sur les autres, maintenant et dans le futur.

Nous dépendons de cet argent, en n’ayant guère de choix et malgré ses défauts évidents. Certains ont peu ou rien, ne pouvant trouver le nécessaire pour vivre dans ce monde. D’autres en ont une quantité énorme sans, pour autant, que cela soit bénéfique pour eux et pour le monde.

Et tout cela, à propos de quoi ? Un argent rare qui court dans toutes les directions mais venant d’eux. Leur argent arrive avec de nombreux problèmes.

  • Le problème de la bonne quantité de monnaie en circulation ? Personne ne parait savoir comment garder un équilibre entre trop et pas assez.
  • Le problème de la distribution : où est-il ? qui le possède et qui n’en a pas ? Est il là où nécessaire ? Certainement pas.
  • Le problème du coût: coût de la création et de la sécurité, des opérations et de la comptabilité, le coût des intérêts, le coût des tribunaux.

Mais avant tout, et impossible à chiffrer, notre conduite monétaire dirigée a des effets absolument dévastateurs sur notre société et l’environnement mondial.

C’est la mauvaise nouvelle que vous deviez probablement déjà connaître. Maintenant, voici la bonne nouvelle: tous ces problèmes peuvent être résolus avec une monnaie mieux conçue.

L’argent n’est qu’une information, une façon de mesurer ce que nous échangeons, il n’a pas de valeur en lui même. Et nous pouvons en fabriquer nous-même en complément de la monnaie conventionnelle. Ce n’est qu’une question de conception.

Il n’y a aucune raison valable, pour une communauté, de rester sans argent . Être à cours d’argent quand il y a du travail à faire, revient à ne pas avoir assez de centimètres pour construire une maison. Nous avons le matériel, les outils, l’espace, le temps, la technique et l’envie de construire… mais nous n’avons pas de centimètres aujourd’hui ? Pourquoi être à cours de centimètres ? pourquoi être à court de monnaie ?

Les monnaies libres sont virtuelles et personnelles. Chaque communauté, réseau ou entreprise peut créer son propre argent libre. libre comme dans liberté d’expression, radical libre, librement disponible mais pas gratuit comme dans déjeuner gratuit ou tour gratuit. Vous ne l’avez pas pour rien. (NdT : Le classique problème de traduction en anglais de l’adjectif free)

La monnaie libre doit être méritée pour être respectée. Quand vous l’émettez, vous êtes obligé de l’honorer. Votre monnaie est votre parole : une question de réputation dans votre communauté.

La monnaie libre est une monnaie plate (NdT : ou neutre pour flat). Elle ne confère aucun pouvoir à l’un sur l’autre, on ne fait qu’un avec l’autre. Pas de problème d’exploitation, quand vous possédez votre propre monnaie, vous ne pouvez pas être acheté ou vendu facilement. Vous pouvez choisir ce que vous voulez faire pour gagner votre argent. Il n’y a pas de monopole, tous les systèmes co-existent dans le même espace. Plus plate que plate, la monnaie libre est super plate.

La monnaie libre est virtuelle et infinie. Les objets physiques existent dans l’espace et le temps (ce qui les rend limités), en nombre, en masse, en lieu et place. Les objets virtuels n’existent pas et n’ont pas a respecter de telles limites.

Tout est possible dans l’espace de la monnaie virtuelle, sous toutes les formes. Il n’est question que de mettre au point un système de notation pour ceux qui consentiraient à l’utiliser : l’argent n’est qu’un accord social.

Bien entendu, un système ne marchera en tant que monnaie que s’il est bien conçu. Un système de notation que personne ne veut utiliser n’est pas une monnaie valable. Aussi, bien qu’aucune limite aux monnaies ne puisse être pensée, toutes ne vont pas fonctionner.

C’est nous qui créerons la nouvelle monnaie qui fonctionnera, en quantité suffisante pour satisfaire nos besoins, et dans un contexte ouvert afin que chacun puisse contribuer et être reconnu. La monnaie libre circulera dans les réseaux et communautés qu’elle sert, complètement légale et virtuellement libre, par conception.

Nous pensons que les problèmes venant de la monnaie conventionnelle peuvent être résolus avec un système de monnaie libre.

  • Où la monnaie conventionnelle est rare et chère, la nouvelle monnaie existe en quantité suffisante et est libre.
  • Où la monnaie conventionnelle est créée par des banques centrales, la nouvelle monnaie vient de nous, comme des promesses de rachat : notre monnaie est notre parole.
  • Où la monnaie conventionnelle se propage avec inconstance, dans et hors de nos communautés, créant des dépendances nuisibles à l’économie, la société et la nature, la nouvelle monnaie complémentaire circule en permanence, encourageant le commerce et les échanges.

Donc, réglons le problème de l’argent et, pour les autres dangers menaçant notre monde, voyons ce qu’il adviendra.

Imaginons simplement…

  • Imaginons avoir l’argent nécessaire pour subvenir à tous nos besoins.
  • Imaginons une société et une économie fonctionnant sans les problèmes monétaires courants de pauvreté, d’exploitation, de sans-abris, de chômage, de peur et d’angoisse.
  • Imaginons un monde où chacun pourrait travailler et payer, travailler et jouer.
  • Imaginons un air sain, une eau et une nourriture saine pour tout le monde.
  • Imaginons une société humaine vivant en équilibre avec l’environnement.

Trop beau pour être vrai ? Ou peut être pas ? Peut-être cela mérite-t-il d’être vérifié ?

Ce sont nos convictions à propos de monnaie libre, nos idées de développement d’un système de monnaie libre, et notre intention d’agir maintenant pour mettre en œuvre nos convictions…nous vous invitons à adhérer.

Cette déclaration ne s’adresse pas à tel individu ou tel organisme. Les déclarations n’appartiennent pas à une personne ou une entité et ne sont en rien prévues pour servir les intérêts particuliers d’un individu ou d’une organisation.

Le but du manifeste de la monnaie libre s’auto-détermine : il est inhérent à son contenu.

  • Il n’est pas négocié, personne ne vote pour lui.
  • Il n’est ni une question d’opinion ni une proposition politique.
  • Sa validité est basée sur le sens interne créé et le sens externe généré…

Les concepts de monnaie libre n’appartiennent à personne.

Le manifeste est une série ouverte d’idées : les concepts sont là pour être étendus, développés, affinés. Nous vous invitons à adhérer.

Le manifeste est un document actif.

  • C’est un constat de preuves vérifiables : il y a des problèmes avec l’argent.
  • C’est une question de conception : les problèmes lié à l’argent peuvent être réglés facilement.
  • C’est une déclaration d’intention : Nous sommes en train de les régler.

Amagill - CC by

Quelques liens connexes

A l’heure de la crise, le mouvement open-money propose une approche au moins aussi stimulante de l’économie que l’open-source l’est pour le monde du logiciel. L’open money, c’est la libération des moyens de paiement. Nos monnaies actuelles sont en effet en un sens des systèmes propriétaires : l’euro et le dollar sont gérés par des banques centrales qui décident de leur mode d’émission tout en se faisant rémunérer pour leur mise à disposition aux banques commerciales. Ces dernières redistribuent ces liquidités (avec effet de levier grâce aux mécanismes de l’argent scriptural et des taux de réserves obligatoires) aux agents économiques. Deux agents économiques voulant commercer avec de l’euro ou du dollar doivent donc nécessairement faire appel à un système commercial extérieur sur lequel ils n’ont aucun contrôle.

(…) Le système monétaire classique est donc bel et bien verrouillé comme l’est, dans un autre genre, un logiciel propriétaire. Partant de ce constat, l’open money reprend l’héritage des LETS (Local Exchange Trading Systems, en français SEL pour Systèmes d’échanges locaux) pour proposer des circuits monétaires alternatifs libres : il s’agit d’implanter au sein d’une communauté donnée une ou plusieurs monnaies que les membres gèrent directement. Les échanges entre membres ne sont dès lors plus soumis à des conditions extérieures à la communauté telle que la quantité et la qualité de la monnaie en circulation.

Vous avez déjà joué au Monopoly, n’est-ce pas, avec des joueurs et une banque ? Si la banque ne donne pas d’argent, le jeu s’arrête, même si vous possédez des maisons. On peut entrer en pauvreté, non par manque de richesse, mais par manque d’outil de transaction, de monnaie. Dans le monde d’aujourd’hui, 90% des personnes, des entreprises et même des États sont en manque de moyens d’échange, non qu’ils soient pauvres dans l’absolu (ils ont du temps, des compétences, souvent des matières premières), mais par absence de monnaie. Pourquoi ? Parce que, comme dans le Monopoly, leur seule monnaie dépend d’une source extérieure, qui va en injecter ou pas. Il n’y a pas autonomie monétaire des écosystèmes.

Souvent réduit à son aspect médiatique, le cinquième pouvoir est en fait une force de décentralisation : médiatique, énergétique, alimentaire… et aussi monétaire comme l’explique Jean-François dans cette vidéo enregistrée en annonce de la conférence qui se déroule sur le sujet à Mexico.

Le passage des monnaies uniques, c’est-à-dire de l’économie propriétaire et centralisée, à l’économie diverse et ouverte pourrait valoir un prix Nobel. Mais comme les autres transitions en cours, elle n’est pas l’œuvre d’une personne mais d’une multitude d’acteurs. Comme les nouveaux médias, les nouvelles monnaies existent déjà. Dans les jeux vidéo, partout sur les services d’échange en ligne, dans nos vies lorsque nous rendons services à un ami qui nous rend plus tard service…

La réappropriation de nos existences passe aussi par la réappropriation des monnaies d’échange. C’est possible à l’âge numérique. Avec ces nouvelles monnaies, la notion de croissance vole en éclat. Nous passons de l’autre côté.

Tous nos échanges ne se fondent pas sur l’argent ni sur la valeur monétaire de ce que nous échangeons, expliquent les auteurs du forum. En échange d’une photo qu’on offre à la communauté Flickr, nous n’attendons pas nécessairement de l’argent en retour, mais plutôt un sentiment d’appartenance à une communauté, une visibilité, le plaisir de faire plaisir à ceux avec qui on l’a partage… Ce type d’échanges non monétaires n’a rien de nouveau, mais la question est de savoir si nos outils numériques peuvent favoriser leur renouveau ?

(…) A une époque où nous allons vers une monnaie virtuelle, le coût marginal d’introduire de nouvelles monnaies se rapproche de zéro, explique le consultant et éditorialiste David Birch, organisateur du Digital Money Forum britannique, d’où la probabilité qu’elles se démultiplient. Dans un scénario post-monétaire, quels autres types de biens et de services pourrions-nous échanger ? Comment persuader les gens de rejoindre votre économie alternative ? Comment expliquer ses bénéfices aux autres ?

Dans son livre « The Future of Money », Lietaer fait remarquer – comme l’a fait hier le gouvernement britannique – que dans des situations comme celle que nous connaissons actuellement tout s’arrête brusquement à cause de la pénurie de liquidités. Mais il explique également qu’il n’y a aucune raison pour que cet argent doive prendre la forme de la livre sterling ou qu’il soit émis par les banques. L’argent ne consiste qu’à « un accord au sein de la communauté d’utiliser quelque chose comme moyen d’échange ». Ce moyen d’échange pourrait être n’importe quoi, du moment que tous ceux qui l’utilisent ont la certitude que tous les autres en reconnaîtront la valeur. Durant la Grande Dépression, des entreprises aux Etats-Unis ont émis des queues de lapins, des coquillages et des disques de bois comme monnaie, de même que toutes sortes de bons de papier et de jetons de bois.

Une monnaie libre consiste en un ensemble de règles et processus qui définissent l’émission, l’évolution, la circulation et la consommation d’une monnaie ouverte, suffisante, décentralisée, peer-to-peer et démocratique. Elle appartient au domaine public tout comme les logiciels ou les productions intellectuelles du logiciel libre. Elle est conçue, développée, testée, documentée et mise en circulation de manière collaborative, chacune de ses parties pouvant être transformée et améliorée par quiconque. Les monnaies libres sont désignées sous le terme d’Open Money en anglais, suivant les travaux de Michael Linton et Ernie Yacub à l’origine de cette vision.

Notes

[1] Crédit photos : Jessica Shannon (Creative Commons By-Sa) – AMagill (Creative Commons By)




De quelques causes réelles de l’effondrement des Majors

Hryck - CC byVoici un article d’Ars Technica qui parle d’un livre qui n’a que peu de chances d’être traduit.

Il nous a semblé pourtant intéressant de vous le proposer ici en ces temps d’Hadopi dans la mesure où la thèse est d’expliquer que la crise de l’industrie musicale cherche ses causes bien en amont du problème du « piratage » et du P2P.

N’oublions pas en effet par exemple que lorsque nous sommes passés du vinyl au CD, les prix ont plus ou moins doublé[1] alors que la part réservée aux artistes n’a elle pas bougé !

Edit : Cet article a été reproduit dans le journal Vendredi du 15 mai 2009 (image scannée).

Crever le p***** d’abcès : comment le numérique a tué la musique à gros sous

"Lancing the f***ing boil": how digital killed Big Music

Nate Anderson – 24 mars 2009 – Ars Technica
(Traduction Framalang : Olivier et Don Rico)

Dans son livre Appetite for Self-Destruction: The Spectacular Crash of the Record Industry in the Digital Age (NdT : Envie d’auto-destruction : la chute spectaculaire de l’industrie du disque à l’ère du numérique), Steve Knopper se penche sur le music business. Ars se plonge dans le livre, qui affirme que l’effondrement des majors n’est pas (essentiellement) dû au P2P.

Contrairement aux idées reçues, même les grands pontes du music business ont le sens de l’humour, comme cela transparaît souvent dans le nouveau livre de Steve Knopper, Appetite for Self-Destruction: The Spectacular Crash of the Record Industry in the Digital Age. Dans l’histoire que raconte Knopper, la cause du déclin des maisons de disques n’est pas seulement la technologie ou les programmes de partage ; c’est surtout une question de personnalités, et son livre regorge d’anecdotes dépeignant les dirigeants des majors.

En voici une que l’on trouve vers la fin du livre :

La tension autour du SDMI atteignit un pic à la fin août, à la Villa Castelletti, un somptueux hôtel dans un vignoble vallonné à une trentaine de kilomètres de Florence. Tous les cadres étaient réunis dans une cour de la villa, au loin, on entendait de temps à autre des coups de fusil destinés à éloigner les oiseaux des vignes. La réunion suivait son cours et Al Smith (Vice-président de Sony Music), comme à son habitude, était en rogne, en désaccord avec une proposition du président de session, Talal Shamoon. Finalement, Smith quitta la réunion. À peine trois secondes plus tard, un énorme Pan ! retentit. Les membres de la SDMI se regardèrent fébrilement. Shamoon dit alors du tac au tac : « Je crois qu’une place vient de se libérer chez Sony Music ».

C’est amusant, mais aussi assez navrant – pas à cause des oiseaux et des fusils, mais parce que cette réunion se tenait dans le cadre de l’extrêmement coûteuse Secure Digital Music Initiative, que les majors ont initiée en 1998 pour coller des DRM sur la musique. Ces grandes réunions se sont tenues partout dans le monde (dans des lieux comme la Villa Castelletti qui sont loin… d’être donnés) pour finalement accoucher d’un procédé de tatouage numérique soi-disant "inviolable". Le groupe a alors lancé un concours et invité des équipes à cracker SDMI ; le professeur d’informatique Ed Felten a rapidement mis à mal quatre procédés de tatouage numérique différents. La SDMI la ensuite menacé pour le dissuader de rendre ses résultats publiques, le professeur a alors riposté en les attaquant en justice, et pour finir toute l’affaire a été finalement abandonnée. Tout comme la SDMI.

Si l’industrie du disque avait abordé la musique numérique comme elle a abordé le CD, sans cette obsession pour les protections anti-copies, en acceptant un nouveau format et en amassant de l’argent à la pelle, elle se porterait peut-être encore pour le mieux. Mais l’industrie en a décidé autrement, et, comme le raconte Knopper, elle en a payé le prix.

Bienvenue dans la jungle

L’industrie du disque n’est pas une industrie comme les autres et ne l’a jamais été. Prenons par exemple, juste pour illustrer, une anecdote à propos du label Casablanca dans les années 70 :

Danny Davis, le gars qui s’occupait de la promo, se souvient d’une fameuse discussion téléphonique avec un programmeur radio pendant qu’un collègue, muni d’un club de golf, détruisait tout sur son bureau avant d’y mettre le feu, et ce n’était pas une hallucination due aux drogues.

« On pouvait s’attendre à tout, chez Casablanca », raconte Bill Aucoin, qui était alors manager du groupe de rock le plus connu chez Casablanca, KISS. « Nos premiers bureaux étaient en fait une maison avec un cabanon à côté de la piscine. Dans ce cabanon, à n’importe quelle heure du jour ou de la nuit, que vous fussiez promoteur de disque ou DJ, vous pouviez vous envoyer en l’air quand vous le vouliez. »

L’industrie a appris à frapper des hits (et donc de l’argent) dans les années 60 et 70, mais c’est le CD qui a fait des maisons de disque les monstres que l’on connait. Knopper consacre la moitié de son livre à expliquer le boom du CD, et n’évoque Napster qu’au bout de 113 pages. C’est parce que, de son point de vue, on ne peut comprendre la chute des labels à l’ère de la distribution numérique qu’en étudiant le précédent changement de format majeur et les énormes profits qu’il a apportés à l’industrie.

Si vous avez suivi Battlestar Galactica récemment, ou si vous lisez Nietzsche, vous connaissez les théories traitant de la nature cyclique de l’Histoire, et c’est sous cet angle que Knopper présente son histoire. À l’arrivée du CD, nombreux furent les dirigeants des maisons de disque à le détester. L’un d’entre eux raconte, même maintenant : « Je pensais que (les ingénieurs qui l’avait produit) aurait pu trouver un moyen d’éviter le piratage ».

Mais avec du recul, ces petits disques de plastique ont été une véritable mine d’or. Les gens ont adoré ce nouveau format, et nombreux furent ceux qui rachetèrent toute leur collection en CD, et les prix de la musique enregistrée grimpèrent en flèche. Comment l’industrie a-t-elle répondu à cette aubaine ? En entubant les artistes.

Knopper raconte comment les labels ont écrit de nouveaux contrats pour ce nouveau format, des contrats où figuraient des « réductions d’emballage » et des « indemnités de marchandise gratuite » plus élevées. En plus de ces déductions, les taux de royalties touchés par les artistes ont été réduits. « Après que les labels ont inventé ces nouvelles déductions », ajoute Knopper, « l’artiste moyen touchait 81 cents par disque. À l’époque des vinyles, les artistes touchaient un peu plus de 75 cents par disque. Donc les labels vendaient les CD huit dollars plus cher que les vinyles, mais les artistes ne gagnaient que six cents de plus par album. »

Ces pratiques ont alimenté un boom du CD qui a duré de 1984 à 2000, date à laquelle le sol a commencé à se dérober sous les pieds de l’industrie. Après deux décennies de musique à prix d’or, et d’investissement minimum pour des singles de bas-étage, les labels se sont engraissés en pondant à la chaîne des albums ne contenant que deux tubes. Les autres chansons pouvaient être médiocre, mais les fans qui cherchaient un tube particulier achetaient l’album quoiqu’il arrive (j’en veux pour exemple le fait que j’ai un jour eu en ma possession un exemplaire de l’album Tubthumper de Chumbawamba).

Le succès de Napster a bien montré à l’industrie du disque que le nouveau format majeur était arrivé. Avec tout le blé qu’ils s’étaient fait lors du précédent changement de format, on aurait pu croire que l’industrie serait enchantée de voir débarquer un nouveau système à même de faire consommer plus de musique à plus de fans encore plus vite. Leur priorité numéro 1 aurait dû être de faire de la musique numérique leur nouveau CD, mais ça ne s’est pas passé comme ça. L’industrie a simplement souhaité la mort du numérique.

Une spirale infernale

Le nombre d’interviews que Knopper a réalisées pour le livre est impressionnant ; elles lui permettent de mettre à nu les personnalités qui se cachent derrière l’industrie du disque. Par conséquent, il a aussi à sa disposition de nombreuses anecdotes aussi obscures qu’instructives, comme celle du dirigrant de Liquid Audio (vous vous souvenez de ça ?), Gerry Kearby. Kearby voulait créer l’anti-Napster, un distributeur de musique en ligne légal, qui utiliserait donc des DRM. Mais au moment de négocier avec les labels, personne n’a vraiment voulu s’engager.

Kearby raconte à Knopper l’instant où il a compris que ça ne marcherait jamais. « Un jour, dans un moment de pure sincérité, (un représentant de Sony) m’a dit, « Écoute Kearby, mon rôle, c’est de te couler. Nous ne voulons pas que tu réussisses, à aucun prix. » Certains étaient plus curieux que les autres, pas de doute là-dessus. Mais, au fond, on aurait dit des vendeurs de carrosses cherchant à repousser l’avènement de la voiture aussi longtemps que possible. »

Un des défauts de ce livre, c’est que cette triste histoire d’incompétence numérique est déjà largement connue. Appetite for Self-Destruction n’apporte rien de nouveau pour ceux qui suivent les sites comme Ars Technica. En voici un résumé : après l’affaire Napster, les labels ont commencé à faire joujou en traînant les pieds avec leurs propres services tout pourris (si je vous dis PressPlay ?) mais ne se sont jamais sérieusement mis à la distribution numérique. Il a fallu que Steve Jobs et l’iPod propulsent Apple aux commandes, une position qui leur a permis de lancer l’iTunes Music Store avec le contenu des maisons de disques et d’offrir les chansons pour 1$. Les DRM, que les labels ont imposés, ont assis la position de leader d’Apple sur le marché de la musique aux USA (ils refusaient de mettre leur système Fairplay sous licence, et l’iPod était le lecteur le plus vendu). Les labels n’ont compris que tardivement ce qui s’était passé, après quoi ils ont tenté de mettre des bâtons dans les roues d’Apple en permettant à des magasins comme Amazon de vendre de la musique sans DRM. Il parle aussi un peu de Kazaa, du fiasco que fut le rootkit de Sony BMG, et de la futilité de la campagne de poursuite lancée par la RIAA.

Mais pour l’essentiel des ces informations, on les trouve ailleurs, et pas seulement sous forme d’articles sur les différents blogs ou sites d’information qui ont couvert les évènements. Des auteurs comme Steven Levy dans le livre The Perfect Thing (iPod) ou Joseph Menn dans All the Rave (Napster) abordent les mêmes sujets, mais de manière bien plus détaillée.

Mais même si Appetite for Self-Destruction ne nous sert essentiellement que du réchauffé, ce qui le différencie, c’est l’accent qu’il met sur les personnes, un aspect trop souvent ignoré par les articles techniques. Après lecture, vous n’éprouverez certainement aucune compassion pour les maisons de disque, mais vous comprendrez mieux les grands pontes qui tiraient les ficelles, et les choix qu’ils ont fait à la lumière de leur propre histoire dans l’industrie de la musique.

Knopper réussit aussi très bien à établir un parallèle entre l’épisode Napster/iTunes/P2P et les grandes années du CD (même s’il en résulte un chapitre long et parfois fastidieux sur les boys band qui semble secondaire par rapport au sujet traité). C’est délibéré, et il le fait pour étayer sa propre thèse comme quoi la majorité des problèmes que rencontrent les maisons de disques avec la musique dématérialisée prennent leurs racines dans ces deux décennies passées à s’engraisser sur les ventes de CD. Ils n’étaient tout simplement pas prêts ou pas désireux de s’adapter à un nouveau monde où la musique s’achète à la carte et où les morceaux sont moins chers.

Knopper cite Robert Pittman, co-fondateur de MTV. « Voler de la musique, ce n’est pas tuer la musique », d’après Pittman. « Quand je discute avec les gens de l’industrie de la musique, ils admettent pour la plupart que le problème est surtout qu’ils vendent des chansons et plus des albums. Le calcul est vite fait. »

« Je me suis rendu compte que dans le milieu, nous étions tous à côté de la plaque », confiait Barney Wragg, cadre chez Universal après avoir quitté le label en 2005 (Wragg est entré l’année suivante chez EMI comme responsable de la musique numérique).

Et James Mercer, chanteur du groupe indépendant the Shins, y va encore plus franchement. « Vous voyez tous ces articles à propos de la débacle de l’industrie du disque », dit-il. « Quand on se penche sur toutes les erreurs commises, c’est un peu comme crever ce putain d’abcès et le désinfecter. Merde, c’est vraiment pas une catastrophe pour les groupes. »

Le piquant de ces citations et l’énorme travail d’interview réalisé font de Appetite for Self-Destruction une lecture passionnante. Pas grand chose de neuf pour les inconditionnels de technologie ou les fanas de droit, mais il résume bien quarante ans de personnalités et d’histoire de l’industrie de la musique pour qui veut comprendre comment l’industrie en est arrivée là.

Notes

[1] Crédit photo : Hryck (Creative Commons By)




Faute de pirates, le livre électronique restera-t-il à quai ?

Curiouslee - CC byL’iPod d’Apple est un indéniable et spectaculaire succès. Dans quelle mesure le « piratage » de la musique y aura-t-il contribué ?

La question reste ouverte, mais ce qui est sûr c’est que lorsqu’il m’arrive, en professeur curieux, de demander naïvement à mes élèves si ils ont bien acheté tous les morceaux musique qui se trouvent dans leur iPod personnel, ils me regardent généralement d’un air incrédule qui me donne instantanément un petit coup de vieux !

Un tel succès se répétera-t-il demain avec le Kindle d’Amazon qui se rêve déjà en « iPod du livre » ?

Peu probable en l’état, nous dit Bobbie Johnson dans un article du Guardian traduit ci-dessous, pour la simple et bonne raison qu’il n’y a justement pas pour le moment de… « piratage » massif de livres électroniques propre à bousculer et faire évoluer le monde de l’édition[1].

Pourquoi les livres électroniques ne s’imposent-ils pas ? On ne les pirate pas assez.

Why aren’t ebooks taking off? Not enough pirates

Bobbie Johnson – 9 février 2009 – Guardian.co.uk (Blog Technology)
(Traduction Framalang : Don Rico)

Le Kindle d’Amazon veut faire exploser le marché du livre électronique, mais le plus gros frein à son succès pourrait être le manque de téléchargements illégaux.

On compare souvent l’industrie de la musique et l’édition. Le Kindle d’Amazon, nous dit-on, pourrait être le « iPod du livre ». Tout le monde meurt d’envie de connaître le succès fulgurant qu’à rencontré iTunes, et chacun redoute les dégâts que les supports numériques pourraient infliger à une industrie des médias à la traîne et retranchée sur ses positions.

Chacun observe le mécanisme qu’on a vu se produire pour la musique et la vidéo – un médium ancien, transformé en profondeur par la technologie –, et attend qu’il s’applique au livre. Mais les chances que ce phénomène se produise dans un futur proche sont extrêmement minces. Pourquoi ? C’est très simple.

Si les acteurs de l’industrie du disque ont eu l’idée de proposer de la musique au téléchargement, ce n’est pas parce qu’ils ont eu un coup de génie visionnaire, ni même parce qu’Apple leur a forcé la main en mettant en place un écosystème astucieux autour de l’iPod (l’iTunes Store n’a été ouvert qu’en 2003). Non, la véritable raison, c’est que les clients avaient choisi de pirater la musique.

Pour l’exprimer de façon moins triviale, la technologie ne force pas l’industrie du livre à affronter un changement radical dans les pratiques de consommation, car ce scénario ne se produit pas. Les clients n’imposent pas cette mutation en abandonnant les livres papiers au profit des livres électroniques. Voilà pourquoi l’édition n’est pas confrontée à ce problème.

Des problèmes, il y en a, bien sûr. L’industrie du livre connaît des difficultés. On n’achète plus de livres. Les ventes sont en berne. Sites Internet, grandes surfaces et librairies géantes étouffent les petites structures et étranglent le marché.

Mais contrairement à ce qu’a connu l’industrie du disque – dont les clients perdus se sont rués sur Napster, Kazaa ou Gnutella –, le lecteur moyen, pour se procurer ses romans, ne se reporte pas sur des sources légalement douteuses ou ne va pas se procurer une copie du dernier bestseller à la mode auprès du dealer de livres du coin de la rue. S’il veut partager des fichiers, il trouve quelqu’un pour lui prêter un exemplaire, ou se rend dans un lieu où le partage de l’information bénéficie du soutien officiel de l’industrie (on appelle ça des bibliothèques).

Mais au fond, le véritable problème, c’est simplement que les clients n’achètent plus autant de livres… voire plus de livres du tout.

Auteurs et éditeurs se servent de la technologie quand elle leur bénéficie directement – comme outil promotionnel ou canal de vente —, mais s’ils n’agissent pas dès à présent pour propulser le marché du livre électronique, il semble peu probable qu’ils se réveillent un matin en s’étonnant qu’un pirate leur a piqué leur petit-déjeuner.

Le piratage est un gros problème pour les industries qui produisent du contenu numérique, mais pour l’instant on achète un livre, pas un document texte caché entre deux feuilles de papier – n’en déplaise à de nombreux fanas du livre électronique. Les chaînes de distribution de l’industrie du livre ont été frappées de plein fouet par l’avènement de la technologie, mais le produit physique, lui, résiste plutôt bien.

En fait, du point de vue des éditeurs, publier un livre électronique c’est encourager le piratage, parce que cela revient à mettre un texte copyrighté sous un format numérique qui, même bardé de DRM, sera cracké un jour ou l’autre, simplement parce que c’est possible.

L’industrie du disque, quant à elle, a initié ce changement en remplaçant les enregistrements analogiques par des fichiers numériques. Le téléchargement remplace peut-être le CD, mais cette modification des pratiques a eu lieu seulement parce que la première technologie a rendu la seconde possible. Car sans CD à encoder, il serait bien plus difficile d’accéder à de la musique numérisée.

Mon propos n’est pas de dire que le seul moyen pour l’industrie du livre électronique de connaître le succès est de promouvoir le piratage. Mais sans celui-ci, pas besoin de se mettre au boulot. Aucun lien de cause à effet évident ne forcera les éditeurs à bouger de leur fauteuil en cuir et réagir.

Le véritable changement se produira sans doute à mesure que davantage d’auteurs appartenant déjà à l’ère numérique insisteront pour que l’industrie du livre innove. Mais il s’agit d’une transition de génération, et nous en sommes encore très loin.

Non pas que je ne croie pas au succès potentiel du livre électronique ; je pense simplement que sans catalyseur externe pour bousculer l’industrie, les progrès dans ce domaine seront très, très lents.

Notes

[1] Crédit Photo : Curiouslee (Creative Commons By)




Le bien commun : l’assaut final – Un documentaire de Carole Poliquin

Nombreux sont ceux qui pensent qu’en France le projet de loi « Création et Internet » (ou Hadopi) n’est pas qu’une simple question technique et juridique pour endiguer le « piratage », mais se situe bien au delà, sur le front politique et sociétal de la défense des biens communs contre une « marchandisation » croissante des activités humaines, ici la culture[1].

C’est pourquoi il nous a semblé intéressant de proposer aux lecteurs de passage un « vieux » documentaire que vous n’avez peut-être pas eu l’occasion de voir à sa sortie en 2002 (durée : 1 heure).

Il a pour titre Le bien commun : l’assaut final et a été réalisé par la québécoise Carole Poliquin (dont nous avons obtenu accord pour diffusion).

Voici ce qu’en disait Bernard Langlois dans le journal Politis :

Sur le fond, c’est une charge très argumentée, très démonstrative contre la mondialisation libérale, nourrie de reportages et de témoignages recueillis au Canada, au Mexique, aux États-Unis, en Inde, en France. Avec les exemples très parlants de la marchandisation en cours de tous ces « biens publics mondiaux » que sont l’eau, les semences, la santé, les gênes, les connaissances et pratiques ancestrales ou nouvelles… Un thème que nous connaissons bien, autant de tristes réalités d’aujourd’hui.

C’est la forme qui est originale, avec un parti pris d’humour en contrepoint très réussi. Carole Poliquin a repris le thème et le découpage de la Genèse, ces sept jours qui bâtirent le monde ; mais ici ce n’est pas Dieu, c’est « l’homme d’affaires » qui se donne une semaine pour asservir le monde au profit, pour créer enfin ce « marché total » qu’on nous propose comme horizon. À chaque jour son thème (l’eau, les semences etc.). Chaque soir de la semaine, l’homme d’affaires reprend son Boeing, volant dans les étoiles vers sa prochaine mission, tandis qu’une voix off commente : « Et l’homme d’affaires se dit que cela était bon pour ses actionnaires ».

On notera que vous pouvez acheter le DVD de ce documentaire directement depuis son site officiel (ou en France chez Voir et Agir), non seulement pour en obtenir une version de qualité, des bonus, etc. mais également pour soutenir l’action de Carole Poliquin et l’aider à produire de nouveaux sujets comme son dernier en date Homo Toxicus[2].

—> La vidéo au format webm

Peut-être le trouverez trop simpliste, trop « altermondialiste », ou trop… réaliste ? Peut-être aurez-vous envie d’y ajouter un « huitième jour » autour de la création numérique (logiciels, œuvres de l’esprit…) ? Peut-être êtes-vous agréablement ou désagréablement surpris de sa mise en lumière sur le Framablog ? Il ne tient qu’à vous de vous exprimer dans les commentaires ci-dessus 😉

Notes

[1] Ce « front des biens communs » fait écho à deux livres de référence du Framablog (disponible tous deux en libre téléchargement) : Du bon usage de la piraterie de Florent Latrive et Cause commune de Philippe Aigrain.

[2] Résumé du documentaire Homo Toxicus de Carole Poliquin (2008) : « Une expérience planétaire est en cours et nous en sommes les cobayes. Chaque jour, des tonnes de substances toxiques sont libérées dans l’environnement sans que nous en connaissions les effets à long terme pour les êtres vivants. Certaines d’entre elles s’infiltrent à notre insu dans nos corps et dans celui de nos enfants. En même temps que notre patrimoine génétique, nous transmettons aujourd’hui à nos enfants notre patrimoine toxique. Dans une enquête inédite, menée avec rigueur et humour à partir de ses propres analyses de sang, la réalisatrice explore les liens entre ces substances toxiques et l’augmentation de certains problèmes de santé comme les cancers, les problèmes de fertilité et l’hyperactivité. Les conclusions sont troublantes… »