Guerre contre l’Empire – épisode 37 – formats ouverts – ODF vs OOXML

C’est toujours un peu la même histoire… Une histoire qui risque bien d’être au cœur politique, économique, écologique et social de ce siècle : un monde non marchand qui cherche à se faire une place dans des espaces toujours plus réduits et convoités par un monde marchand. Une histoire où le logiciel libre a son mot à dire en affirmant, confiant mais lucide, que la route est longue mais la voie est libre

L’épisode du jour c’est la question des formats, véritable ligne de front entre le monde libre et le monde propriétaire. Les enjeux sont en effet plus qu’importants : la transparence, l’interopérabilité et la pérennité de nos données numériques (qui à l’avenir seront presque synonymes de nos données tout court !).

Et pour ce qui est des formats numériques en bureautique alors là c’est carrément la guerre ouverte avec une opposition frontale entre l’OpenDocument et l’Open XML (ou OOXML) de Microsoft. Mais il y a Open et Open. Quand le premier offre de solides garanties le second ne semble être avant tout qu’une manœuvre pour conserver une position dominante de fait (dont le piratage massif de la suite Microsoft Office n’est pas étranger soit dit en passant)[1].

D’un côté le libre et ses arguments et de l’autre le propriétaire dont les arguties pseudo-pragmatiques à court terme chechent à retarder l’échéance pour continuer le plus longtemps possible à engranger des bénéfices (et rassurer les actionnaires). Nonobstant les moyens considérables à disposition de Microsoft pour faire pression sur les structures et pouvoirs en place, l’échéance est pourtant bel et bien inévitable comme nous le rappelle l’article ci-dessous.

Traduit par nos petits activistes de FramaLang[2], il nous vient de Red Hat, société (et distribution) bien connue du monde Linux et très active dans la promotion de l’OpenDocument.

Screenshot - Red Hat Magazine web site

ODF : Le format inévitable

ODF: The inevitable format

T. Colin Dodd – 25 juillet 2007 – Red Hat Magazine

En 1999, un scientifique voulut consulter des données sur les échantillons collectés sur le sol de Mars en 1975 par la sonde Viking. Il souhaitait en effet tester une théorie sur la détection de l’existence de bactéries et de microbes Martiens – en d’autres termes, trouver de la vie sur Mars. Le scientifique pensait qu’il trouverait ce qu’il cherchait quelque part sur un site de la NASA, mais ce ne fut pas si simple. Les données originales avaient été égarées, et lorsque l’on retrouva les énormes bandes magnétiques qui conservaient les données, elles étaient "dans un format si ancien que le programmeur qui le connaissait était mort." Par chance quelqu’un trouva une imposante impression papier de ces données et la compréhension de l’univers par l’humanité se développa un peu plus… Le sentiment tragique qui aurait accompagné la perte de cette connaissance est l’écho des récits de la destruction de la Bibliothèque d’Alexandrie, et probablement ce pourquoi les autodafés sont un signe certain d’une société malade.

Bien sûr, toutes les données perdues ou inaccessibles ne contiennent pas des preuves de la vie sur Mars, et toutes les bribes d’informations n’ont pas besoin de survivre à leur créateur. Beaucoup de documents illisibles ne manqueront jamais, mais une politique publique responsable demande que les documents gouvernementaux – contrats, actes notariés ou enregistrements juridiques qui font autorité pour des décades ou même des siècles – doivent être archivés et accessibles. Quel que soit le cas, quand la donnée est stockée et partagée dans un format ancien ou propriétaire disparu, elle deviendra au fil du temps onéreuse d’accès ou disparaitra entièrement à tout jamais.

Lorsque l’on parle de créer, partager ou stocker numériquement des documents, la technologie qui prévient le dépérissement des formats existe déjà et elle est largement (et de plus en plus) utilisée. Elle s’appelle l’Open Document Format (ODF) et si vous ne l’utilisez pas aujourd’hui, vous le ferez sûrement un jour.

ODF, un langage de description de document basé sur le XML, a été initialement développé en 1999 par StarDivision, et ensuite par le projet OpenOffice.org de Sun Microsystem[3]. Conçu comme une alternative libre aux logiciels de gestion de documents propriétaires, qui dominaient alors le marché, la force motrice soutenant l’ODF était le besoin d’un format de document indépendant d’un éditeur et d’une application, lisible et enregistrable par tous, sans s’encombrer de royalties dues aux licences. Sa promotion se basait sur le fait que le monde des affaires et les contribuables pourraient économiser de l’argent. Un format ouvert créerait une compétition dans la sphère des applications de gestion de documents. Tous les documents pourraient être lus et partagés par quiconque. Rien ne pourrait se perdre à cause du temps ou suite à des changements dans un code propriétaire ou à des exigences de licences. Des sujets de grand intérêt public – données de recensement, données météorologiques, statistiques sur la santé publique, rapports d’enquêtes, enregistrements de tribunaux ou recherche fondamentale scientifique, tous payés par les contribuables, ne seraient plus encodés dans un format unique, propriétaire et fermé, demandant aux citoyens de payer double pour accéder à leurs propres informations. L’utilisation de l’ODF, disent ses partisans, permettrait de garder public les documents publics.

L’OASIS (Organization for the Advancement of Structured Information Standards) a été fondée en 2002 pour standardiser le format, qui a été reconnu par l’Organisation internationale de normalisation (ISO) en 2006[4]. L’Open Document Format Alliance s’est formée en mars 2006 pour promouvoir le format, et défendre le dossier public, légal et politique pour l’adoption de standards ouverts technologiques auprès des gouvernements et des institutions publiques.

"Red Hat était un membre fondateur de l’Alliance ODF et Tom Rabon (Vice-Président Corporate Affairs) est au comité exécutif," déclare Stéphanie McGarrah, ancienne Responsable des Politiques Publiques de Red Hat. "Red Hat travaille avec les autres membres du comité exécutif pour coordonner les efforts dans les discussions avec les gouvernements du monde entier à propos de l’ODF."

Bien que l’ODF ait été lancé avec beaucoup de bon sens, l’élan d’une large adoption a été entravé par l’inertie bureaucratique, les politiques locales, des idées fausses persistantes (renforcées par ses opposants) à propos de la viabilité de l’ODF et les "dangers" de son adoption. La plupart de la peur, de l’incertitude et du doute ont émané d’une source, dont les formats propriétaires constituent la plupart des documents dans le monde.

Les opposants à l’ODF ne peuvent admettre son adoption inévitable, et pratiquent un lobby actif à son encontre. Ce n’est pas que quelqu’un soit contre le format ODF en lui-même, ou trouve une quelconque vraie raison pour remettre en cause sa nécessité. La logique qui soutient l’ODF et la transparence de sa création est presque inexpugnable. Ce sont plutôt les standards ouverts sur lesquels l’ODF est bâti qui sont le plus souvent attaqués. Du point de vue de ses détracteurs, les choses sont bien telles qu’elles sont actuellement. Le « standard » est le leur. Ils ont la main mise sur le "marché" du document, et l’envisagent comme un "territoire" qu’ils ont "conquis" de façon juste. Ils ne peuvent envisager un futur sans lui (ça ne fait pas partie de leur plan stratégique), et tant que tout le monde utilise leurs applications et leurs formats, pourquoi changer ? Les opposants à l’ODF consacrent des ressources considérables à faire du lobbying auprès des législatures et des conseils d’administrations dans une tentative de les convaincre que l’adoption du format ODF limite en fait leur choix et fait du tort à l’efficacité apportée par le marché en "excluant" des éditeurs comme eux. Ils disent que la migration est coûteuse, et soutiennent même que l’adoption de l’ODF limitera l’accès public en encombrant l’environnement avec de trop nombreux formats "incompatibles". Et qui peut réellement croire tous ces "machins libres", d’ailleurs ?

Mais les partisans comme l’Alliance ODF ont leurs propres arguments, et la plupart d’entre eux sont issus de la preuve du contraire, du genre "En fait, c’est l’inverse qui est vrai…".

L’Alliance ODF défend l’idée que – au contraire – les standards ouverts encouragent le choix et la compétition entre fournisseurs en égalisant le terrain de jeu. Le standard est ouvert et disponible librement pour quiconque veut le mettre en oeuvre. Il n’y a pas de compétition autour du format, mais uniquement sur les applications qui l’utilisent. Dans cet univers, c’est la meilleure application qui gagne. L’alliance ODF souligne aussi que la mise en place ou la migration vers l’ODF n’est pas plus compliquée ou plus coûteuse que la mise à jour périodique d’une version à l’autre d’une application propriétaire, et en limitant les besoins de mises à jour futures, des réelles économies peuvent être réalisées avec le temps. À propos de l’accessibilité, Open Office (et les autres applications conformes à l’ODF) sont librement téléchargeables et prêtes à utiliser dès maintenant. Il n’y a pas de problèmes de compatibilité, disent-ils, seulement des problèmes de non coopération.

« Je pense que certains gouvernements ne sont pas au courant de l’ODF, ou n’ont pas les équipes techniques en place pour comprendre la valeur de l’ODF, » explique McGarrah. « Ainsi, c’est le travail de l’Alliance de diffuser ce message auprès des personnes au gouvernement qui prennent ces décisions ».

Mais l’argument irréfutable en faveur de l’utilisation de l’ODF pour les documents publics est le fait que c’est une meilleure affaire pour les citoyens et les contribuables sur le long terme. Utiliser des « standards » fermés, du logiciel propriétaire pour des documents publics est comme acheter le proverbial siège de toilettes à 10 000 $, ou interdire au gouvernement fédéral de négocier de meilleurs prix sur les médicaments auprès des sociétés pharmaceutiques au nom de patients de Medicaid et Medicare, ou essayer de nourrir une armée et reconstruire une zone de guerre en accordant des contrats secrets, non compétitifs et sans appels d’offre. C’est anti-compétitif dans le pire sens.

Malgré l’opposition, l’adoption de l’ODF suit une progression lente mais inexorable, et plus les politiciens prennent conscience de ce problème, plus l’ODF viendra défier l’ubiquité actuelle des formats propriétaires. Faisant un pas de plus en avant, le Japon a récemment demandé à ce que ses ministères passent des contrats avec des éditeurs de logiciels dont les applications sont bâties autour de standards ouverts. Le Brésil, la Pologne, la Malaisie, l’Italie, la Corée, la Norvège, la France, les Pays-Bas, le Danemark, la Belgique, le Commonwealth du Massachussetts, et le gouvernement de l’État de Delhi en Inde ont tous pris des engagements de principe sur l’adoption de l’ODF et, peut-être plus important, reconnaissent la nécessité d’utiliser des standards ouverts. L’Alliance ODF continue à équiper et éclairer les décisionnaires avec l’information et les outils dont ils ont besoin pour faire des recommandations et des politiques de changement, mais personne faisant la promotion de l’ODF ne pense qu’une large adoption est imminente. Cela prendra du temps.

« Ces décisionnaires ont beaucoup d’autres problèmes à gérer (par exemple : santé publique, éducation, transports, pauvreté…) et les décisions technologiques ne sont généralement pas en haut de leurs listes », déclare McGarrah. « Des progrès ont été faits dans une adoption plus large de l’ODF. Plusieurs gouvernements ont adopté l’ODF ou travaillent sur la mise en place du standard, mais il reste encore beaucoup à faire. »

ODF - Liberate your documents

Liens connexes :

Notes

[1] La situation des navigateurs web est similaire. D’un côté des navigateurs qui respectent les standards (tel Firefox) et de l’autre Internet Explorer qui ne les respecte pas et qui par là-même donne des cauchemars à tous les webmasters en les obligeant à d’usantes circonvolutions pour que leurs sites soient également compatibles visibles sur ce navigateur.

[2] Merci à VLI pour la traduction et Daria et Mben pour la relecture.

[3] NDT : suite au rachat de StarOffice par Sun.

[4] NDT : ISO/IEC 26300, Open Document Format for Office Applications (OpenDocument) v1.0.




dotSUB.com ou le meilleur du pire web 2.0

Nous en savons quelque chose à Framasoft, il n’est pas toujours facile de sensibiliser le grand public aux logiciels libres. Mais il en va de même pour l’usage général d’internet où nombreux sont mes proches qui se contentent du mail et de parcourir la toile comme une grande vitrine à regarder passivement quand bien même ils se construisent leur propre parcours via les liens hypertextes.

Combien sommes-nous en effet à comprendre et utiliser les fils RSS pour faire venir l’info pertinente à nous et non plus l’inverse ? Combien sommes-nous à comprendre que derrière Wikipédia il y a un outil extraordinaire qui s’appelle un wiki (et qui sera enseigné dans quelques années à même l’école) ? Plus généralement combien sommes-nous à appréhender véritablement ce que l’on appelle le web 2.0 ou les réseaux sociaux ou le read/write web (appellez-le comme vous voulez) et qui constitue réellement une nouveauté et un progrès ?

Il y a de nombreuses causes à cette méconnaissance mais je crois qu’elle commence avec le piètre niveau d’anglais de trop nombreux francophones (dont je suis). C’est pourquoi je fus dans un premier temps très agréablement surpris de voir quelques unes des plus intéressantes petites vidéos anglophones explicatives sur le sujet enfin sous-titrées en français.

Les voici donc ci-dessous. La première concerne le RSS, la deuxième le wiki et la troisième le web 2.0 dans son ensemble. Elles sont courtes, percutantes et pédagogiquement de très bonne facture. Faites passer et diffuser…

Mais… car il y a un mais, on se retrouve avec un nouvel exemple de ce que j’appelle péremptoirement le web 2.0 mais libre 0.2 (en fait ici on est proche du libre 0.0).

Le sous-titrage nous vient du site dotSUB.com et l’outil en ligne qui permet d’obtenir cela est simple et puissant (voir cette demo pour s’en convaincre). Le hic c’est qu’on cumule pas mal de petits problèmes de liberté en utilisant leur service. D’abord il y a le format flash omniprésent et l’impossibilité de récupérer la vidéo sous-titrée dans un autre format (au format flash aussi du reste). Mais surtout la traduction effectuée est entièrement la propriété de dotSUB.com.

En effet si vous décidez de vous inscrire pour participer à une traduction (ce qui est on ne peut plus louable et généreux) il vous faut d’abord accepter les Terms of Use et la Privacy Policy (vous savez, les trucs qu’on ne lit jamais à de rares exceptions près comme ceux qui ont une forte culture du libre !). Et là ça n’a pas l’air d’être très ouvert leur truc. On vous fait miroiter qu’un jour peut-être on tirera des revenus des vidéos sous-titrées (mais on ne sait pas encore comment) mais c’est peut-être pour mieux s’accaparer votre travail.

Extrait du Terms of Use :

You understand that the film or video translation you perform is considered to be a "work made for hire" that has been specially commissioned by the contributor and dotSUB LLC, with the contributor and dotSUB LLC being deemed the sole authors of the translation and the owners of the translation and any proceeds that result from the translation. If it is determined that your translation work is not a "work made for hire," then you assign to dotSUB LLC exclusively and irrevocably, forever and anywhere in the Universe, all rights (including, without limitation, all copyrights and renewals and extensions of such copyrights) that you may have in and to your translation. You also understand that dotSUB LLC’s rights in and to the film or video translation you perform extend to every medium of storage, transmission, and display, whether past, present, or future. In return for the consideration that you receive for your translation work, you also waive any "moral rights" that you may have as an author of the translation, as well as any "rental and lending rights" that you may now have or that may be granted by law in the future.

Petite traduction du passage central : vous attribuez à dotSUB LLC exclusivement et irrévocablement, pour toujours et partout dans l’Univers tous les droits (incluant, et sans limitation, tous les droits d’auteur et renouvellements et extensions de tels droits) que vous pouvez avoir dans et sur votre traduction.

Pour toujours et partout dans l’Univers, ils ont de l’humour non ?

C’est d’autant plus étonnant que les vidéos présentées ici sous toutes sous licences Creative Commons. Faudrait mettre nos amis juristes sur le coup pour voir un peu si tout ceci est bien réglo…

Quant à la Privacy Policy, voici le dernier paragraphe intitulé Changes to policy

dotSUB reserves the right to change this Privacy Policy at anytime. In the event that we make a material change to our policy we will post a notice of the change on this page, and will notify you of the change when you log in to your dotSUB account.

Autrement dit cette Privacy Policy ne vaut pas grand chose puisqu’on peut la modifier à tout moment (mais on est gentil on vous préviendra quand même à ce moment là).

Pff… On voudrait rendre les utilisateurs captifs que l’on ne s’y prendrait pas autrement. Encore un bel exemple de l’Esclavage 2.0. Le Libre n’a plus qu’à se retrousser les manches pour proposer un outil similaire à la communauté. Notre petit groupe de traducteurs Framalang en serait plus que ravi !




De l’inexorable déclin de l’empire musical

Qui est en crise ? La musique ou l’industrie musicale ?

Le second aimerait laisser croire que c’est du premier qu’il s’agit mais j’ai ma petite idée sur la question et cet article du célèbre magazine Rolling Stone traduit par nos soins[1] ne fait que renforcer mon impression.

On notera qu’il n’est pas fait mention des modèles alternatifs que pourraient constituer toutes les initiatives actuelles autour de la musique en libre circulation sous licences Creative Commons ou apparentées. Mais la période est propice et nulle doute qu’il naîtra quelque chose d’intéressant de ce petit chaos dont il est difficile de ne pas rendre l’industrie musicale principalement responsable.

Un système fortement propriétaire et monopolistique opposé à une pratique généralisée du piratage dont sortirait vainqueur un troisième larron qui porterait haut la main les couleurs de la liberté, cela nous vous rappelle rien ?[2]

4 pesos - Libertinus - CC BY-SA

Le déclin de l’industrie du disque

The Record Industry’s Decline

Rolling Stone – Brian Hiatt et Evan Serpick – 19 juin 2007

Les ventes de disques plongent et il n’y a pas d’espoir à l’horizon : Qu’est-ce qui a flanché.

Pour l’industrie du disque, ce fut l’une des rares bonnes nouvelles : le nouvel album de Linkin Park s’est vendu à 623 000 exemplaires au cours de sa première semaine en mai, le meilleur démarrage de l’année. Mais c’est loin d’être suffisant. Au cours du même mois, la maison de disque du groupe, Warner Music Group, a annoncé qu’elle allait se séparer de 400 personnes et sa valeur boursière s’est difficilement maintenue à 85% de son maximum de juin l’année dernière.

Les ventes globales de CD se sont effondrées de 65% pour cette année jusqu’à maintenant et ceci après 7 ans d’une érosion presque constante. Face à un piratage à grande échelle, l’attrait grandissant des consommateurs pour les singles numériques face aux albums qui dégagent plus de marge et d’autres maux, l’industrie du disque a plongé dans un déclin historique.

Les principaux labels se battent pour réinventer leurs modèles économiques, certains se demandent même s’il n’est pas déjà trop tard. "Le business du disque est terminé" dit l’avocat de la musique Peter Paterno, qui représente Metallica et Dr Dre. "Les labels ont des avantages formidables… c’est juste qu’ils ne peuvent pas en tirer de l’argent". Une source haut placée dans l’industrie du disque, qui désire rester anonyme, va même plus loin : "Nous avons un business agonisant. Il n’y aura bientôt plus de grand label."

En 2000, les consommateurs américains ont acheté 785.1 millions albums, l’année passée ils en ont acheté 588.2 millions (un nombre qui regroupe les ventes de CD et les albums téléchargés), d’après Nielsen Soundscan. En 2000, les 10 meilleures ventes d’albums aux Etats-Unis représentaient 60 millions d’exemplaires, en 2006 les 10 meilleures n’en totalisaient plus que 25 millions. Les ventes de musique numérique augmentent, les fans ont achetés 582 millions de singles numériques l’an passé, en hausse de 65% par rapport à 2005 et ont acheté pour 600 millions de dollars de sonneries, mais les nouvelles sources de revenus ne compensent pas les pertes.

Plus de 2000 employés de maisons de disque ont été mis à la porte depuis 2000. Le nombre de majors est tombé de cinq à quatre quand Sony Music Entertainment et BMG Entertainment ont fusionné en 2004 et deux des labels restant, EMI et Warner, ont flirté avec leur propre fusion pendant des années.

Environ 2 700 magasins de musique ont fermé à travers le pays en 2003, d’après le groupe d’étude Almighty Institute of Music Retail. L’année dernière, la chaîne Tower Records (89 magasins), qui représente 2,5% des ventes au détail, a mis la clé sous la porte et Musicland, qui chapeautait plus de 800 magasins sous la marque Sam Goody, entre autres, a fait banqueroute. Environ 65% des ventes de musique se font maintenant dans les magasins généralistes comme Wal-Mart et Best Buy, qui proposent moins de variété que les magasins spécialisés et font moins d’effort pour promouvoir les nouveaux artistes.

Il y a encore quelques années, de nombreux dirigeants de l’industrie pensaient que leurs problèmes pourraient être réglés avec des plus gros hits. "Il n’y avait rien qu’un bon hit ne puisse faire pour ces gens-là" nous confie une source qui a travaillé en étroite collaboration avec les grands patrons plus tôt dans cette décennie. "Ils se rendaient compte que les choses allaient mal et ne faisaient qu’empirer, mais je ne suis pas sûr qu’ils avaient la bande passante pour trouver des solutions. Maintenant, peu d’entres eux sont encore à la tête de ces entreprises."

De plus en plus de patrons de maisons de disque maintenant semblent se rendre compte que leurs problèmes sont structurels : Internet paraît être la rupture technologique ayant le plus de conséquence pour l’économie de la vente de musique depuis les années 20, quand les enregistrements phonographiques ont remplacé les partitions comme centre des profits de l’industrie. "Nous devons collectivement comprendre que les temps ont changé", dit Lyor Cohen, PDG de Warner Music Group USA. En juin, Warner a annoncé un accord avec le site web lala.com qui permettra aux consommateurs d’écouter en ligne l’essentiel de leur catalague gratuitement, en espérant que cela les poussera à payer pour des téléchargements. C’est là la dernière des plus récentes tentatives des majors, qui aurait semblé impensable il y a quelques années :

  • En mai, l’une des quatre majors, EMI, a commencé à permettre à l’iTunes Music Store de vendre son catalogue les protections anti-copies sur lesquels les labels ont insisté pendant des années.
  • Quand YouTube a commencé à montrer des clips sans permission, les quatre labels ont signé des accords de licence plutôt que de lancer des poursuites pour violations de droits d’auteur.
  • Au désarroi de certains artistes et managers, les labels s’obstinent sur des accords avec de nombreux artistes grâce auxquels ils touchent un pourcentage sur les tournées, les produits dérivés, les produits sponsorisés et d’autres sources de revenus sans liens avec la musique enregistrée.

Qui a donc tué l’industrie du disque comme nous la connaissions ? "Les maisons de disque ont créé cette situation elles-mêmes", dit Simon Wright, PDG de Virgin Entertainment Group, qui dirige les Virgin Megastores. Bien que certains facteurs ne relèvent pas du contrôle des labels, de l’avènement d’Internet à la popularité des jeux-vidéo et des DVD, beaucoup dans l’industrie voient les sept dernières années comme une série d’opportunités sabotées. Parmi les plus importantes, disent-ils, se trouve l’incapacité qu’ont eu les labels à gérer le piratage en ligne à son balbutiement en faisant la paix avec le premier service de partage en ligne : Napster. "Ils ont jeté des milliards et des milliards de dollars par la fenêtre en attaquant Napster, c’est à ce moment que les labels se sont tués eux-mêmes", dit Jeff Kwatinetz, PDG de l’entreprise de management The Firm. "L’industrie du disque avait alors une opportunité incroyable. Tout le monde utilisait le même service. C’était comme si tout le monde écoutait la même station de radio. Ensuite Napster a fermé et ses 30 à 40 millions d’utilisateurs se sont tournés vers d’autres services de partage."

Les choses auraient pu être différentes : sept ans auparavant, les grands patrons de l’industrie du disque se sont réunis pour des discussions secrètes avec le PDG de Napster, Hank Barry. Lors d’une rencontre le 15 Juillet 2000, les dirigeants, y compris le PDG de la maison mère d’Universal, Edgar Bronfman Jr., le chef de Sony Corp, Nobuyuki Idei, et celui de Bertelsmann, Thomas Middelhof, se sont réunis avec Barry dans un hôtel à Sun Valley, Idaho et lui ont annoncé qu’ils voulaient conclure des accords de licence avec Napster. "M Idei a commencé la réunion", se souvient Barry, maintenant directeur de l’entreprise de droit Howard Rice. "Il disait que Napster était ce que les clients voulaient."

L’idée était de laisser les 38 millions d’utilisateurs de Napster libres de télécharger pour un abonnement mensuel, à peu près 10$, dont les revenus seraient partagés entre le service et les labels. Mais finalement, malgré une offre publique de 1 milliard de dollars de Napster, les compagnies ne sont jamais parvenues à un accord. "Les maisons de disque devaient sauter de la falaise, mais elles n’arrivaient pas à réunir le courage nécessaire", dit Hilary Rosen, qui était alors directrice de la Recording Industry Association of America. "Beaucoup de gens disent, ‘Les labels étaient des dinosaures et des idiots, c’était quoi leur problème ?’ Mais leurs revendeurs leur disaient, ‘Vous feriez mieux de ne rien vendre en ligne moins cher qu’en magasin’ et ils y avaient des artistes qui leur disaient ‘Ne déconnez pas avec les ventes de Wal-Mart.’ " ajoute Jim Guerinot, qui s’occupe de Nine Inch Nails et Gwen Stefani, "Innover signifiait cannibaliser leur marché principal."

Pis encore, les maisons de disque ont attendu presque deux ans après la fermeture de Napster le 2 juillet 2001 avant de donner leur accord à une plateforme légale de téléchargement, une alternative aux services d’échanges non-autorisés : l’iTunes Music Store d’Apple, qui a ouvert au printemps 2003. Avant cela, les labels ont lancé leurs propres services à abonnement : Pressplay, qui ne proposait au début que Sony, Universal et EMI et MusicNet, qui n’offrait que les catalogues de EMI, Warner et BMG. Ces services ont échoué. Ils étaient onéreux, n’offraient peu ou pas de possibilité de graver des CD et n’étaient pas compatibles avec beaucoup de lecteurs MP3 du marché.

Rosen et d’autres voient cette période entre 2001 et 2003 comme désastreuse pour le business. "C’est à ce moment-là que nous avons perdu les utilisateurs" dit Rosen. "Le peer-to-peer a pris le dessus. C’est à ce moment-là qu’on est passé d’une situation où la musique avait une vraie valeur dans l’esprit des gens à une autre où elle n’avait plus de valeur économique mais uniquement émotionnelle.

A l’automne 2003, la RIAA a lancé ses premières poursuites pour violation des droits d’auteur contre des personnes partageant des fichiers. Ils ont depuis attaqué plus de 20 000 fans de musique. La RIAA maintient que les poursuites sont faites pour passer le message que le téléchargement non autorisé peut avoir des conséquences. "Ce n’est pas fait pour punir" dit le président de la RIAA, Mitch Bainwol. Mais le partage de fichiers ne disparaît pas pour autant, le nombre d’utilisateurs de logiciels de peer-to-peer a augmenté de 4,4% en 2006, avec environ 1 milliard de chansons téléchargées illégalement par mois, d’après le groupe d’étude BigChampagne.

Malgré les maux de l’industrie, les gens écoutent toujours au moins autant de musique qu’avant. Les consommateurs ont acheté plus de 100 millions iPods depuis leur commercialisation en novembre 2001 et l’économie des tournées est florissante, atteignant un record l’année passée avec 437 millions de dollars. Et selon l’organisme NPD Group, l’audimat de la musique enregistrée, que ce soit depuis les CD, les téléchargements, les jeux-vidéo, les radios satellites, la radio terrestre, les flux en ligne ou d’autres sources, a augmenté depuis 2002. Le problème auquel fait face l’industrie est de convertir cet intérêt en argent. "Comment se fait-il que les gens qui font la musique fassent banqueroute alors que l’utilisation des produits explose ?" se demande Kwatinetz de chez Firm. "Le modèle est mauvais."

Kwatinetz voit d’autres compagnies, plus petites, depuis les entreprises de management comme la sienne, qui maintenant fait aussi maison de disque, aux pièces rapportées comme Starbucks, s’inviter. Paul McCartney a récemment abandonné sa longue relation avec EMI Records pour signer avec le jeune Hear Music de Starbucks. Le géant des jeux-vidéo Electronic Arts a aussi lancé son label, utilisant la valeur promotionnelle de ses jeux et le renaissant CBS Records va vendre la musique utilisée dans les émissions de la chaîne CBS.

Accorder des droits sur la musique aux jeux-vidéo, aux films, aux émissions de télévision et aux services avec abonnement en ligne devient une source de revenue grandissante. "Nous nous attendons à devenir un organisme qui accorde des contrats de licence" dit Cohen de Warner, qui en mai a lancé une nouvelle division, Den of Thieves NdT : L’antre des voleurs, dédiée à la production d’émissions de télévision et autres contenus vidéo basés sur ses droits musicaux. Et les maisons d’édition cherchent à augmenter leurs parts dans le business en pleine croissance de la publication musicale qui collecte les redevances liées aux droits d’auteur auprès des radios et d’autres sources. La société qui s’occupe de percevoir les droits liés aux spectacles vivants, ASCAP, annonce des revenus records de 785 millions de dollars pour 2006, en hausse de 5% par rapport à 2005. "Tous les indicateurs sont au vert" d’après Martin Bandier, PDG de Sony/ATV Music Publishing, qui contrôle la publication des Beattles. "La publication de musique va prendre une part de plus en plus importante dans le business" dit-il. "Si je travaillais pour une maison de disque, je serais en train de m’arracher les cheveux. Le monde de l’édition musicale est dans la confusion la plus totale, à la recherche d’une échappatoire.

Presque chaque acteur de l’industrie du disque est touché. "L’un des grands secteurs américains a été durement touché", dit Bainwol de la RIAA, qui accuse le piratage, "depuis les paroliers jusqu’aux accompagnateurs ou aux gens qui travaillent pour les labels. Le nombre de groupes en contrat avec les labels a été sérieusement atteint, en baisse de presque un tiers."

Les temps sont durs pour les employés des maisons de disque. "Les gens se sentent menacés" dit Rosen. "Leurs amis se font virer de tous côtés." Adam Shore, directeur de Vice Records, alors affilié à Atlantic Records, disait à Rolling Stone en janvier que ses collègues vivent une "crise existentielle." "Nous avons de super disques, mais nous ne sommes vraiment pas sûrs que les gens vont les acheter" dit-il. "On a un peu l’impression de perdre la foi."

Notes

[1] Nos soins ce sont nos p’tits gars (et filles) de Framalang of course !

[2] L’illustration est une photographie de Libertinus intitulée 4 pesos issue de Flickr et sous licence Creative Commons BY-SA.




Tentations cinématographiques sur internet ou le clic qui pouvait donner mauvaise conscience

Préparez pop-corn, bière et pizza… aujourd’hui, dans ma grande générosité, je vous invite au cinéma !

Mais il s’agit d’un cinéma un peu particulier puisque visible d’un seul clic de souris depuis votre navigateur connecté au Net. Cette lénifiante simplicité d’usage ne peut cependant masquer une réalité plus complexe qui peut mettre à mal votre sens moral…

The Corporation - Make a Donation

Tentation cinématographique 1 : The Corporation ou la tentation du prendre sans donner

Peut-être avez-vous laissé passer en salle cet excellent film documentaire The Corporation coincé qu’il était entre deux Pirates de Caraïbes et trois Spiderman ?

Qu’à cela ne tienne séance de rattrapage pour ne pas mourir idiot.

Il vous suffit de cliquer successivement sur les trois parties ci-dessous. Easy isn’t it ? Mais attention l’entrée est libre mais pas forcément gratuite (sauf si le décidez en ne donnant… rien !).

Voici ce qu’en disait Sébastien Delahaye, le 24 novembre 2006, sur le site des Ecrans (du journal Libération) :

Sorti discrètement fin 2004 sur les écrans français, le documentaire canadien The Corporation s’apprête aujourd’hui à vivre une nouvelle vie. L’un de ses co-réalisateurs, Mark Achbar, également producteur du film, a décidé de mettre en ligne la version complète et gratuite du film. Disponible en utilisant BitTorrent, le documentaire est téléchargeable en cliquant sur ce lien. La qualité est annoncée comme équivalente à celle d’un DVD, et le film profite, en bonus, d’un entretien de 40 minute avec le scénariste du film.

The Corporation est consacré à une critique des multinationales et contient des entretiens avec Noam Chomsky, Michael Moore, Milton Friedman et Naomi Klein. En 2004, le documentaire a remporté le Prix du public du Festival de Sundance. Mark Achbar encourage les internautes téléchargeant le film à faire un petit don, afin de rembourser les frais de production. « Nous avons déjà reçu 635 dollars en contributions. Elles vont de 2 dollars à trois dons très généreux de 100 dollars. Toutes sont très appréciées. »

Du coup on retrouve aussi bien le film sur YouTube que sur Dailymotion d’où est issue cette version sous-titrée française. Et il faut reconnaître que lorsqu’il s’agit de tels documentaires, la piètre qualité d’image n’est pas trop handicapante puisque c’est avant tout l’audio qui est privilégié.

The Corporation – Partie 1

The Corporation – Partie 2

The Corporation – Partie 3

On comprend bien les motivations des auteurs qui, de par le sujet même du film, jugent à juste titre que sa diffusion passe avant son exploitation économique. Mais, tout de même, peut-on tranquillement le regarder sans rien faire (ne serait-ce qu’un mail de remerciement aux auteurs dans un anglais approximatif) alors qu’ils cherchent uniquement à rentrer dans leur frais puis éventuellement trouver des fonds pour un prochain film ?

Pour ce qui me concerne j’ai donné 5 € au nom de Framasoft.

The Corporation - Make a Donation

Tentation cinématographique 2 : Stage6 ou la tentation du voir sans se faire prendre

D’un simple clic depuis votre navigateur lancez dans la seconde, en plein écran, et en haute définition des films en version française comme Les Inflitrés, OSS 117 : Le Caire, nid d’espions, Before Sunset, Miami Vice ou encore Dead Man.

Est-ce possible ?

Réponse : Oui. Cela s’appelle Stage6, et si ça reste en l’état (ce qui m’étonnerait) ça risque de faire autant de bruit dans l’industrie cinématographique que Napster pour l’industrie musicale. Tel YouTube ou Dailymotion il s’agit d’une plate-forme vidéo de plus à ceci près que via un plugin DivX (propriétaire) le streaming est de bien meilleure qualité et permet le plein écran avec un confort plus que correct.

Est-ce légal ?

Réponse : Non (of course !). Mais à la différence du peer-to-peer vous ne risquez a priori absolument rien puisque vous visionnez une simple page web et ne conservez rien sur le disque dur votre ordinateur. Autre différence vous n’êtes pas obligé d’attendre le téléchargement intégral du film puisqu’il se charge en mémoire au fur et à mesure de la lecture.

Ajoutons que vous pouvez proposer le player vidéo intégré sur votre propre site ou blog exactement comme ce que je viens de faire avec Dailymotion et The Corporation. C’est délirant rien que d’y penser mais j’aurais donc pu carrément mettre Les Infiltrés en version française à même ce billet blog si je ne sais quelle mouche m’avait piquée !

Les coupables légaux clairement désignés sont Stage6 qui met (sciemment ?) un certain temps à effacer les fichiers incriminés (c’est tout de même pas compliqué de regarder tous les jours les gros fichiers qui ont été uploadés pour faire le tri) et les membres inscrits qui les mettent sciemment en ligne (dont je me pose la question de la motivation).

Quant aux coupables moraux ce sont vous et moi si vous vous faites spectateur d’un de ces films indûment mis en ligne. Et comme Stage6 est à ma connaissance le premier site à lever quasiment toutes les barrières de la lecture vidéo sur internet (temps, qualité et… peur du gendarme), on se retrouve en quelque sorte seul avec notre conscience. Adieu répression et bonjour éducation…

Un autre coupable ce serait peut-être moi qui sous couvert de faire de l’info se retrouve peut-être indirectement ici à verser dans, argh, l’apologie du crime ?! Pas forcément parce que c’est tout de même intéressant de faire remarquer que la technologie de lecture vidéo sur internet est proche d’une certaine maturité (il n’y manque guère plus que des formats libres). Et puis comme toujours avec ces plate-formes de partage vidéos, musicales ou autres, on n’y trouve pas que des ressources illégales ce qui interdit de jeter le bébé avec l’eau du bain.

C’est du reste avec Route 66, un road movie allemand qu’il est tout à fait légal de visionner puisque sous licence Creative Commons BY-NC-SA (un pionnier du genre !) que je vous invite à découvrir Stage6.

Et l’on est ainsi ramené à la tentation précédente puisqu’ils cherchent aussi à lever des fonds pour réaliser leur prochain film The Last Drug.

Pour ce qui me concerne j’ai là encore donné 5 € à l’équipe du film au nom de Framasoft.

Conclusion

Ce billet aurait aussi pu s’intituler « L’article qui valait 10 € ». C’est d’ailleurs la somme que je demande à ceux qui vont me contacter en privé pour que je leur donne directement les liens Stage6 des films cités ci-dessus 😉




Le monde opte massivement pour les plus restrictives des licences Creative Commons et c’est pire en France !

cc - Franz Patzig - CC BY

Ce titre un peu longuet c’est ce que je retiens péremptoirement d’une récente étude statistique sur les licences Creative Commons[1].

Ce n’est pas la première analyse sur le sujet mais la nombre croissant de ressources placées sous l’une des licences Creative Commons (dont le très impressionnant annuaire de photos Flickr[2]) ainsi que leur prise en compte dans les moteurs de Yahoo! et de Google permet désormais d’obtenir des résultats plus fins. C’est du reste à partir des données fournies par Yahoo!, Google et Flickr que se base cette étude.

Ce nombre croissant de ressources placées sous licence Creative Commons serait d’ailleurs la première des remarques. Entre le tous droits réservés du copyright par défaut et le plus aucun droit réservé du domaine public, il y avait en effet à l’ère du numérique un espace béant à combler. Et l’on ne peut que se réjouir d’avoir aujourd’hui tant de créations à dispositon, l’auteur évoque un total de 60 millions, que l’on peut utiliser certes sous certaines conditions mais sans être obligé d’aller demander à chaque fois l’autorisation à l’auteur (sauf à vouloir lever certaines de ces conditons). Ceci dit c’est toujours sympa de prévenir et de remercier l’auteur mais là ce n’est plus du droit c’est du savoir-vivre.

Voilà pour les réjouissances parce que pour le reste, comment dire, je fais un peu la moue[3].

On constate en effet que les auteurs sont à peine plus de 30% à adopter les seules licences Creative Commons qui soient compatibles avec celles des logiciels libres à savoir la Creative Commons BY et la Creative Commons BY-SA (on tombe même à moins de 20% sur Flickr). Environs 70% des ressources référencées possèdent la clause non commerciale NC (interdiction d’en faire profit sans l’aval de l’auteur) et 25% la clause non dérivative ND (interdiction de modifier sans l’aval de l’auteur).

Soit. Bornons-nous au constat parce que si je me mets à commenter la chose, je vais me faire taxer illico de libriste intégriste qui n’a pas compris la spécificité d’un logiciel par rapport aux autres créations. Et puis il est vrai que 30% de 60 millions, ça reste non négligeable ! Il n’empêche que dans la pratique la free culture de Lessig c’est beaucoup plus une free culture as in free beer qu’une free culture as in free speechCommonistes de tous les pays êtes-vous réellement unis en un seul et même mouvement ?

A propos de pays justement. L’étude a également cherché à les distinguer en analysant les ressources dont les auteurs ont fait un choix localisé (par exemple non pas la générique Creative Commons BY mais la nationale Creative Commons BY France). C’est plus sujet à caution et par la même moins significatif puisque seul 20% de l’ensemble des ressources sous Creative Commons ont une licence localisée. On dispose donc d’un panel plus restreint.

Toujours est-il que, cool, la France se classe en seconde position (derrière l’Espagne) pour le nombre de ressources sous Creative Commons locales. Sauf que, pas cool, elle est carrément en queue de peloton (aux alentours de la trentième place !) pour ce qui concerne le choix des licences Creative Commons BY et BY-SA. Avec, j’en blêmis lorsque je compare avec la moyenne des génériques, moins de 10% d’adoption !

Ce qui m’amène avec sagacité à émettre les conjectures suivantes :

  • Hypothèse 1 (politique) : La droite décomplexée a encore frappé !
  • Hypothèse 2 (sociologique) : Les français ont l’obsession de se faire spolier ou défigurer leurs biens
  • Hyothèse 3 (éducatique) : Ils cliquent au hasard sur le formulaire du choix de la licence[4]
  • Hypothèse 4 (artlibristique) : Ils préfèrent la licence Art Libre
  • Hypothèse 5 (pragmatique) : Il est par trop hâtif d’en tirer la moindre conclusion vu le faible échantillon analysé
  • Hypothèse 6 (nombrilistique) : Je pars en vrille

C’est malheureusement la dernière hypothèse la plus plausible puisque ma conclusion sera un vibrant : Commonistes BY et BY-SA de tous les pays unissons-nous pour réussir la librévolution !

Notes

[1] Creative Commons Statistics from the CC-Monitor Project par Giorgos Cheliotis, présenté lors du iCommons Summit de Dubrovnik (14-17 juin 2007). L’étude étant elle-même sous licence Creative Commons BY.

[2] L’illustration est une photographie de Franz Patzig intitulée cc issue justement de Flickr et sous licence Creative Commons BY

[3] Ma compagne, qui lit parfois dessus mon épaule, me souffle à l’oreille que c’est surtout la moule que je fais lorsque j’édite mon blog et une moule qui fait la moue n’est guère enclin(e) a susciter l’amour. Pff, elle est pénible avec ses bons mots… elle va finir par me déconcentrer !

[4] Sauf que cette hypothèse ne tient pas parce que par défaut le formulaire vous propose la Creative Commons BY, ce qui est une excellente initiative soit dit en passant.




Ouvrons le débat de l’informatique à l’école

Reproduction de Informatique et TIC : une vraie discipline ?, un récent article de Jean-Pierre Archambault[1], que nous connaissions depuis longtemps comme héraut du libre éducatif, mais qui élargit ici la problématique au présent et à l’avenir de l’informatique et des TIC à l’école, et ce faisant pose finalement la question de la place des technologies de l’information et de la communication dans notre actuelle et future société.

L’occasion pour moi de citer en rappel deux initiatives liées à la récente campagne présidentielle française 2007, l’une de l’ADULLACT et l’autre de l’APRIL (avec son initiative Candidats.fr).

Extrait de la Lettre aux candidats à l’élection présidentielle de 2007 (ADULLACT)

C’est la jeunesse qui fera le monde de demain. Il est très urgent d’enseigner très tôt la maîtrise et non pas seulement l‘utilisation de l’informatique, les techniques et non pas les modes opératoires. Il faut promouvoir l’informatique comme discipline à part entière dans l’enseignement secondaire, et y encourager l’esprit et les outils de production et de partage, pour le savoir et les richesses. Il faut former les acteurs et non de simples consommateurs de la société de l’information. Pourquoi dans notre pays collégiens et lycéens ne peuvent-il s’initier à la programmation ou au travail collaboratif ?

Extrait du Questionnaire de Candidats.fr (APRIL)

Êtes-vous favorable à ce que l’informatique soit une composante à part entière de la culture générale scolaire de tous les élèves sous la forme notamment d’un enseignement d’une discipline scientifique et technique au lycée ?

Êtes-vous favorable à ce que les élèves soient formés non pas à une gamme de produits (e.g. la suite Microsoft Office) mais à des catégories d’outils (e.g. traitement de texte, tableur, logiciels de présentation…) ?

Avec des réponses contrastées (ADULLACT et APRIL) en particulier de celui qui est devenu dans l’intervalle le président de la République française (réponses PDF de Nicolas Sarkozy à l’ADULLACT et à l’APRIL).

Il est effectivement temps de faire bouger les lignes et ne pas se satisfaire de la situation actuelle qui ressemble parfois à de l’inertie pendant que le monde avance.

Heureusement que, dans un contexte proche de l’urgence, nous pouvons compter sur l’expérience (et l’expertise) de la communauté du libre qui, je crois, lui donne une perception fine des enjeux. Encore faut-il qu’elle soit écoutée en haut lieu…

Vous trouverez une version PDF de l’article en fin de page.[2]

Student in Class - foundphotoslj - CC-BY

Informatique et TIC : une vraie discipline ?

Jean-Pierre Archambault – Medialog 62 Juin 2007

Avec l’introduction de la maîtrise des TIC dans le socle commun de connaissances et de compétences et la généralisation du B2i, un consensus existe pour affirmer qu’il faut préparer les futurs citoyens de la société de la connaissance à devenir des utilisateurs « intelligents » et non « presse-boutons » des technologies. Mais il n’existe pas de consensus sur la façon de s’y prendre. Certains militent pour la création d’une discipline scolaire « Informatique et TIC ».

Tout le monde a en mémoire les débats qui ont accompagné en 2006 la transposition de la directive européenne sur les droits d’auteurs et les droits voisins dans la société de l’information (DADVSI) [3]. Ils concernaient notamment l’exercice du droit à la copie privée, la possibilité d’écouter sur plusieurs appareils un morceau de musique acquis en bonne et due forme… c’est-àdire la vie quotidienne de millions de gens. Ils portaient également sur l’interopérabilité, les DRM (Digital Rights Management) ou mesures techniques de protection, les logiciels de peer to peer, le code source des programmes (il fut abondamment question des logiciels libres), le droit un peu abscons des bases de données… Il est difficile au simple citoyen de maîtriser la complexité de ces notions techniques et juridiques et donc de mesurer l’impact de la loi. Par exemple, dans l’article 13 de la loi finalement adoptée, on peut lire : « Ces mesures techniques sont réputées efficaces lorsqu’une utilisation visée au même alinéa est contrôlée par les titulaires de droits grâce à l’application d’un code d’accès, d’un procédé de protection tel que le cryptage, le brouillage ou toute autre transformation de l’objet de la protection ou d’un mécanisme de contrôle de la copie qui atteint cet objectif de protection… Un protocole, un format, une méthode de cryptage, de brouillage ou de transformation ne constitue pas en tant que tel une mesure technique au sens du présent article… Les mesures techniques ne doivent pas avoir pour effet d’empêcher la mise en oeuvre effective de l’interopérabilité, dans le respect du droit d’auteur… » [4]

Une nouvelle forme d’illettrisme

Or, nul n’est censé ignorer la loi ! Mieux, chacun doit être en mesure de contribuer à sa manière à son élaboration et, pour cela, de comprendre ce dont il s’agit et de bien mesurer les enjeux et les conséquences des textes adoptés par le Parlement. Quelles sont les représentations mentales opérationnelles, les connaissances scientifiques et techniques qui permettent qu’il en soit ainsi ? Ces questions valent également pour la vie de tous les jours, quand il faut décrypter l’offre d’un fournisseur d’accès à Internet, avoir une idée de l’origine et de la responsabilité d’un dysfonctionnement (savoir par exemple pour quelles raisons une page web peut se faire attendre). Nous sommes de plain-pied dans la problématique de la culture générale informatique qui doit être dispensée par l’École. Comment procéder pour former tous les élèves à la société de l’immatériel ? Car, comme le soulignent Maurice Lévy et Jean-Pierre Jouyet, dans l’économie de l’immatériel « l’incapacité à maîtriser les TIC constituera (…) une nouvelle forme d’illettrisme aussi dommageable que le fait de ne pas savoir lire et écrire » [5]. Et comment, dans le même temps, dispenser un enseignement qui prépare au mieux la formation ultérieure des spécialistes de haut niveau dont le pays a besoin ? Car, comme le relevait un article du Monde du 18 octobre 2006 sur les métiers de l’informatique, « la profession, où l’âge moyen est de 35 ans, commence à connaître une forte tension sur les recrutements des meilleurs profils : chefs de projet, ingénieurs spécialisés dans les nouvelles technologies, commerciaux, consultants spécialisés… ».

La question n’est pas nouvelle. Depuis une trentaine d’années, pour l’essentiel, deux approches se succèdent, coexistent, suscitent de vifs et intéressants débats. Pour l’une, les apprentissages doivent se faire à travers les usages de l’outil informatique dans les différentes disciplines existantes. Pour l’autre, l’informatique étant partout, elle doit être quelque part en particulier, à un moment donné, sous la forme d’une discipline scolaire en tant que telle [6].

Dans sa thèse, La constitution de l’informatique comme discipline scolaire (1987), Georges- Louis Baron, professeur à l’Université Paris V, parle de « lent cheminement vers le statut de discipline scolaire », et rappelle les conclusions d’un colloque international organisé à Sèvres en 1970 par le CERI-OCDE : « L’introduction d’un enseignement de l’informatique dans l’enseignement de second degré est apparu comme indispensable » [7]. Il y a eu, dans les années quatre-vingts et quatre-vingt-dix, une option informatique dans les lycées d’enseignement général. Créée en 1982, elle a été supprimée en deux temps, alors qu’elle était en voie de généralisation (première suppression en 1992, rétablissement en 1995, deuxième suppression en 1997). Le « cheminement » est donc quelque peu tortueux. Le cours de technologie au collège comporte une composante informatique bien identifiée. Le B2i, quant à lui, s’inscrit dans la démarche qui situe les apprentissages dans les usages de l’outil informatique dans l’ensemble des disciplines. Il figurera dans les épreuves du brevet des collèges et du baccalauréat, ce qui constitue une reconnaissance institutionnelle qui n’est pas toujours appréciée à sa juste valeur, indépendamment des avis que l’on peut avoir sur les contenus et les modalités d’évaluation.

Il arrive que cette question de la culture générale informatique ne soit pas exempte d’une certaine confusion, dans la mesure où l’on ne distingue pas suffisamment les objectifs généraux, les compétences à acquérir, les contenus scientifiques permettant de les atteindre – que l’on doit expliciter très précisément –, les méthodes pédagogiques et didactiques des disciplines. Rappelons donc succinctement que les statuts et les enjeux éducatifs de l’informatique et des TIC sont multiples.

L’informatique, outil et objet d’ensignement

Il y a un enjeu d’intégration d’instruments modernes pour améliorer la qualité de l’enseignement dans le contexte de sa démocratisation. L’ordinateur enrichit la panoplie des outils de l’enseignant. Il se prête à la création de situations de communication « réelles » ayant du sens pour des élèves en difficulté. Il constitue un outil pour la motivation. Il favorise l’activité. Il aide à atteindre des objectifs d’autonomie, de travail individuel ou en groupe. L’ordinateur est aussi encyclopédie active, créateur de situation de recherche, affiche évolutive, tableau électronique, outil de calcul et de traitement de données et d’images, instrument de simulation, évaluateur neutre et instantané, répétiteur inlassable, instructeur interactif… L’informatique s’immisce dans l’ « essence des disciplines » et leur enseignement doit en tenir compte. Cela vaut pour tous les ordres et niveaux d’enseignement, et notamment pour les formations techniques et professionnelles, tant les métiers, les processus de travail, les profils et les qualifications requises ont évolué. L’ordinateur est outil de travail personnel et collectif des enseignants, des élèves et de la communauté éducative. Enfin, l’informatique et les TIC sont objet d’enseignement car composantes incontournables de la culture générale de notre époque. Tous ces statuts ne s’excluent aucunement. Au contraire, ils se complètent et se renforcent. Ainsi le professeur de SVT pourra-t-il d’autant mieux enseigner l’expérimentation assistée par ordinateur et la simulation qu’il pourra s’appuyer sur de solides connaissances de base que ses élèves auront acquises précédemment et ailleurs que dans sa discipline.

Une discipline scolaire ?

En fait, la vraie question posée est celle de savoir s’il doit y avoir, à un moment donné de la scolarité obligatoire, apprentissages en matière de TIC et d’informatique sous la forme d’une discipline scolaire à part entière, comme c’est le cas dans un certain nombre de pays, par exemple la Corée du Sud, la Pologne et dernièrement le Maroc. Différentes raisons, selon nous, militent en faveur d’une réponse positive. D’abord, peuton considérer que « s’immerger c’est apprendre » ? À l’École et hors de l’École. L’utilisation d’un outil, matériel ou conceptuel, suffit-elle pour le maîtriser ? L’existence des enseignements techniques et professionnels est là pour rappeler que la réponse est évidemment non ! Jean-Michel Bérard, Inspecteur général de l’Éducation nationale, dit sans ambages que « l’utilisation d’un outil, si fréquente et diversifiée soit-elle, ne porte pas en elle-même les éléments qui permettent d’éclairer sa propre pratique » [8]. Ce qui ne signifie pas qu’il ne faille pas s’appuyer sur les pratiques et les expériences des élèves, mais avec l’objectif de les dépasser. Jean-François Cerisier, maître de conférences à l’Université de Poitiers, s’étonne de propos selon lesquels « les jeunes seraient naturellement outillés pour mettre en oeuvre des dispositifs techniques complexes dans une logique d’immersion qui postule implicitement que la pratique naïve des outils suffirait à produire des apprentissages pourtant complexes » [9]. Il indique qu’une étude conduite auprès d’élèves du cycle 3 a montré que la plupart d’entre eux ne disposaient pas d’une représentation suffisamment structurée d’Internet pour engager des démarches de recherche d’information même simples, et qu’ils « peinent à élaborer une requête documentaire lorsqu’ils utilisent un moteur de recherche standard ». Cela ne saurait surprendre quand on sait que le sens des opérateurs logiques (ET, OU) diffère de celui qu’ils ont dans le langage courant, que des éléments de logique figuraient dans les programmes de mathématiques des classes de seconde dans les années soixante-dix, et que leur compréhension n’allait pas de soi. On ne peut donc que le suivre quand, dans un autre article, il demande : « Comment en effet procéder à une recherche d’information efficace lorsque l’on n’a aucune connaissance du mode de fonctionnement de l’instrument utilisé ? » [10]. Par ailleurs, on sait que la science progresse en dégageant du « simple » dans la réalité complexe. Et que la pédagogie recommande de ne pas faire compliqué quand il faut faire simple. Dans une discipline donnée, se fixer, dans le même mouvement, des objectifs cognitifs et d’autres relatifs à l’outil informatique que l’on utilise, risque d’amener à échouer sur les deux tableaux. Chaque chose en son temps. J.-F. Cerisier fait également référence à « l’École comme seul lieu possible de prise en compte systématique des conceptions naïves ». C’est aussi le seul endroit où les élèves rencontrent la connaissance sous une forme structurée et organisée, où ils s’approprient « l’intelligence » des outils conceptuels pour bien s’en servir.

On ne fait pas des sciences expérimentales, ou de la technologie, de la même façon à l’école primaire et au lycée. La culture informatique s’acquiert donc selon des modalités diversifiées dans le temps. À l’école primaire, le B2i correspond bien aux méthodes d’initiation des enfants aux sciences et aux techniques. De plus, et c’est fondamental, il y a un enseignant unique, qui maîtrise donc ses progressions pédagogiques et leurs cohérences, l’organisation du temps scolaire et qui se coordonne facilement avec lui-même ! Ce qui n’est pas le cas au collège : là résident pour une bonne part les difficultés constatées de mise en oeuvre du B2i. Il n’est déjà pas évident d’organiser des apprentissages progressifs sur la durée lorsque les compétences recherchées sont formulées de manière très générale (du type « maîtriser les fonctions de base » ou « effectuer une recherche simple »), éventuellement répétitives à l’identique d’un cycle à l’autre, et que les contenus scientifiques, savoirs et savoir-faire précis permettant de les acquérir, ne sont pas explicités. Mais, quand, en plus, cela doit se faire dans des contributions multiples et partielles des disciplines, à partir de leurs points de vue, sans le fil conducteur de la cohérence didactique des outils et notions informatiques, on imagine aisément le caractère ardu de la tâche au plan de l’organisation concrète. Ainsi, un rapport de l’IGEN souligne-t-il que, « si différentes circulaires précisent les compétences qui doivent être validées et le support de l’évaluation (feuille de position), elles laissent néanmoins dans l’ombre de l’autonomie les modalités concrètes de mise en oeuvre » [11]. Pour se faire une idée de ces difficultés, il suffit d’imaginer l’apprentissage du passé composé et du subjonctif qui serait confié à d’autres disciplines que le Français, au gré de leurs besoins propres (de leur « bon vouloir »), pour la raison que l’enseignement s’y fait en français.

Former des utilisateurs « intelligents »

Au collège, le cours de technologie nous semble être un lieu institutionnel adapté à l’acquisition d’une maîtrise des outils informatiques, dont les enseignants des autres disciplines peuvent alors bénéficier dans leurs démarches pédagogiques, d’une manière réaliste. La complémentarité objet-outil d’enseignement peut donner toute son efficacité quand on l’envisage dans cette optique.

Au lycée, dans le prolongement des acquis précédents, une approche spécifique et scientifique, dans le cadre d’un enseignement particulier, permet de les capitaliser et de favoriser les usages pédagogiques des TIC dans les autres matières. Elle constitue une étape qualitativement nouvelle permettant de se fixer des objectifs ambitieux et incontournables pour des générations appelées à évoluer dans la société de la connaissance, dans laquelle on sait le rôle éminent joué par les TIC, de former des « utilisateurs intelligents » et des citoyens à part entière. Quand une matière est omniprésente dans la société, elle devient un élément de la culture générale, et de la culture scolaire, sous la forme d’une discipline particulière que l’on étudie pour elle-même afin de mieux la mettre au service des autres disciplines. Avec des enseignants spécialisés, des programmes, des horaires et des épreuves au baccalauréat. Jacques Baudé, président d’honneur de l’EPI (association Enseignement Public et Informatique), rappelle opportunément que « pendant plus de dix ans, le Conseil scientifique national (CSN), pilotant l’option informatique des lycées, a montré que la mise au point de programmes d’enseignement n’a pourtant rien d’impossible ; ce n’est ni plus difficile ni plus facile que dans n’importe quelle autre discipline ! Les invariants enseignables au lycée se dégagent somme toute assez facilement à condition de pratiquer une large concertation avec les universitaires et les enseignants du terrain » [12].

Ces invariants, dont parle Jacques Baudé, doivent inclure des activités d’algorithmique et de programmation, non pas pour former des informaticiens professionnels – même si cela y contribue – mais pour que les élèves comprennent la logique de fonctionnement de l’ordinateur et des environnements informationnels (si l’on apprend à résoudre des équations du second degré ce n’est pas parce qu’on en résout tous les jours !). Charles Duchâteau, professeur aux facultés universitaires N.-D. de la Paix de Namur, s’exprime en ce sens : « J’ai été et je reste parmi ceux qui croient que l’apprentissage de la programmation est formatif et qu’il ne faut pas tout mesurer à l’aune de l’utilité immédiate. Je crois aussi que les méthodes et concepts typiques de l’algorithmique sont parmi les plus fondamentaux de l’informatique et que, de plus en plus, une certaine familiarité avec le “faire faire” qui est au coeur de la programmation, au sens large, fait partie d’une utilisation efficace de beaucoup d’outils logiciels récents » [13]. Écrire des programmes informatiques, même très simples, permet également de donner de la substance à ce que sont les codes source et objet, et donc de mieux percevoir les enjeux des logiciels libres. La « philosophie » de ces logiciels est en phase avec l’objectif de former des utilisateurs « intelligents » car la connaissance du code permet la compréhension de la logique et du fonctionnement des logiciels.

Pour Jean-Pierre Demailly, membre de l’académie des Sciences, « un enseignement des langages, des algorithmes et de la programmation serait bien utile à partir du lycée. Tout d’abord parce que c’est un véritable besoin économique de mieux préparer les élèves à acquérir des connaissances technologiques solides, mais aussi parce que cela intéresserait de nombreux jeunes – dont l’informatique est parfois une passion en dehors de l’école » [14].

Pour résumer, une approche équilibrée garante d’une bonne culture générale scolaire doit, selon nous, s’appuyer sur l’utilisation de l’ordinateur dans les disciplines pendant toute la scolarité, le B2i à l’école primaire, le cours de technologie au collège et une matière « Informatique et TIC » au lycée. Avec la conviction que pareille intégration résolue de l’informatique et des technologies modernes dans le système éducatif est de nature à faciliter les évolutions économiques, sociales et culturelles du XXIe siècle.

Notes

[1] Jean-Pierre Archambault – CNDP-CRDP de Paris – Chargé de mission veille technologique

[2] L’illustration est une photographie de foundphotoslj intitulée Student in Class issue de Flickr et sous licence Creative Commons BY-SA

[3] Jean-Pierre Archambault, « Innover ou protéger ? Un cyberdylemne », Médialog n°58.

[4] lien

[5] Maurice Lévy, Jean-Pierre Jouyet, L’économie de l’immatériel – La croissance de demain, rapport de la commission sur l’économie de l’immatériel remis à Thierry Breton, décembre 2006.

[6] Jean-Pierre Archambault, Démocratie et citoyenneté à l’heure du numérique : les nécessités d’un enseignement lien

[7] lien.

[8] Jean-Michel Bérard, « Ordinateur et système éducatif : quelques questions » in Utilisations de l’ordinateur dans l’enseignement secondaire, Hachette Éducation, 1993.

[9] Jean-François Cerisier, « Qui est derrière Internet ? Des représentations tenaces », Les Cahiers pédagogiques n°446, octobre 2006.

[10] Jean-François Cerisier, « La nature du B2i lui permet-elle d’atteindre ses objectifs ? », Les dossiers de l’ingénierie éducative n°55, septembre 2006.

[11] lien en page 17.

[12] Jacques Baudé, Pour une culture générale intégrant l’Informatique et les Technologies de l’Information et de la Communication (TIC), lien

[13] Charles Duchâteau, Peut-on définir une « culture informatique » ? lien

[14] Jean-Pierre Demailly, professeur à l’université Grenoble I, directeur de l’Institut Fourier, membre de l’académie des Sciences, in interview à l’EPI, avril 2005. lien




Dell + GNU/Linux Ubuntu : Un mariage assumé et médiatisé qui m’émeut

Dell.com - Ubuntu - screenshot

On peut toujours faire la fine bouche (en remarquant par exemple que la différence de prix à configuration similaire[1] n’est pas flagrante entre un modèle Ubuntu[2] et un modèle Windows Vista) mais on ne peut nier le plaisir de voir une distribution GNU/Linux s’afficher aujourd’hui en ouverture de dell.com, qui n’est rien d’autre que le premier site mondial de vente en ligne d’ordinateurs.

Dell a assurément marqué des points sur ce coup-là parce qu’ils sont allés au bout de leur démarche de consultation avec pour conséquence la mise en place très rapide d’offres Ubuntu inside tout de suite mises en avant.

Ce faisant c’est Linux et par extension le logiciel libre dans son ensemble qui ont marqué des points notamment chez le grand public qui y verra certainement là un gage de sérieux, de confiance mais aussi une assurance de trouver dès le départ des ordinateurs parfaitement configurés pour accueillir Ubuntu.

Quelque soit le degré de perfectionnement de l’offre c’est assurément un évènement majeur qui permet de mesurer le chemin parcouru…

Notes

[1] En fait on ne peut pas véritablement faire de comparaison parce que les modèles sont similaires sans jamais être identiques. Pas le peine de chercher bien loin le pourquoi du comment.

[2] Autre petit bémol sur le site de Dell actuel, la mention très discrète de Linux par rapport à l’omniprésence d’Ubuntu.




Une journée sans logiciel libre…

Kinnéidigh Garrett - CC byPetite traduction pédagogique sans prétention illustrant la paralysie qui affecterait Internet si le logiciel libre n’était plus là, permettant par là-même au grand public de se rendre compte par la négative de son importance et de sa diffusion[1].

En fait si le logiciel libre n’existait pas il faudrait l’inventer…

A Day Without Open Source

William Hurley – 9 mai 2007
(Traduction Framalang : HL et Don Rico)

J’étais à une conférence quand deux techniciens entrèrent dans la salle de bar, l’un favorable au logiciel libre, l’autre résolument contre. Ils mirent le moulin en route après quelques verres et Mr Contre remarqua d’une voix forte : « Le logiciel libre, je voudrais bien que ça dégage ! Ça crée plus de problèmes que ça n’a d’avantages.» Déclarations avec lesquelles, de toute évidence, j’ai quelques difficultés. Bon, je sais que la plupart des gens ne comprennent pas le rôle du logiciel libre dans notre monde, ou ignorent combien de services que nous tenons pour acquis disparaitraient sans sa présence. Si vous êtes membre du club, vous voyez probablement où je veux en venir.

Imaginons qu’au douzième coup de minuit, tout logiciel libre s’évapore comme par magie. Qu’est-ce qui fonctionnerait encore demain ? Pour commencer, Internet « disparaîtrait » pour l’utilisateur moyen. La plupart des serveurs de nom de domaines (DNS) fonctionnent sous des logiciels libres comme BIND, qui transforme www.framablog.org en une adresse IP du serveur adéquat. On perdrait en route la majorité des utilisateurs de base d’Internet. Bien sûr, BIND n’est pas le seul logiciel libre pour les DNS. Et toutes les solutions logicielles pour DNS ne sont pas libres.

Mais supposons que les DNS fonctionnent toujours, ou que par hasard vous avez mémorisé 72.14.207.99 au lieu de www.google.com. Même si les serveurs de noms de domaines fonctionnaient, Google disparaîtrait complètement d’Internet. Google tourne essentiellement sous Linux – qui est sans doute le plus populaire des systèmes d’exploitation libres de la planète. Pas de souci. Vous n’avez qu’à aller voir chez Yahoo!, Pas vrai ? Eh bien non. Yahoo! est l’un des plus grands consommateurs d’un autre système d’exploitation très répandu issu du libre : FreeBSD. A présent, vous vous êtes résigné à essayer 207.68.172.246. Nous savons tous qu’ils n’utilisent pas de logiciel libre, et qu’ils s’échinent depuis un bout de temps sur cette fonction de recherche.

OK, MSN est là, paré à la manoeuvre, alors maintenant lançons une recherche. J’ai entendu un remix sympa de Shakira à la radio ce matin, c’est ce que je vais rechercher. MSN me renvoie une liste de sites qui proposent la chanson… Je clique dessus… et… rien. Pas de dance music ? Pas de rythmes latinos ? Plus de 60% des sites Internet tournent sous Apache, un serveur web issu du libre. Avant même que je ne clique sur un lien, mes chances de succès ont été réduites à 4 sur 10.

Sur les 118 023 363 sites recensés jusqu’à présent par NetCraft ce mois de mai, un petit peu plus de 70 millions ne fonctionneraient plus si le logiciel libre venait à disparaître. Certes, Apache n’est pas le seul seveur web issu du libre et… Vous connaissez la suite. Je pourrais continuer des heures et des heures sur vos transactions en ligne, qui ne pourraient être sécurisées sans OpenSSH et OpenSSl et tous les autres services auxquels des utilisateurs ont recours tous les jours et qui, selon ce scénario, n’existeraient pas.

Le logiciel libre n’est pas une nouvelle tendance. Ce n’est pas un phénomène de mode éphémère. Il est partout, que vous le reconnaissiez ou non. De Linux intégré aux nouveaux routeurs sans fil en passant par Firefox, le navigateur libre le plus utilisé au monde, le logiciel libre est la force motrice d’Internet et d’innombrables autres technologies.

Vous savez déjà que je suis un inconditionnel du libre, mais vous, qu’en pensez-vous ? J’aimerais connaître votre avis sur la façon dont la disparition du logiciel libre vous affecterait.

Notes

[1] Crédit photo : Kinnéidigh Garrett (Creative Commons By)