Guerre contre l’Empire – épisode 37 – formats ouverts – ODF vs OOXML

C’est toujours un peu la même histoire… Une histoire qui risque bien d’être au cœur politique, économique, écologique et social de ce siècle : un monde non marchand qui cherche à se faire une place dans des espaces toujours plus réduits et convoités par un monde marchand. Une histoire où le logiciel libre a son mot à dire en affirmant, confiant mais lucide, que la route est longue mais la voie est libre

L’épisode du jour c’est la question des formats, véritable ligne de front entre le monde libre et le monde propriétaire. Les enjeux sont en effet plus qu’importants : la transparence, l’interopérabilité et la pérennité de nos données numériques (qui à l’avenir seront presque synonymes de nos données tout court !).

Et pour ce qui est des formats numériques en bureautique alors là c’est carrément la guerre ouverte avec une opposition frontale entre l’OpenDocument et l’Open XML (ou OOXML) de Microsoft. Mais il y a Open et Open. Quand le premier offre de solides garanties le second ne semble être avant tout qu’une manœuvre pour conserver une position dominante de fait (dont le piratage massif de la suite Microsoft Office n’est pas étranger soit dit en passant)[1].

D’un côté le libre et ses arguments et de l’autre le propriétaire dont les arguties pseudo-pragmatiques à court terme chechent à retarder l’échéance pour continuer le plus longtemps possible à engranger des bénéfices (et rassurer les actionnaires). Nonobstant les moyens considérables à disposition de Microsoft pour faire pression sur les structures et pouvoirs en place, l’échéance est pourtant bel et bien inévitable comme nous le rappelle l’article ci-dessous.

Traduit par nos petits activistes de FramaLang[2], il nous vient de Red Hat, société (et distribution) bien connue du monde Linux et très active dans la promotion de l’OpenDocument.

Screenshot - Red Hat Magazine web site

ODF : Le format inévitable

ODF: The inevitable format

T. Colin Dodd – 25 juillet 2007 – Red Hat Magazine

En 1999, un scientifique voulut consulter des données sur les échantillons collectés sur le sol de Mars en 1975 par la sonde Viking. Il souhaitait en effet tester une théorie sur la détection de l’existence de bactéries et de microbes Martiens – en d’autres termes, trouver de la vie sur Mars. Le scientifique pensait qu’il trouverait ce qu’il cherchait quelque part sur un site de la NASA, mais ce ne fut pas si simple. Les données originales avaient été égarées, et lorsque l’on retrouva les énormes bandes magnétiques qui conservaient les données, elles étaient "dans un format si ancien que le programmeur qui le connaissait était mort." Par chance quelqu’un trouva une imposante impression papier de ces données et la compréhension de l’univers par l’humanité se développa un peu plus… Le sentiment tragique qui aurait accompagné la perte de cette connaissance est l’écho des récits de la destruction de la Bibliothèque d’Alexandrie, et probablement ce pourquoi les autodafés sont un signe certain d’une société malade.

Bien sûr, toutes les données perdues ou inaccessibles ne contiennent pas des preuves de la vie sur Mars, et toutes les bribes d’informations n’ont pas besoin de survivre à leur créateur. Beaucoup de documents illisibles ne manqueront jamais, mais une politique publique responsable demande que les documents gouvernementaux – contrats, actes notariés ou enregistrements juridiques qui font autorité pour des décades ou même des siècles – doivent être archivés et accessibles. Quel que soit le cas, quand la donnée est stockée et partagée dans un format ancien ou propriétaire disparu, elle deviendra au fil du temps onéreuse d’accès ou disparaitra entièrement à tout jamais.

Lorsque l’on parle de créer, partager ou stocker numériquement des documents, la technologie qui prévient le dépérissement des formats existe déjà et elle est largement (et de plus en plus) utilisée. Elle s’appelle l’Open Document Format (ODF) et si vous ne l’utilisez pas aujourd’hui, vous le ferez sûrement un jour.

ODF, un langage de description de document basé sur le XML, a été initialement développé en 1999 par StarDivision, et ensuite par le projet OpenOffice.org de Sun Microsystem[3]. Conçu comme une alternative libre aux logiciels de gestion de documents propriétaires, qui dominaient alors le marché, la force motrice soutenant l’ODF était le besoin d’un format de document indépendant d’un éditeur et d’une application, lisible et enregistrable par tous, sans s’encombrer de royalties dues aux licences. Sa promotion se basait sur le fait que le monde des affaires et les contribuables pourraient économiser de l’argent. Un format ouvert créerait une compétition dans la sphère des applications de gestion de documents. Tous les documents pourraient être lus et partagés par quiconque. Rien ne pourrait se perdre à cause du temps ou suite à des changements dans un code propriétaire ou à des exigences de licences. Des sujets de grand intérêt public – données de recensement, données météorologiques, statistiques sur la santé publique, rapports d’enquêtes, enregistrements de tribunaux ou recherche fondamentale scientifique, tous payés par les contribuables, ne seraient plus encodés dans un format unique, propriétaire et fermé, demandant aux citoyens de payer double pour accéder à leurs propres informations. L’utilisation de l’ODF, disent ses partisans, permettrait de garder public les documents publics.

L’OASIS (Organization for the Advancement of Structured Information Standards) a été fondée en 2002 pour standardiser le format, qui a été reconnu par l’Organisation internationale de normalisation (ISO) en 2006[4]. L’Open Document Format Alliance s’est formée en mars 2006 pour promouvoir le format, et défendre le dossier public, légal et politique pour l’adoption de standards ouverts technologiques auprès des gouvernements et des institutions publiques.

"Red Hat était un membre fondateur de l’Alliance ODF et Tom Rabon (Vice-Président Corporate Affairs) est au comité exécutif," déclare Stéphanie McGarrah, ancienne Responsable des Politiques Publiques de Red Hat. "Red Hat travaille avec les autres membres du comité exécutif pour coordonner les efforts dans les discussions avec les gouvernements du monde entier à propos de l’ODF."

Bien que l’ODF ait été lancé avec beaucoup de bon sens, l’élan d’une large adoption a été entravé par l’inertie bureaucratique, les politiques locales, des idées fausses persistantes (renforcées par ses opposants) à propos de la viabilité de l’ODF et les "dangers" de son adoption. La plupart de la peur, de l’incertitude et du doute ont émané d’une source, dont les formats propriétaires constituent la plupart des documents dans le monde.

Les opposants à l’ODF ne peuvent admettre son adoption inévitable, et pratiquent un lobby actif à son encontre. Ce n’est pas que quelqu’un soit contre le format ODF en lui-même, ou trouve une quelconque vraie raison pour remettre en cause sa nécessité. La logique qui soutient l’ODF et la transparence de sa création est presque inexpugnable. Ce sont plutôt les standards ouverts sur lesquels l’ODF est bâti qui sont le plus souvent attaqués. Du point de vue de ses détracteurs, les choses sont bien telles qu’elles sont actuellement. Le « standard » est le leur. Ils ont la main mise sur le "marché" du document, et l’envisagent comme un "territoire" qu’ils ont "conquis" de façon juste. Ils ne peuvent envisager un futur sans lui (ça ne fait pas partie de leur plan stratégique), et tant que tout le monde utilise leurs applications et leurs formats, pourquoi changer ? Les opposants à l’ODF consacrent des ressources considérables à faire du lobbying auprès des législatures et des conseils d’administrations dans une tentative de les convaincre que l’adoption du format ODF limite en fait leur choix et fait du tort à l’efficacité apportée par le marché en "excluant" des éditeurs comme eux. Ils disent que la migration est coûteuse, et soutiennent même que l’adoption de l’ODF limitera l’accès public en encombrant l’environnement avec de trop nombreux formats "incompatibles". Et qui peut réellement croire tous ces "machins libres", d’ailleurs ?

Mais les partisans comme l’Alliance ODF ont leurs propres arguments, et la plupart d’entre eux sont issus de la preuve du contraire, du genre "En fait, c’est l’inverse qui est vrai…".

L’Alliance ODF défend l’idée que – au contraire – les standards ouverts encouragent le choix et la compétition entre fournisseurs en égalisant le terrain de jeu. Le standard est ouvert et disponible librement pour quiconque veut le mettre en oeuvre. Il n’y a pas de compétition autour du format, mais uniquement sur les applications qui l’utilisent. Dans cet univers, c’est la meilleure application qui gagne. L’alliance ODF souligne aussi que la mise en place ou la migration vers l’ODF n’est pas plus compliquée ou plus coûteuse que la mise à jour périodique d’une version à l’autre d’une application propriétaire, et en limitant les besoins de mises à jour futures, des réelles économies peuvent être réalisées avec le temps. À propos de l’accessibilité, Open Office (et les autres applications conformes à l’ODF) sont librement téléchargeables et prêtes à utiliser dès maintenant. Il n’y a pas de problèmes de compatibilité, disent-ils, seulement des problèmes de non coopération.

« Je pense que certains gouvernements ne sont pas au courant de l’ODF, ou n’ont pas les équipes techniques en place pour comprendre la valeur de l’ODF, » explique McGarrah. « Ainsi, c’est le travail de l’Alliance de diffuser ce message auprès des personnes au gouvernement qui prennent ces décisions ».

Mais l’argument irréfutable en faveur de l’utilisation de l’ODF pour les documents publics est le fait que c’est une meilleure affaire pour les citoyens et les contribuables sur le long terme. Utiliser des « standards » fermés, du logiciel propriétaire pour des documents publics est comme acheter le proverbial siège de toilettes à 10 000 $, ou interdire au gouvernement fédéral de négocier de meilleurs prix sur les médicaments auprès des sociétés pharmaceutiques au nom de patients de Medicaid et Medicare, ou essayer de nourrir une armée et reconstruire une zone de guerre en accordant des contrats secrets, non compétitifs et sans appels d’offre. C’est anti-compétitif dans le pire sens.

Malgré l’opposition, l’adoption de l’ODF suit une progression lente mais inexorable, et plus les politiciens prennent conscience de ce problème, plus l’ODF viendra défier l’ubiquité actuelle des formats propriétaires. Faisant un pas de plus en avant, le Japon a récemment demandé à ce que ses ministères passent des contrats avec des éditeurs de logiciels dont les applications sont bâties autour de standards ouverts. Le Brésil, la Pologne, la Malaisie, l’Italie, la Corée, la Norvège, la France, les Pays-Bas, le Danemark, la Belgique, le Commonwealth du Massachussetts, et le gouvernement de l’État de Delhi en Inde ont tous pris des engagements de principe sur l’adoption de l’ODF et, peut-être plus important, reconnaissent la nécessité d’utiliser des standards ouverts. L’Alliance ODF continue à équiper et éclairer les décisionnaires avec l’information et les outils dont ils ont besoin pour faire des recommandations et des politiques de changement, mais personne faisant la promotion de l’ODF ne pense qu’une large adoption est imminente. Cela prendra du temps.

« Ces décisionnaires ont beaucoup d’autres problèmes à gérer (par exemple : santé publique, éducation, transports, pauvreté…) et les décisions technologiques ne sont généralement pas en haut de leurs listes », déclare McGarrah. « Des progrès ont été faits dans une adoption plus large de l’ODF. Plusieurs gouvernements ont adopté l’ODF ou travaillent sur la mise en place du standard, mais il reste encore beaucoup à faire. »

ODF - Liberate your documents

Liens connexes :

Notes

[1] La situation des navigateurs web est similaire. D’un côté des navigateurs qui respectent les standards (tel Firefox) et de l’autre Internet Explorer qui ne les respecte pas et qui par là-même donne des cauchemars à tous les webmasters en les obligeant à d’usantes circonvolutions pour que leurs sites soient également compatibles visibles sur ce navigateur.

[2] Merci à VLI pour la traduction et Daria et Mben pour la relecture.

[3] NDT : suite au rachat de StarOffice par Sun.

[4] NDT : ISO/IEC 26300, Open Document Format for Office Applications (OpenDocument) v1.0.




De l’inexorable déclin de l’empire musical

Qui est en crise ? La musique ou l’industrie musicale ?

Le second aimerait laisser croire que c’est du premier qu’il s’agit mais j’ai ma petite idée sur la question et cet article du célèbre magazine Rolling Stone traduit par nos soins[1] ne fait que renforcer mon impression.

On notera qu’il n’est pas fait mention des modèles alternatifs que pourraient constituer toutes les initiatives actuelles autour de la musique en libre circulation sous licences Creative Commons ou apparentées. Mais la période est propice et nulle doute qu’il naîtra quelque chose d’intéressant de ce petit chaos dont il est difficile de ne pas rendre l’industrie musicale principalement responsable.

Un système fortement propriétaire et monopolistique opposé à une pratique généralisée du piratage dont sortirait vainqueur un troisième larron qui porterait haut la main les couleurs de la liberté, cela nous vous rappelle rien ?[2]

4 pesos - Libertinus - CC BY-SA

Le déclin de l’industrie du disque

The Record Industry’s Decline

Rolling Stone – Brian Hiatt et Evan Serpick – 19 juin 2007

Les ventes de disques plongent et il n’y a pas d’espoir à l’horizon : Qu’est-ce qui a flanché.

Pour l’industrie du disque, ce fut l’une des rares bonnes nouvelles : le nouvel album de Linkin Park s’est vendu à 623 000 exemplaires au cours de sa première semaine en mai, le meilleur démarrage de l’année. Mais c’est loin d’être suffisant. Au cours du même mois, la maison de disque du groupe, Warner Music Group, a annoncé qu’elle allait se séparer de 400 personnes et sa valeur boursière s’est difficilement maintenue à 85% de son maximum de juin l’année dernière.

Les ventes globales de CD se sont effondrées de 65% pour cette année jusqu’à maintenant et ceci après 7 ans d’une érosion presque constante. Face à un piratage à grande échelle, l’attrait grandissant des consommateurs pour les singles numériques face aux albums qui dégagent plus de marge et d’autres maux, l’industrie du disque a plongé dans un déclin historique.

Les principaux labels se battent pour réinventer leurs modèles économiques, certains se demandent même s’il n’est pas déjà trop tard. "Le business du disque est terminé" dit l’avocat de la musique Peter Paterno, qui représente Metallica et Dr Dre. "Les labels ont des avantages formidables… c’est juste qu’ils ne peuvent pas en tirer de l’argent". Une source haut placée dans l’industrie du disque, qui désire rester anonyme, va même plus loin : "Nous avons un business agonisant. Il n’y aura bientôt plus de grand label."

En 2000, les consommateurs américains ont acheté 785.1 millions albums, l’année passée ils en ont acheté 588.2 millions (un nombre qui regroupe les ventes de CD et les albums téléchargés), d’après Nielsen Soundscan. En 2000, les 10 meilleures ventes d’albums aux Etats-Unis représentaient 60 millions d’exemplaires, en 2006 les 10 meilleures n’en totalisaient plus que 25 millions. Les ventes de musique numérique augmentent, les fans ont achetés 582 millions de singles numériques l’an passé, en hausse de 65% par rapport à 2005 et ont acheté pour 600 millions de dollars de sonneries, mais les nouvelles sources de revenus ne compensent pas les pertes.

Plus de 2000 employés de maisons de disque ont été mis à la porte depuis 2000. Le nombre de majors est tombé de cinq à quatre quand Sony Music Entertainment et BMG Entertainment ont fusionné en 2004 et deux des labels restant, EMI et Warner, ont flirté avec leur propre fusion pendant des années.

Environ 2 700 magasins de musique ont fermé à travers le pays en 2003, d’après le groupe d’étude Almighty Institute of Music Retail. L’année dernière, la chaîne Tower Records (89 magasins), qui représente 2,5% des ventes au détail, a mis la clé sous la porte et Musicland, qui chapeautait plus de 800 magasins sous la marque Sam Goody, entre autres, a fait banqueroute. Environ 65% des ventes de musique se font maintenant dans les magasins généralistes comme Wal-Mart et Best Buy, qui proposent moins de variété que les magasins spécialisés et font moins d’effort pour promouvoir les nouveaux artistes.

Il y a encore quelques années, de nombreux dirigeants de l’industrie pensaient que leurs problèmes pourraient être réglés avec des plus gros hits. "Il n’y avait rien qu’un bon hit ne puisse faire pour ces gens-là" nous confie une source qui a travaillé en étroite collaboration avec les grands patrons plus tôt dans cette décennie. "Ils se rendaient compte que les choses allaient mal et ne faisaient qu’empirer, mais je ne suis pas sûr qu’ils avaient la bande passante pour trouver des solutions. Maintenant, peu d’entres eux sont encore à la tête de ces entreprises."

De plus en plus de patrons de maisons de disque maintenant semblent se rendre compte que leurs problèmes sont structurels : Internet paraît être la rupture technologique ayant le plus de conséquence pour l’économie de la vente de musique depuis les années 20, quand les enregistrements phonographiques ont remplacé les partitions comme centre des profits de l’industrie. "Nous devons collectivement comprendre que les temps ont changé", dit Lyor Cohen, PDG de Warner Music Group USA. En juin, Warner a annoncé un accord avec le site web lala.com qui permettra aux consommateurs d’écouter en ligne l’essentiel de leur catalague gratuitement, en espérant que cela les poussera à payer pour des téléchargements. C’est là la dernière des plus récentes tentatives des majors, qui aurait semblé impensable il y a quelques années :

  • En mai, l’une des quatre majors, EMI, a commencé à permettre à l’iTunes Music Store de vendre son catalogue les protections anti-copies sur lesquels les labels ont insisté pendant des années.
  • Quand YouTube a commencé à montrer des clips sans permission, les quatre labels ont signé des accords de licence plutôt que de lancer des poursuites pour violations de droits d’auteur.
  • Au désarroi de certains artistes et managers, les labels s’obstinent sur des accords avec de nombreux artistes grâce auxquels ils touchent un pourcentage sur les tournées, les produits dérivés, les produits sponsorisés et d’autres sources de revenus sans liens avec la musique enregistrée.

Qui a donc tué l’industrie du disque comme nous la connaissions ? "Les maisons de disque ont créé cette situation elles-mêmes", dit Simon Wright, PDG de Virgin Entertainment Group, qui dirige les Virgin Megastores. Bien que certains facteurs ne relèvent pas du contrôle des labels, de l’avènement d’Internet à la popularité des jeux-vidéo et des DVD, beaucoup dans l’industrie voient les sept dernières années comme une série d’opportunités sabotées. Parmi les plus importantes, disent-ils, se trouve l’incapacité qu’ont eu les labels à gérer le piratage en ligne à son balbutiement en faisant la paix avec le premier service de partage en ligne : Napster. "Ils ont jeté des milliards et des milliards de dollars par la fenêtre en attaquant Napster, c’est à ce moment que les labels se sont tués eux-mêmes", dit Jeff Kwatinetz, PDG de l’entreprise de management The Firm. "L’industrie du disque avait alors une opportunité incroyable. Tout le monde utilisait le même service. C’était comme si tout le monde écoutait la même station de radio. Ensuite Napster a fermé et ses 30 à 40 millions d’utilisateurs se sont tournés vers d’autres services de partage."

Les choses auraient pu être différentes : sept ans auparavant, les grands patrons de l’industrie du disque se sont réunis pour des discussions secrètes avec le PDG de Napster, Hank Barry. Lors d’une rencontre le 15 Juillet 2000, les dirigeants, y compris le PDG de la maison mère d’Universal, Edgar Bronfman Jr., le chef de Sony Corp, Nobuyuki Idei, et celui de Bertelsmann, Thomas Middelhof, se sont réunis avec Barry dans un hôtel à Sun Valley, Idaho et lui ont annoncé qu’ils voulaient conclure des accords de licence avec Napster. "M Idei a commencé la réunion", se souvient Barry, maintenant directeur de l’entreprise de droit Howard Rice. "Il disait que Napster était ce que les clients voulaient."

L’idée était de laisser les 38 millions d’utilisateurs de Napster libres de télécharger pour un abonnement mensuel, à peu près 10$, dont les revenus seraient partagés entre le service et les labels. Mais finalement, malgré une offre publique de 1 milliard de dollars de Napster, les compagnies ne sont jamais parvenues à un accord. "Les maisons de disque devaient sauter de la falaise, mais elles n’arrivaient pas à réunir le courage nécessaire", dit Hilary Rosen, qui était alors directrice de la Recording Industry Association of America. "Beaucoup de gens disent, ‘Les labels étaient des dinosaures et des idiots, c’était quoi leur problème ?’ Mais leurs revendeurs leur disaient, ‘Vous feriez mieux de ne rien vendre en ligne moins cher qu’en magasin’ et ils y avaient des artistes qui leur disaient ‘Ne déconnez pas avec les ventes de Wal-Mart.’ " ajoute Jim Guerinot, qui s’occupe de Nine Inch Nails et Gwen Stefani, "Innover signifiait cannibaliser leur marché principal."

Pis encore, les maisons de disque ont attendu presque deux ans après la fermeture de Napster le 2 juillet 2001 avant de donner leur accord à une plateforme légale de téléchargement, une alternative aux services d’échanges non-autorisés : l’iTunes Music Store d’Apple, qui a ouvert au printemps 2003. Avant cela, les labels ont lancé leurs propres services à abonnement : Pressplay, qui ne proposait au début que Sony, Universal et EMI et MusicNet, qui n’offrait que les catalogues de EMI, Warner et BMG. Ces services ont échoué. Ils étaient onéreux, n’offraient peu ou pas de possibilité de graver des CD et n’étaient pas compatibles avec beaucoup de lecteurs MP3 du marché.

Rosen et d’autres voient cette période entre 2001 et 2003 comme désastreuse pour le business. "C’est à ce moment-là que nous avons perdu les utilisateurs" dit Rosen. "Le peer-to-peer a pris le dessus. C’est à ce moment-là qu’on est passé d’une situation où la musique avait une vraie valeur dans l’esprit des gens à une autre où elle n’avait plus de valeur économique mais uniquement émotionnelle.

A l’automne 2003, la RIAA a lancé ses premières poursuites pour violation des droits d’auteur contre des personnes partageant des fichiers. Ils ont depuis attaqué plus de 20 000 fans de musique. La RIAA maintient que les poursuites sont faites pour passer le message que le téléchargement non autorisé peut avoir des conséquences. "Ce n’est pas fait pour punir" dit le président de la RIAA, Mitch Bainwol. Mais le partage de fichiers ne disparaît pas pour autant, le nombre d’utilisateurs de logiciels de peer-to-peer a augmenté de 4,4% en 2006, avec environ 1 milliard de chansons téléchargées illégalement par mois, d’après le groupe d’étude BigChampagne.

Malgré les maux de l’industrie, les gens écoutent toujours au moins autant de musique qu’avant. Les consommateurs ont acheté plus de 100 millions iPods depuis leur commercialisation en novembre 2001 et l’économie des tournées est florissante, atteignant un record l’année passée avec 437 millions de dollars. Et selon l’organisme NPD Group, l’audimat de la musique enregistrée, que ce soit depuis les CD, les téléchargements, les jeux-vidéo, les radios satellites, la radio terrestre, les flux en ligne ou d’autres sources, a augmenté depuis 2002. Le problème auquel fait face l’industrie est de convertir cet intérêt en argent. "Comment se fait-il que les gens qui font la musique fassent banqueroute alors que l’utilisation des produits explose ?" se demande Kwatinetz de chez Firm. "Le modèle est mauvais."

Kwatinetz voit d’autres compagnies, plus petites, depuis les entreprises de management comme la sienne, qui maintenant fait aussi maison de disque, aux pièces rapportées comme Starbucks, s’inviter. Paul McCartney a récemment abandonné sa longue relation avec EMI Records pour signer avec le jeune Hear Music de Starbucks. Le géant des jeux-vidéo Electronic Arts a aussi lancé son label, utilisant la valeur promotionnelle de ses jeux et le renaissant CBS Records va vendre la musique utilisée dans les émissions de la chaîne CBS.

Accorder des droits sur la musique aux jeux-vidéo, aux films, aux émissions de télévision et aux services avec abonnement en ligne devient une source de revenue grandissante. "Nous nous attendons à devenir un organisme qui accorde des contrats de licence" dit Cohen de Warner, qui en mai a lancé une nouvelle division, Den of Thieves NdT : L’antre des voleurs, dédiée à la production d’émissions de télévision et autres contenus vidéo basés sur ses droits musicaux. Et les maisons d’édition cherchent à augmenter leurs parts dans le business en pleine croissance de la publication musicale qui collecte les redevances liées aux droits d’auteur auprès des radios et d’autres sources. La société qui s’occupe de percevoir les droits liés aux spectacles vivants, ASCAP, annonce des revenus records de 785 millions de dollars pour 2006, en hausse de 5% par rapport à 2005. "Tous les indicateurs sont au vert" d’après Martin Bandier, PDG de Sony/ATV Music Publishing, qui contrôle la publication des Beattles. "La publication de musique va prendre une part de plus en plus importante dans le business" dit-il. "Si je travaillais pour une maison de disque, je serais en train de m’arracher les cheveux. Le monde de l’édition musicale est dans la confusion la plus totale, à la recherche d’une échappatoire.

Presque chaque acteur de l’industrie du disque est touché. "L’un des grands secteurs américains a été durement touché", dit Bainwol de la RIAA, qui accuse le piratage, "depuis les paroliers jusqu’aux accompagnateurs ou aux gens qui travaillent pour les labels. Le nombre de groupes en contrat avec les labels a été sérieusement atteint, en baisse de presque un tiers."

Les temps sont durs pour les employés des maisons de disque. "Les gens se sentent menacés" dit Rosen. "Leurs amis se font virer de tous côtés." Adam Shore, directeur de Vice Records, alors affilié à Atlantic Records, disait à Rolling Stone en janvier que ses collègues vivent une "crise existentielle." "Nous avons de super disques, mais nous ne sommes vraiment pas sûrs que les gens vont les acheter" dit-il. "On a un peu l’impression de perdre la foi."

Notes

[1] Nos soins ce sont nos p’tits gars (et filles) de Framalang of course !

[2] L’illustration est une photographie de Libertinus intitulée 4 pesos issue de Flickr et sous licence Creative Commons BY-SA.




Open source ? Logiciel libre ? Les deux mon capitaine ?

Gianca - CC by-saNous reproduisons ici un article de la FSF de Stallman expliquant pourquoi de son point de vue il est plus que préférable, sémantiquement parlant, d’utiliser l’expression « logiciel libre » plutôt que « Open Source ».

Chez les francophones le débat est atténué parce que « libre » ne peux également signifier « gratuit » mais aussi parce que le monde de l’entreprise semble avoir adopté « logiciel libre » dans sa grande majorité.

Il n’empêche que cette polémique interne, de celles qu’affectionnent tant la communauté, est loin d’être stérile dans la mesure où elle permet à tout un chacun de mieux se positionner par rapport à sa propre définition d’un logiciel libre ainsi qu’au mouvement qui lui est associé[1].

Par exemple c’est toute l’approche pragmatique Windows de Framasoft qui se trouve interpellée par cette citation de Stallman extraite d’un autre billet blog : « Si vous n’avez pas la liberté pour principe, vous trouverez toujours une bonne raison de faire une exception. Il y aura toujours des moments où, pour une raison ou pour une autre, il y a un avantage pratique à faire une exception. »

Bonne lecture…

Pourquoi l’« Open Source » passe à coté du problème que soulève le logiciel libre

Why Open Source misses the point of Free Software

Richard Stallman – dernière mise à jour : 19 juin 2007
(Traduction : Mathieu Stumpf)

Quand on dit qu’un logiciel est « libre », on entend par là qu’il respecte les libertés essentielles de l’utilisateur : la liberté de l’utiliser, de l’étudier et de le modifier, et de redistribuer des copies avec ou sans modification. C’est une question de liberté, pas de prix, pensez donc à « liberté d’expression » (ndt : « free speech » en anglais), et pas à « bière gratuite » (ndt : « free beer » en anglais).

Ces libertés sont d’une importance vitale. Elles sont essentielles, pas juste pour les enjeux individuels des utilisateurs, mais parce qu’elles promeuvent la solidarité sociale, que sont le partage et la coopération. Elles deviennent encore plus importantes à mesure que de plus en plus notre culture et les activités quotidiennes sont numérisés. Dans un monde de sons, d’images et de mots numériques, le logiciel libre devient de plus en plus nécessaire pour la liberté en général.

Des dizaines de millions de personnes à travers le monde utilisent maintenant le logiciel libre ; les écoles des régions de l’Inde et de l’Espagne enseignent maintenant à tous les étudiants à utiliser le système d’exploitation libre GNU/Linux. Mais la plupart des utilisateurs n’ont jamais entendu parler des raisons éthiques pour lesquelles nous avons développé ce système et bâti la communauté du logiciel libre, parce qu’aujourd’hui ce système et la communauté sont plus souvent décrits comme « open source » (ndt : à code source ouvert) et attribués à une philosophie différente dans laquelle ces libertés sont à peine mentionnées.

Le mouvement du logiciel libre a fait campagne pour la liberté des utilisateurs d’ordinateur depuis 1983. En 1984 nous avons lancé le développement du système d’exploitation libre GNU, pour pouvoir ainsi éviter d’utiliser un système qui refuse la liberté à ses utilisateurs. Durant les années 80, nous avons développé la majeure partie des composants essentiels d’un tel système, tout autant que la GNU General Public License, une licence conçue spécifiquement pour protéger la liberté pour tous les utilisateurs d’un programme.

Cependant, tous les utilisateurs et les développeurs de logiciel libre n’étaient pas en accord avec les buts du mouvement du logiciel libre. En 1998, une partie de la communauté du logiciel libre s’est mise à part et a commencé à faire campagne au nom de l’« open source ». Le terme fut originellement proposé pour éviter une possible incompréhension du terme « logiciel libre » (ndt : « free software ») mais il fut bientôt associé avec des points de vue philosophique complètement différents de ceux du mouvement du logiciel libre.

Certains des partisans de l’« open source » considéraient cela comme « une campagne marketing pour le logiciel libre » qui plairait aux cadres des entreprises en citant les avantages pratiques, tout en évitant les idées de bien ou de mal qu’ils pourraient ne pas aimer entendre. D’autres partisans rejetèrent catégoriquement les valeurs morales et sociales du mouvement du logiciel libre. Quel que fut leur point de vue, pendant leur campagne sur l’« open source » ils ne mentionnèrent ou ne préconisèrent pas ces valeurs. Le terme « open source » devint rapidement associé avec la pratique de ne citer que les valeurs pratiques, tel que faire des logiciels puissants et fiables. La plupart des défenseurs de l’« open source » se sont ralliés à celui-ci depuis, et cette pratique est celle dont ils se servent.

Pratiquement tous les logiciels « open source » sont des logiciels libres ; les deux termes décrivent pratiquement la même catégorie de logiciel. Mais ils représentent des vues basées sur des valeurs fondamentalement différentes. L’« open source » est une méthodologie de développement ; le logiciel libre est un mouvement social. Pour le mouvement du logiciel libre, le logiciel libre est un impératif éthique, parce que seul le logiciel libre respecte la liberté de l’utilisateur. En revanche, la philosophie de l’« open source » considère uniquement les questions pratiques en termes de performance. Cela signifie que les logiciels non-libres sont des solutions sous-optimales. Pour le mouvement du logiciel libre cependant, les logiciels non-libres sont un problème social et migrer vers les logiciels libres est une solution.

« Logiciel libre ». « Open source ». Si ce sont les mêmes logiciels, le nom utilisé pour les qualifier est-il important ? Oui, parce que des mots différents véhiculent des idées différentes. Bien qu’un programme libre avec n’importe quel autre nom vous donnerait la même liberté aujourd’hui, l’établissement de la liberté de manière durable dépend par dessus tout de l’enseignement de la valeur de la liberté. Si vous voulez aider à faire cela, il est essentiel de parler de « logiciel libre ».

Nous, dans le mouvement du logiciel libre, nous ne considérons pas le mouvement « open source » comme un ennemi ; l’ennemi est le logiciel propriétaire. Mais nous voulons que les gens sachent que nous représentons la liberté, alors nous n’acceptons pas d’être incorrectement assimilés aux défenseurs de l’« open source ».

Malentendus courants sur le « logiciel libre » et l’« open source »

Ndt : Le paragraphe suivant traite de l’amalgame qui existe dans le terme « logiciel libre » dans la langue anglaise. En effet, en anglais on parle de « free software », le mot « free » pouvant s’interpréter aussi bien par « libre » que par « gratuit ». En français cet amalgame n’existe pas.

Le terme de « free sofware » souffre d’un problème de mauvaise interprétation : une signification fortuite, « un logiciel que vous pouvez avoir gratuitement » correspond au terme aussi bien que la signification voulue, « un logiciel qui donne certaines libertés à l’utilisateur ». Nous traitons ce problème en publiant la définition de logiciel libre, et en disant « Pensez à la liberté d’expression, pas à la bière gratuite » (ndt : « Think of free speech, not free beer. »). Ce n’est pas une solution parfaite, cela ne peut pas complètement éliminer le problème. Un terme correct non ambigu serait meilleur, s’il n’avait pas d’autres problèmes.

Malheureusement, toutes les alternatives en anglais ont leurs propres problèmes. Nous avons étudié de nombreuses alternatives que les gens nous ont proposées, mais aucune n’est aussi clairement « juste » pour que changer soit une bonne idée. Tous les remplacements suggérés pour « free software » ont des problèmes de sémantique, ce qui inclut « open source software ».

La définition officielle d’un « logiciel open source » (qui est publiée par l’Open Source Initiative est trop longue pour être citée ici) était indirectement dérivée de nos critères pour le logiciel libre. Ce n’est pas la même elle est un peu plus laxiste à quelques égards, en conséquence de quoi les défenseurs de l’open source ont accepté quelques licences que nous considérons inadmissibles par les restrictions qu’elles imposent aux utilisateurs. Néammoins, elle est assez près de notre définition dans la pratique.

Cependant, la signification évidente de « logiciel open source » est « Vous pouvez regardez le code source » et la plupart des gens semble penser que c’est ce que cela signifie. C’est un critère beaucoup plus faible que celui du logiciel libre, et beaucoup plus faible que la définition officielle de l’open source. Elle inclut beaucoup de programmes qui ne sont ni libres, ni open source.

Puisque cette signification évidente d’« open source » n’est pas la signification que ceux qui la préconisent entendent, le résultat est que la plupart des gens se méprennent sur le terme. Voilà comme Neal Stephenson définit l’« open source » :

Linux est la signification du logiciel « open source », simplement que quiconque peut obtenir des copies des fichiers de son code source.

Je ne pense pas qu’il a délibérément cherché à rejeter ou contester la définition officielle. Je pense qu’il a simplement appliqué les conventions de l’anglais pour trouver une signification du terme. L’état du Kansas à publié une définition similaire :

Utiliser le logiciel open source. Le logiciel open source est un le logiciel pour lequel le code source est librement et publiquement disponible, bien que les accords de licence spécifiques changent quant à ce qui est permis de faire avec ce code.

Les gens de l’open source essaient de traiter ceci en renvoyant à leur définition officielle, mais cette approche corrective est moins efficace pour eux qu’elle ne l’est pour nous. Le terme « free software » a deux significations naturelles, l’une d’entre elle est la signification escomptée, ainsi une personne qui aura saisi l’idée de « free speech, not free beer » ne pourra plus dès lors se tromper sur son sens. Ainsi il n’y a aucune manière succincte d’expliquer et de justifier la définition officielle d’« open source ». Cela rend encore pire la confusion.

Des valeurs différentes peuvent amener à des conclusions similaires… mais pas toujours

Les groupes radicaux dans les années 60 avaient une réputation pour le sectarisme : quelques organismes se sont scindés en deux en raison des désaccords sur des détails de stratégie et les deux groupes résultants se sont traités l’un l’autre comme des ennemis en dépit du fait qu’ils aient les mêmes buts et des valeurs de base semblables. La droite a fait grand cas de ceci et a utilisé cela pour critiquer la gauche toute entière.

Certains essaient de déprécier le mouvement du logiciel libre en comparant notre désaccord avec l’open source avec les désaccords de ces groupes radicaux. Ces personnes ne font que reculer. Nous sommes en désaccord avec le camp de l’open source sur les buts et les valeurs de base, mais leurs points de vue et les nôtres mènent dans beaucoup de cas au même comportement pratique, comme développer du logiciel libre.

En conséquence, les gens du mouvement du logiciel libre et du camp de l’open source travaillent souvent ensemble sur des projets pratiques tels que le développement de logiciel. Il est remarquable que de telles différences de point de vue philosophiques puissent tellement souvent motiver des personnes différentes à participer aux mêmes projets. Néanmoins, ces vues sont très différentes et il y a des situations où elles mènent à des actions très différentes.

L’idée de l’open source c’est que permettre aux utilisateurs de modifier et redistribuer le logiciel le rendra plus puissant et fiable. Mais ce n’est pas garanti. Les développeurs de logiciel propriétaire ne sont pas nécessairement incompétents. Parfois il produisent un programme qui est puissant et fiable, bien qu’il ne respecte pas les libertés des utilisateurs. Comment les activistes du logiciel libre et les supporters de l’open source vont réagir à cela ?

Un supporter de l’open source, un qui n’est pas du tout influencé par les idéaux du logiciel libre, dira, « Je suis surpris que vous ayez été capable de faire fonctionner ce programme si bien sans utiliser notre modèle de développement, mais vous l’avez fait. Comment puis-je avoir une copie ? ». Ce genre d’attitude incite des arrangements qui emportent avec eux notre liberté, la menant à sa perte.

L’activiste du logiciel libre dira « Votre programme est vraiment attrayant, mais pas au prix de ma liberté. Je dois donc faire sans. Au lieu de cela je soutiendrai un projet pour développer un remplacement libre. Si nous accordons de la valeur à notre liberté, nous pouvons agir pour la maintenir et la défendre.

Le logiciel puissant et fiable peut être mauvais

L’idée que nous voulons que le logiciel soit puissant et fiable vient de la supposition que le logiciel est fait pour servir ses utilisateurs. S’il est puissant et fiable, il les sert mieux.

Mais on ne peut dire d’un logiciel qu’il sert ses utilisateurs seulement s’il respecte leur liberté. Que dire si le logiciel est conçu pour enchaîner ses utilisateurs ? La fiabilité ne signifie alors uniquement que les chaînes sont plus difficiles à retirer.

Sous la pression des compagnies de film et de disque, les logiciels à usage individuel sont de plus en plus conçus spécifiquement pour imposer des restrictions. Ce dispositif malveillant est connu sous le nom de DRM, ou Digital Restrictions Management (ndt : Gestion Numérique des Droits) (voir DefectiveByDesign.org), et c’est l’antithèse dans l’esprit de la liberté que le logiciel libre vise à fournir. Et pas simplement dans l’esprit : puisque le but des DRM est de piétiner votre liberté, les concepteurs de DRM essayent de rendre difficile, impossible ou même illégal pour vous de modifier le logiciel qui met en application les DRM.

Pourtant quelques défenseurs de l’open source ont proposé des logiciels « DRM open source ». Leur idée est qu’en publiant le code source de leur programme conçu pour restreindre votre accès aux medias chiffrés, et en autorisant d’autres à le modifier, ils produiront un logiciel plus puissant et plus fiable pour limiter le droit des utilisateurs comme vous. Il vous sera alors livré dans des dispositifs qui ne vous permettent pas de le changer.

Ce logiciel pourrait être « open source » et utiliser le modèle de développement open source ; mais il ne sera pas un logiciel libre, étant donné qu’il ne respectera pas la liberté des utilisateurs qui l’utiliseront. Si le modèle de développement open source réussi à réaliser un logiciel plus puissant et fiable pour limiter vos droits, cela le rendra encore pire.

La crainte de la liberté

La principale motivation initiale pour le terme « logiciel open source » est que les idées éthiques du « logiciel libre » rend certaines personnes mal à l’aise. C’est vrai : parler de liberté, de problèmes d’éthique, de responsabilités aussi bien que de commodités, c’est demander aux gens de penser à des choses qu’ils préféreraient ignorer, comme leur conduite est-elle éthique ou non. Ceci peut déclencher un malaise et certains peuvent simplement fermer leurs esprits à cela. Il ne s’en suit pas que nous devrions cesser de parler de ces choses.

Cependant, c’est ce que les dirigeants de l’« open source » ont décidé de faire. Ils se sont figuré qu’en passant sous silence l’éthique et la liberté, et en ne parlant que des bénéfices immédiats de certains logiciels libres, ils seraient à même de « vendre » le logiciel plus efficacement à certains utilisateurs, particulièrement aux entreprises.

Cette approche à prouvé son efficacité, dans ses propres termes. La rhétorique de l’open source à convaincu beaucoup d’entreprises et d’individus à utiliser, et même à développer du logiciel libre, ce qui a étendu notre communauté, mais seulement au niveau superficiel et pratique. La philosophie de l’open source avec ses valeurs purement pratiques, empêche la compréhension des idées plus profondes du logiciel libre ; elle apporte beaucoup de monde dans notre communauté, mais ne leur enseigne pas à la défendre. Cela est bon, tant que les choses vont bien, mais ce n’est pas assez pour instaurer une liberté durable. Attirer des utilisateurs vers le logiciel libre ne fait que leur faire prendre une partie du chemin pour devenir des défenseurs de leur propre liberté.

Tôt ou tard, ces utilisateurs seront invités à retourner vers le logiciel propriétaire pour quelques avantages pratiques. D’innombrables compagnies cherchent à offrir une telle tentation, certaines offrent même des copies gratuites. Pourquoi les utilisateurs refuseraient-ils ? C’est seulement s’ils ont appris la valeur de la liberté que le logiciel libre leur donne, la valeur de cette liberté en tant que telle plutôt que la commodité technique et pratique de logiciels libres spécifiques. Pour diffuser cette idée, nous devons parler de logiciel libre. Une certaine quantité de l’approche « passer sous silence » avec les entreprises peut être utile pour la communauté, mais elle est dangereuse si elle devient si commune que l’amour de la liberté en vient à sembler comme une excentricité.

Cette dangereuse situation est exactement ce que nous avons. La plupart des gens impliqué dans le logiciel libre en disent peu sur la liberté, habituellement parce qu’ils cherchent à sembler « plus acceptables pour les entreprises ». Les distributeurs de logiciel montrent particulièrement ce modèle. Pratiquement tous les distributeurs de système d’exploitation GNU/Linux ajoutent des paquetages propriétaires au système de base libre, et ils invitent les utilisateurs à considérer cela comme un avantage, plutôt qu’un pas en arrière vis-à-vis de la liberté.

Les greffons logiciels propriétaires et particulièrement les distributions non-libres GNU/Linux, trouvent un sol fertile parce que notre communauté n’insiste pas sur la liberté de ses logiciels. Ce n’est pas une coïncidence. La plupart des utilisateurs GNU/Linux furent introduits au système par un discours « open source » qui ne leur a pas dit que la liberté était le but. Les aspects pratiques qui n’impliquent pas la liberté et les discours qui ne parlent pas de liberté vont de pair, l’un favorisant l’autre. Pour surmonter cette tendance, nous avons besoin de plus parler de liberté, pas l’inverse.

Conclusion

Alors que ceux qui préconisent l’open source amènent de nouveaux utilisateurs dans notre communauté, nous, activistes du logiciel libre, devons travailler encore plus pour porter l’attention de ces nouveaux utilisateurs sur les problèmes de liberté. Nous devons leur dire « C’est le logiciel libre et il te donne la liberté ! » plus souvent et plus fort que jamais. Chaque fois que vous dites « logiciel libre » plutôt qu’« open source » vous aidez notre campagne.

Apostille

Joe Barr a écrit un article intitulé Live and let license (ndt : Vivre et laisser licencier) qui donne sa perspective sur cette question.

Le paper on the motivation of free software developers (ndt : le papier sur la motivation des développeurs de logiciel libre) de Lakhani et Wolf dit qu’une fraction considérable est motivée par la perspective que le logiciel devrait être libre. Cela malgré le fait qu’ils ont examiné les développeurs de SourceForge, un site qui ne soutient pas le point de vue qui veut qu’il s’agit d’un problème éthique.

Copyright © 2007 Richard Stallman

Verbatim copying and distribution of this entire article is permitted in any medium, provided this notice is preserved.

La reproduction exacte et la distribution intégrale de cet article est permise sur n’importe quel support d’archivage, pourvu que cette notice soit préservée.

Notes

[1] Crédit photo : Gianca (Creative Commons By-Sa)




L’iPhone n’est pas encore sous GPLv3, étonnant non ?

Il fallait être particulièremenr rétif aux nouvelles technologies, genre mon père, pour ne pas avoir été au courant vendredi dernier de la sortie simultanée de l’iPhone (hou, hou, hou) et de la version 3 de la licence GNU GPL (clap, clap, clap).

L’occasion de traduire[1] à la volée[2] le corps de l’intéressant communiqué de la FSF qui concatène judicieusement les deux événements[3].

iPhone - DRM - DefectiveByDesign.org

L’iPhone enferme les utilisateurs, la GPLv3 les libère.

iPhone restricts users, GPLv3 frees them

BOSTON, Massachusetts, USA-Jeudi 28 Juin 2007

Vendredi, 29 juin, tout le monde aux Etats-Unis n’attendra pas dans les files d’attente pour acheter un iPhone à 500$. En fait, des centaines de milliers d’aficionados du numérique autour du globe ne seront pas du tout dans les files, car le 29 juin marque la sortie de la version 3 de la GNU General Public License (GPL). La version 2 de la GPL gouverne la plus grande part des logiciels libres qui est en train de remodeler radicalement l’industrie et de menacer le modèle technologique propriétaire représenté par l’iPhone.

L’auteur de la GPL est le Professeur Richard M. Stallman, président et fondateur de la Fondation pour le Logiciel Libre (Free Software Foundation ou FSF), et créateur du projet GNU. Avec sa première révision de la licence en seize ans, la version 3 de la GPL s’attaque aux plus récentes tentatives pour ôter la liberté du logiciel libre – et notablement, la version 3 attaque la "Tivoization" – et ceci pourrait être un problème pour Apple et son iPhone.

Maintenant, de la Chine à l’Inde, du Venezuela au Brésil, des Tivos aux téléphones cellulaires : le logiciel libre est partout, et il est en train de bâtir lentement un mouvement mondial d’utilisateurs demandant à avoir le contrôle sur leurs ordinateurs et les équipements électroniques qu’ils possèdent.

Tivoization et l’iPhone ?

La "Tivoization" est un terme forgé par la FSF pour décrire des équipements qui sont construits avec du logiciel libre, mais qui utilisent des mesures techniques qui empêchent l’utilisateur de faire des modifications au logiciel – une liberté fondamentale des utilisateurs du logiciel libre – et une attaque sur le logiciel libre que la GPLv3 pourra arrêter.

L’iPhone laisse les gens perplexes : contient-il du logiciel sous licence GPL ? Quel impact la GPLv3 aura sur les perspectives à long terme pour des équipements comme l’iPhone qui sont construits pour frustrer leurs propriétaires ?

Peter Brown, directeur exécutif de la FSF a dit, "Demain, Steve Jobs et Apple sortent un produit criblé de logiciel propriétaire et de restrictions numériques : criblé / invalide, parce qu’un équipement qui n’est pas sous le contrôle de son propriétaire, fonctionne contre les intérêts de son propriétaire. Nous savons qu’ Apple a bâti son système d’exploitation, OS X, et son navigateur internet Safari, en utilisant des travaux couverts par la GPL – il serait intéressant de voir dans quelle mesure l’iPhone utilise du logiciel sous GPL.

La version 3 de la GNU GPL sera publiée à 12:00 pm (EDT) – six heures avant la sortie de l’iPhone – mettant un terme à dix-huit mois de discussions et de commentaires publics, en révision de la plus populaire des licences du logiciel libre.

Notes

[1] Pour la traduction Framalang (alias ici Vincent et Daria) a encore frappé.

[2] Traduction non officielle.

[3] L’illustration est issue du site DefectiveByDesign.org.




Créer un digg-like francophone de la culture libre ?

FSDaily - screenshot

Dans notre récent appel à soutien nous évoquions une frustration liée à un manque de disponibilité généralisée pour démarrer des projets qui dorment depuis trop longtemps dans nos cartons. Ainsi en va-t-il d’un "digg-like francophone de la culture libre" dont on vient vous demander avis parce que si vous le jugez pertinent il ne serait pas trop chronophage à mettre en place puisqu’ensuite nous bosserions tous dessus !

Présentation et explication par moi-même interviewé par la célèbre journaliste finlandaise Céline Hükksse, venue spécialement d’Outokumpu pour l’occasion. C’est un peu longuet mais c’est tout à l’honneur du professionnalisme de Céline Hükksse que d’avoir souhaité faire ainsi le tour complet du sujet (et plus si affinités).

Bonjour aKa. Alors, parlez-nous un peu de ce nouveau projet ?

Bonjour Céline. Le pitch ce serait de mettre en ligne et alimenter ensemble un digg-like francophone de la culture libre.

Nous estimons qu’un tel site pourrait avoir son utilité en faisant microsoft office de tri sélectif dans la masse à croissance exponentielle de ressources crées chaque jour sur internet. Outre ses avancées dans le monde logiciel (où il reste encore beaucoup à faire), nous pensons également que la culture libre est à terme susceptible de modifier en profondeur des pans entiers de la société (on voit bien comment aujourd’hui il en arrive à titiller le politique et même parfois l’économique) avec toutes les actions et résistances que cela implique.

Dans ce contexte il nous semble intéressant d’avoir à disposition une sorte d’observatoire en temps réel de notre slogan la route est longue mais la voie est libre permettant aux convaincus de se tenir au courant et aux autres de… rallier la Cause 🙂

Certes, mais au fait c’est quoi un digg-like ?

Un Digg-like, est un « nom provenant du célèbre site web digg.com et du terme anglo-saxon like (semblable), qui est utilisé pour qualifier les sites web utilisant la même formule que digg.com. Ces sites ont tous une interface de soumission où chaque utilisateur inscrit peut proposer un site web intéressant ou un billet d’un blog qui mérite d’être connu. Par la suite, les nouvelles proposées se retrouvent dans la section "en attente" du digg-like et c’est le rôle des utilisateurs de la faire passer en page principale en votant pour cette nouvelle lorsqu’elle est vraiment intéressante et pertinente. Un algorithme tenant compte du nombre de vote selon le temps ainsi que d’autres facteurs (dépendant du digg-like) détermine si la nouvelle passe en page principale. »

C’est bien dit non ? Bon d’accord c’est pas de moi c’est de Wikipédia. Retenons en tout cas qu’il s’agit de soumettre rapidement (j’allais dire à la volée) des articles de sites ou de blogs et que ce sont les visiteurs eux-mêmes qui choisissent de mettre collectivement tel ou tel lien en lumière.

Quelle serait la différence avec digg.com ?

Avant tout la langue française. Je n’ai ainsi jamais vu une seule news francophone atteindre le haut de l’affiche de digg.com.

Il y aurait du reste beaucoup à dire sur non seulement cette prédominance de l’anglais mais surtout sur la prédominance d’articles rédigés par des américains (quand bien même issus de la contre-culture). En fait c’est la quasi-totalité du web 2.0 qui est américain et cela pose quelques questions en terme de pluralisme et de vision du monde. Mais là n’est pas le propos. Dites-moi si je m’égare Céline…

Vous vous égarez en effet. Soit OK pour digg.com mais alors quelle serait la différence avec des digg-like francophones déjà présents comme scoopeo.fr ou wikio.fr ?

La thématique et la sensibilité des visiteurs / utilisateurs / éditeurs. Le choix assumé et délibéré de proposer majoritairement des news autour de la culture libre en général ou du logiciel libre en particulier. Ce serait notre niche en quelque sorte.

Je n’ai ainsi que très rarement vu de telles news arriver en accueil des sites que vous citez et qui ont fait le choix compréhensible d’être le plus généraliste possible. Le risque est alors de se retrouver avec des liens souvent plus anecdotiques que réellement intéressants (Scoopeo) ou reprenant simplement les dépêches d’agences et des grands médias (Wikio). Enfin une dernière chose, nous n’avons de Loïc Le Meur dans notre équipe capable de lever 4 millions d’euros pour le projet 😉

Accepté. Mais, plus dur, quelle serait la différence avec linuxfr.org ?

Linuxfr est notre référence absolue en matière de news francophones autour de linux et des logiciels libres et il est tout à fait légitime de se demander ce que ce projet pourrait apporter de plus. Ce qui fait selon moi la sève de DLFP c’est non seulement la qualité des dépêches mais également les nombreux pour ne pas dire fameux commentaires apportés par les lecteurs sous ces dépêches. C’est généralement très instructif même lorsque la polémique (ou le troll) s’installe. Ils font un peu n’achetez pas microsoft office de baromètre non officiel de la culture geek à l’instant t. Et du coup il arrive que la dépêche LinuxFr soit souvent plus riche et intéressante que le contenu même de la dépêche ! J’en profite du reste pour tirer un grand coup de chapeau aux modérateurs pour le soin apporté à la présentation et aux liens connexes de ces dépêches.

Commentaires, culture geek, modération et donc workflow, c’est là que se trouvent les principales différences selon moi. Notre projet de Digg-like n’aura pas pour vocation à suciter des commentaires sous les liens (quand bien même ce soit techniquement possible). Du coup, un peu tel un saut de puce, on y passera mais sans y faire une longue halte comme sur LinuxFr. La thématique culture libre est aussi a priori plus vaste que la culture geek revendiquée par LinuxFr qui ne sort que rarement du champ GNU/Linux et logiciels libres. Enfin l’absence de modération aura théoriquement pour conséquence d’avoir une plus grande exhausitivité, une plus grande réactivité et autorisera aussi les liens moins factuels comme les prises de positions, les coups de gueules, ou des choses plus légères mais qui méritent peut-être mention sur les blogs ou ailleurs.

Il faut aussi je pense prendre acte qu’avec l’avénement des blogs qui autorisent tout un chacun à avoir son propre espace web on va se retrouver (ou plutôt on se retrouve déjà) avec tout plein de ressources intéressantes mais éparses et un tel projet peut aider à y accéder plus aisément.

Cela pourra également être intéressant pour les auteurs mêmes des liens candidats. Ils ont mis en ligne leur article qu’ils ont envie de faire connaître et diffuser ? Alors il leur suffira de passer sur le site et de proposer dans la foulée leur info (en un lien et trois lignes de description) qui sera tout de suite publiquement visible dans la catégorie des "news en attente". D’autres passeront et si ils jugent la news petinente et digne d’être distribuée alors ils voteront pour elle et pouf, ça y est, elle se retouvera en tête de gondole !

Bien, bien. Mais, toujours plus dur, quelle serait la différence avec fsdaily.com ?

Nous y voilà 😉

Il n’y aurait pas beaucoup de différences avec fsdaily.com (d’où est issue l’illustration de ce billet) puisque c’est un peu ça ce que nous voulons mettre en place justement. Les deux différences seraient donc le français et l’extension à la culture libre.

Pour me tenir au courant de l’actualité du libre je n’ai pas besoin de ça puisque mon lecteur de fil RSS m’apporte tout sur un plateau chaque matin.

Ah que j’aimerais tenir ce plateau !

N’importe quoi !

Euh… Oui, moi aussi j’ai un lecteur de fil RSS où s’accumulent les Linuxfr, Standblog, etc. sans oublier… Digg et FSDaily (quitte à ne plus trouver le temps de tout lire et faire le tri). Mais d’abord vous serez peut-être surpris d’apprendre que nous sommes encore peu nombreux à utiliser cette technique qui fait de nous, qu’on le veuille ou non, des power users en la matière. D’ailleurs à ce propos nous pourrions faire bon usage des fil RSS de notre futur Digg-like. Nous pourrions bien sûr les rajouter à notre propre lecteur mais également alimenter tout le réseau Framasoft (et tous les autres sites qui le souhaitent) non seulement avec le fil RSS principal (qui donne les news les plus votées) mais également avec des fil RSS de tags ou de catégories spécifiques. Toutes les combinaisons seront potentiellemet possibles.

Et puis je ne pense pas qu’on puisse circonscire l’info autour du libre à nos uniques abonnements RSS sachant que le libre se démocratise chaque jour un peu plus et que de plus en plus de monde, venus de divers horizons, agissent, proposent ou s’emparent du débat. Sans oublier qu’on se sent parfois un peu seul, snif, avec notre lecteur RSS. Ici il y a une dimension collective et communautaire de types échanges de liens et de bonnes infos, et peut-être aussi une volonté d’apporter et partager de l’information qui fait sens dans un monde où les grands médias se focalisent souvent trop sur l’évenementiel et le spectaculaire.

Enfin il y a toujours cette spécificité de la culture libre…

Mais, mon bon monsieur, c’est quoi cette "culture libre" au juste ?

C’est un peu une question piège ! En fait je n’en sais trop rien.

Nous voilà bien !

Le plus simple est encore de citer quelques exemples. Il y a bien entendu les logiciels libres et des initiatives très proches comme Wikipédia. Il y a aussi les Creative Commons (ce qui n’empêche pas le débat !) et dans son sillage tout ce qui touche aux créations culturelles et artistiques avec des initiatives comme In Libro Veritas ou Dogmazic. Il y a tout ce qui gravite autour de la propriété intellectuelle, de l’interopérabilité, des brevets, du droit d’auteur… Ce qu’à l’occasion de la loi DADVSI on a appelé les libertés numériques. A la frontière je mettrais bien des actions comme Critical Mass, le Bookcrossing ou encore les Réseaux d’échanges réciproques de savoirs mais ceci n’engage que moi.

Il y aura aussi peut-être à terme son influence sur le politique (la démocratie participative tout ça…), sur le sociologique (tout système trop pyramidal tout ça…) et sur l’économique (la dualite monde marchand et monde non marchand chère à François Bayrou tout ça…). Sans oublier le relationnel et une certaine éthique. Et tant que j’y suis un peu de commerce équitable et une pincée d’écologie. Un véritable art de vivre en construction quoi !

Méfiez-vous le librocentrisme vous guette ! Ne seriez-vous pas également un peu idéaliste sur les bords ?

Oui un peu et j’assume cette naïveté. Ce n’est pas autrement qu’a réussi le projet fou mais surtout impossible Wikipédia.

De toutes les façon ce seront les participants qui alimenteront le site et donc ce seront eux qui donneront le ton. C’est un des paris du projet que d’arriver tout de même à un truc cohérent malgré ou plutôt grâce à la possibilité offerte à chacun d’y placer et de voter pour la news de son choix.

Justement, faites-vous donc une confiance aveugle en la sagesse des foules ? Qu’est-ce qui va me garantir que les news qui ont le plus de votes seront les plus intéressantes ? Et puis d’abord les sites à la sauce web 2.0, il faut du monde pour que cela fonctionne.

Oula, ça en fait des questions !

La première chose à dire c’est que je préfère de loin l’expression réseau social à web 2.0, ça fait plus associatif et moins… start-up ! Ensuite, n’est pas Wikipédia qui veut, non je ne fais pas une confiance aveugle à la sagesse des foules et rien ne nous garantit a priori que les news qui auront le plus de votes seront les plus intéressantes. Je dirais que c’est la beauté du jeu mais je crois cependant que Framasoft possède tout de même quelques bonnes cartes en main.

Digg, del.icio.us, Flickr, YouTube… ça tourne effectivement bien parce qu’ils bénéficient à plein de l’effet réseau lié à la très forte fréquentation. C’est à nuancer mais on peut tout de même affirmer que la qualité est ici liée à la quantité dans la mesure où les utilisateurs ont un choix plus ample pour sélectionner leurs favoris. Flickr avec 3 pékins qui se partagent 12 photos, non seulement ça ne le fait pas mais ce n’est tout simplement plus Flickr.

Tout ça pour dire que nous n’aurions pas bien entendu la prétention de rivaliser avec les exemples ci-dessus mais je pense que l’échelle de fréquentation du réseau Framasoft est tout de même suffisante pour permettre au site de bien se lancer en lui offrant de suite une certaine visibilité. Une visibilité propre à susciter curiosité et, j’espère, intérêt mais également propre à inviter chaque jour un peu plus de monde à rejoindre le projet en votant et proposant des news. Je pense également que l’expérience et la forte culture du libre de certains de nos utilisacteurs (dont les membres de notre forum) seront un plus pour fédérer le projet, s’approprier l’outil et proposer de la qualité.

C’est d’ailleurs un peu là que réside, en toute fausse modestie, l’un des atouts du réseau Framasoft. Dans cette capacité à fédérer et mettre en place des projets (le dernier en date c’est la joyeuse petite équipe de traducteurs compétents et réactifs de chez Framalang dont on peut voir souvent des traces sur ce blog) parce qu’il y a du monde qui passe, un monde qui pense comme nous que la route est longue mais la voie est libre, et un monde qui se sent d’autant plus en confiance qu’on est là depuis un petit bout de temps et que , je crois, on a déjà fait pas mal de petites choses pour la diffusion du logiciel libre et son état d’esprit.

Je ne dis pas que chez nous ça prend à tous les coups, loin de là et on a connu quelques beaux ratés. Mais ça peut prendre à cause des arguments du paragraphe précédent. Autant de bonnes raisons d’essayer de ne pas mettre tout de suite la clé sous la porte 😉

Arrêtez vous allez m’émouvoir.

Telle était bien mon intention !

Euh, revenons à nos moutons. Comment allez-vous mettre en place techniquement un tel site ? Digg n’a, à ma connaissance, jamais voulu montrer le code source de la plate-forme qui gère son site.

Et pour cause ! Digg n’a pas placé son outil sous licence libre pour les mêmes raisons que l’écrasante majorité de tous les sites étiquettés web 2.0. Pour être le premier (voire l’unique) dans son secteur, attirer du monde et ce faisant rendre chaque jour son outil un peu plus pertinent au fur et à mesure de la croissance de l’audience.

Imaginez qu’ils aient dès le départ libéré leur code ? Alors il y aurait eu risque de se retrouver avec une myriade de petits Digg-like, Flickr-like, del.icio.us-like ou YouTube-like dont aucun n’auraient vraiment émergés. Et alors adieu veau, vache, cochon, couvée et revente à prix d’or à Yahoo! (del.icio.us, Flickr) ou Google (YouTube). C’est ce que j’appelle le "web 2.0 mais libre 0.2" (dont je n’arrive pas à trouver le temps pour en faire un billet blog).

Pourquoi 0.2 et pas carrément 0 ?

Pour la beauté de la formule qui n’a rien à envier à la vôtre !

Mouais… mais encore ?

Parce qu’il y a tout de même une dimension collective et collaborative dans l’élaboration et l’édition de ces sites. Et surtout, ouf nous sommes sauvés, parce qu’il reste l’inévitable Wikipédia qui non seulement garantit la licence libre des articles mais également de son outil de travail à savoir le moteur wiki Mediawiki.

Un autre truc que j’aime bien chez Wikipédia, et qui nous concerne indirectement ici, c’est qu’il garantit le pluralisme des langues.

Soit mais alors pour notre problème technique…

C’est là que, tel Zorro, la communauté du libre intervient. Il y a une demande, il y a un besoin, mais un digg.com qui ne coopère pas. Qu’à cela ne tienne nous allons créer un outil similaire from skratch. Et c’est ainsi qu’est né le très libre Pligg qui n’a plus grand chose à envier à son modèle (pour s’en convaincre il suffit d’aller faire un tour sur fsdaily.com). Tout ça pour dire qu’on tient l’outil et merci pour eux 😉

Il est effectivement fondamental de bien tenir son outil… Autre chose, avez-vous déjà choisi le nom de baptême de votre projet ?

Non car nous sommes prudents voir superstitieux. Mais rien ne nous empêche de demander aussi les avis pour cela. On avait bien pensé à Frama.licio.us mais c’est un peu obscur pour le néophyte et puis c’est moins un del.icio.us-like qu’un digg-like que l’on souhaite créer.

Et puis, vu la teneur même du sujet, pourquoi ne pas sortir des noms en FramaTruc pour une fois ?!

Bonne chance en tout cas. Sur le papier cela semble aussi cohérent que pertinent.

Merci Céline… Puis-je, euh, à mon tour me risquer à vous poser une question ?

Mais bien sûr. Faites, je vous en prie.

Euh… comment dire… êtes-vous libre ce soir ?

Décidément vous aimez les extensions du domaine du libre vous ! Je suis libre de refuser vos avances inappropriées oui. Ne seriez-vous pas en train de vous égarer à nouveau ?

Je le crains… Rassurez-moi, vous couperez cela au montage ? Vous savez ma femme, tout ça…

Bien entendu. Vous pouvez compter sur moi ! Un dernier mot ?

Oui. Pour que la mayonnaise prenne et que la sagesse des foules ne nous entraîne pas au départ un peu partout c’est-à-dire un peu nulle part, il est important selon moi de ne pas lancer le site à vide.

Si il y a quelques lecteurs disponibles dont l’assentiment pour ce projet confine à l’enthousiasme, nous les invitons à se manifester pour constituer ensemble une petite équipe de premiers utilisateurs (aKa AT framasoft.net). Nous chercherons alors ensemble à mieux définir et cirsconscrire le champ de cette culture libre (en échangeant points de vue, liens et fils RSS préférés). A charge également pour l’équipe, et c’est très important pour ne pas louper l‘inauguration officielle (peut-être en septembre prochain ?), d’alimenter les premiers liens, tags, et catégories du site afin de faire tout de suite comprendre de quoi il s’agit à ceux qui découvriront le projet, puis voteront, puis proposeront à leur tour des news.

Monsieur aKa, malgré vos égarements bien français, je vous remercie.

Merci à vous, ce fut un plaisir. Bon retour à Outokumpu.




Le monde opte massivement pour les plus restrictives des licences Creative Commons et c’est pire en France !

cc - Franz Patzig - CC BY

Ce titre un peu longuet c’est ce que je retiens péremptoirement d’une récente étude statistique sur les licences Creative Commons[1].

Ce n’est pas la première analyse sur le sujet mais la nombre croissant de ressources placées sous l’une des licences Creative Commons (dont le très impressionnant annuaire de photos Flickr[2]) ainsi que leur prise en compte dans les moteurs de Yahoo! et de Google permet désormais d’obtenir des résultats plus fins. C’est du reste à partir des données fournies par Yahoo!, Google et Flickr que se base cette étude.

Ce nombre croissant de ressources placées sous licence Creative Commons serait d’ailleurs la première des remarques. Entre le tous droits réservés du copyright par défaut et le plus aucun droit réservé du domaine public, il y avait en effet à l’ère du numérique un espace béant à combler. Et l’on ne peut que se réjouir d’avoir aujourd’hui tant de créations à dispositon, l’auteur évoque un total de 60 millions, que l’on peut utiliser certes sous certaines conditions mais sans être obligé d’aller demander à chaque fois l’autorisation à l’auteur (sauf à vouloir lever certaines de ces conditons). Ceci dit c’est toujours sympa de prévenir et de remercier l’auteur mais là ce n’est plus du droit c’est du savoir-vivre.

Voilà pour les réjouissances parce que pour le reste, comment dire, je fais un peu la moue[3].

On constate en effet que les auteurs sont à peine plus de 30% à adopter les seules licences Creative Commons qui soient compatibles avec celles des logiciels libres à savoir la Creative Commons BY et la Creative Commons BY-SA (on tombe même à moins de 20% sur Flickr). Environs 70% des ressources référencées possèdent la clause non commerciale NC (interdiction d’en faire profit sans l’aval de l’auteur) et 25% la clause non dérivative ND (interdiction de modifier sans l’aval de l’auteur).

Soit. Bornons-nous au constat parce que si je me mets à commenter la chose, je vais me faire taxer illico de libriste intégriste qui n’a pas compris la spécificité d’un logiciel par rapport aux autres créations. Et puis il est vrai que 30% de 60 millions, ça reste non négligeable ! Il n’empêche que dans la pratique la free culture de Lessig c’est beaucoup plus une free culture as in free beer qu’une free culture as in free speechCommonistes de tous les pays êtes-vous réellement unis en un seul et même mouvement ?

A propos de pays justement. L’étude a également cherché à les distinguer en analysant les ressources dont les auteurs ont fait un choix localisé (par exemple non pas la générique Creative Commons BY mais la nationale Creative Commons BY France). C’est plus sujet à caution et par la même moins significatif puisque seul 20% de l’ensemble des ressources sous Creative Commons ont une licence localisée. On dispose donc d’un panel plus restreint.

Toujours est-il que, cool, la France se classe en seconde position (derrière l’Espagne) pour le nombre de ressources sous Creative Commons locales. Sauf que, pas cool, elle est carrément en queue de peloton (aux alentours de la trentième place !) pour ce qui concerne le choix des licences Creative Commons BY et BY-SA. Avec, j’en blêmis lorsque je compare avec la moyenne des génériques, moins de 10% d’adoption !

Ce qui m’amène avec sagacité à émettre les conjectures suivantes :

  • Hypothèse 1 (politique) : La droite décomplexée a encore frappé !
  • Hypothèse 2 (sociologique) : Les français ont l’obsession de se faire spolier ou défigurer leurs biens
  • Hyothèse 3 (éducatique) : Ils cliquent au hasard sur le formulaire du choix de la licence[4]
  • Hypothèse 4 (artlibristique) : Ils préfèrent la licence Art Libre
  • Hypothèse 5 (pragmatique) : Il est par trop hâtif d’en tirer la moindre conclusion vu le faible échantillon analysé
  • Hypothèse 6 (nombrilistique) : Je pars en vrille

C’est malheureusement la dernière hypothèse la plus plausible puisque ma conclusion sera un vibrant : Commonistes BY et BY-SA de tous les pays unissons-nous pour réussir la librévolution !

Notes

[1] Creative Commons Statistics from the CC-Monitor Project par Giorgos Cheliotis, présenté lors du iCommons Summit de Dubrovnik (14-17 juin 2007). L’étude étant elle-même sous licence Creative Commons BY.

[2] L’illustration est une photographie de Franz Patzig intitulée cc issue justement de Flickr et sous licence Creative Commons BY

[3] Ma compagne, qui lit parfois dessus mon épaule, me souffle à l’oreille que c’est surtout la moule que je fais lorsque j’édite mon blog et une moule qui fait la moue n’est guère enclin(e) a susciter l’amour. Pff, elle est pénible avec ses bons mots… elle va finir par me déconcentrer !

[4] Sauf que cette hypothèse ne tient pas parce que par défaut le formulaire vous propose la Creative Commons BY, ce qui est une excellente initiative soit dit en passant.




Une belle histoire comme on les aime chez Framasoft

Voici le récit du passage sous licence libre d’une police cursive éducative que ne renierait pas mes amis de Veni Vidi Libri. Il nous est narré par mon collègue et néanmoins ami Julien Noël qui annonce dans son introduction que c’est le type d’histoire comme on les aime chez Framasoft. Et… il a parfaitement raison 😉

Il cite au passage l’une des grandes réussites francophones du monde du libre à l’école, à savoir Gcompris dont il se murmure qu’il pourrait même être intégré dans les futures versions de l’OLPC.

Cela va sans dire mais cela va mieux en le disant : n’oubliez pas de remercier son auteur si vous l’utilisez parce que ce n’est pas autrement que nous perpétuerons ce bon esprit qui nous anime et qui réussit, comme ici, à convaincre de plus en plus de monde de nous rejoindre.

L’image est un exemple d’utilisation de cette jolie police avec les premiers vers de Liberté célèbre poème de Paul Eluard.

Exemple police cursive Écolier court

Libérez la police !

Julien Noël – Juin 2007

Voici une belle histoire comme on les aime chez Framasoft.

J’ai tout compris

Il était une fois un jeune papa qui initia son fiston, de trois ans à peine, à l’ordinateur. Évidemment, pas question d’apprendre le B-A-BA de l’informatique sur du logiciel propriétaire. Dans la famille, on est libre de père en fils depuis 30 générations[1]. Le futur fils prodige est donc placé devant une machine sous Linux et découvre le maniement du clavier, de la souris, etc. via le formidable logiciel Gcompris.

En cinq jours à peine (si si), l’enfant est capable de reconnaître toutes les lettres et tous les chiffres. Et tout cela, en s’amusant – alors même que le père, féru d’informatique libre et passant de nombreuses heures quotidiennement devant son PC, était très dubitatif quant à l’apprentissage assisté par ordinateur.

Un an plus tard, l’enfant a grandi et il est temps de passer à l’étape supérieure. Au primaire, on apprend d’abord à identifier et à écrire les majuscules (ou les capitales – je n’ai jamais compris la différence). Il s’agit donc maintenant, à partir de polices cursives, d’identifier les lettres calligraphiées… Mais si, vous savez, celles que l’on écrit avec la main (vous savez bien, la main, ce truc qui permet de taper au clavier : eh bien, initialement, au moyen âge, il permettait d’écrire… Si, si !).

L’heureux papa contacte donc le développeur principal de Gcompris[2] et lui demande s’il est possible d’intégrer une police cursive.

La réponse tombe comme un couperet : pas de police cursive dans Gcompris parce que pas de police cursive libre tout court.

Recherche police désespérément

Le papa, têtu comme un Bill Gates décidé à trucider Linus Torvalds, se met donc à la recherche de la perle rare. Il google, google, google et finit par tomber sur ça : http://perso.orange.fr/jm.douteau/index.htm (évidemment, à l’époque, ce n’était pas libre).

Il joint le créateur de ces polices[3] et tente de le convaincre de les passer sous licence libre. Jean-Marie Douteau aime comprendre ce qu’il fait et pourquoi il le fait. S’ensuivent alors de nombreux échanges “épistomail” afin de mieux percevoir les principes et les enjeux du logiciel libre, pourquoi une police gratuite est inutilisable dans Gcompris, pourquoi la GPL et la LGPL… Bref, tout ce qui fait ce joli monde qui nous est si familier mais si obscur lorsque l’on ne baigne pas dedans.

Après un court passage sous licence creative common, le créateur des polices " Écolier court” et “Écolier lignes court” décide de les passer sous licence OFL, orienté dans ce choix par Sophie Gautier, la responsable OpenOffice.org France. Cette décision permettra d’intégrer les deux polices dans Gcompris ET dans OOo[4].

Vive la police libre !

Jean-Marie Douteau se demande maintenant ce que vont devenir ses bébés : il s’impatiente de les voir grandir et attend vos questions, vos remarques, vos encouragements, vos suggestions et vos contributions (par exemple pour ajouter des caractères qui n’y sont pas).

Notes

[1] au moins

[2] Bruno Coudoin

[3] Jean-Marie Douteau

[4] et évidemment dans tout logiciel compatible avec cette licence




Ouvrons le débat de l’informatique à l’école

Reproduction de Informatique et TIC : une vraie discipline ?, un récent article de Jean-Pierre Archambault[1], que nous connaissions depuis longtemps comme héraut du libre éducatif, mais qui élargit ici la problématique au présent et à l’avenir de l’informatique et des TIC à l’école, et ce faisant pose finalement la question de la place des technologies de l’information et de la communication dans notre actuelle et future société.

L’occasion pour moi de citer en rappel deux initiatives liées à la récente campagne présidentielle française 2007, l’une de l’ADULLACT et l’autre de l’APRIL (avec son initiative Candidats.fr).

Extrait de la Lettre aux candidats à l’élection présidentielle de 2007 (ADULLACT)

C’est la jeunesse qui fera le monde de demain. Il est très urgent d’enseigner très tôt la maîtrise et non pas seulement l‘utilisation de l’informatique, les techniques et non pas les modes opératoires. Il faut promouvoir l’informatique comme discipline à part entière dans l’enseignement secondaire, et y encourager l’esprit et les outils de production et de partage, pour le savoir et les richesses. Il faut former les acteurs et non de simples consommateurs de la société de l’information. Pourquoi dans notre pays collégiens et lycéens ne peuvent-il s’initier à la programmation ou au travail collaboratif ?

Extrait du Questionnaire de Candidats.fr (APRIL)

Êtes-vous favorable à ce que l’informatique soit une composante à part entière de la culture générale scolaire de tous les élèves sous la forme notamment d’un enseignement d’une discipline scientifique et technique au lycée ?

Êtes-vous favorable à ce que les élèves soient formés non pas à une gamme de produits (e.g. la suite Microsoft Office) mais à des catégories d’outils (e.g. traitement de texte, tableur, logiciels de présentation…) ?

Avec des réponses contrastées (ADULLACT et APRIL) en particulier de celui qui est devenu dans l’intervalle le président de la République française (réponses PDF de Nicolas Sarkozy à l’ADULLACT et à l’APRIL).

Il est effectivement temps de faire bouger les lignes et ne pas se satisfaire de la situation actuelle qui ressemble parfois à de l’inertie pendant que le monde avance.

Heureusement que, dans un contexte proche de l’urgence, nous pouvons compter sur l’expérience (et l’expertise) de la communauté du libre qui, je crois, lui donne une perception fine des enjeux. Encore faut-il qu’elle soit écoutée en haut lieu…

Vous trouverez une version PDF de l’article en fin de page.[2]

Student in Class - foundphotoslj - CC-BY

Informatique et TIC : une vraie discipline ?

Jean-Pierre Archambault – Medialog 62 Juin 2007

Avec l’introduction de la maîtrise des TIC dans le socle commun de connaissances et de compétences et la généralisation du B2i, un consensus existe pour affirmer qu’il faut préparer les futurs citoyens de la société de la connaissance à devenir des utilisateurs « intelligents » et non « presse-boutons » des technologies. Mais il n’existe pas de consensus sur la façon de s’y prendre. Certains militent pour la création d’une discipline scolaire « Informatique et TIC ».

Tout le monde a en mémoire les débats qui ont accompagné en 2006 la transposition de la directive européenne sur les droits d’auteurs et les droits voisins dans la société de l’information (DADVSI) [3]. Ils concernaient notamment l’exercice du droit à la copie privée, la possibilité d’écouter sur plusieurs appareils un morceau de musique acquis en bonne et due forme… c’est-àdire la vie quotidienne de millions de gens. Ils portaient également sur l’interopérabilité, les DRM (Digital Rights Management) ou mesures techniques de protection, les logiciels de peer to peer, le code source des programmes (il fut abondamment question des logiciels libres), le droit un peu abscons des bases de données… Il est difficile au simple citoyen de maîtriser la complexité de ces notions techniques et juridiques et donc de mesurer l’impact de la loi. Par exemple, dans l’article 13 de la loi finalement adoptée, on peut lire : « Ces mesures techniques sont réputées efficaces lorsqu’une utilisation visée au même alinéa est contrôlée par les titulaires de droits grâce à l’application d’un code d’accès, d’un procédé de protection tel que le cryptage, le brouillage ou toute autre transformation de l’objet de la protection ou d’un mécanisme de contrôle de la copie qui atteint cet objectif de protection… Un protocole, un format, une méthode de cryptage, de brouillage ou de transformation ne constitue pas en tant que tel une mesure technique au sens du présent article… Les mesures techniques ne doivent pas avoir pour effet d’empêcher la mise en oeuvre effective de l’interopérabilité, dans le respect du droit d’auteur… » [4]

Une nouvelle forme d’illettrisme

Or, nul n’est censé ignorer la loi ! Mieux, chacun doit être en mesure de contribuer à sa manière à son élaboration et, pour cela, de comprendre ce dont il s’agit et de bien mesurer les enjeux et les conséquences des textes adoptés par le Parlement. Quelles sont les représentations mentales opérationnelles, les connaissances scientifiques et techniques qui permettent qu’il en soit ainsi ? Ces questions valent également pour la vie de tous les jours, quand il faut décrypter l’offre d’un fournisseur d’accès à Internet, avoir une idée de l’origine et de la responsabilité d’un dysfonctionnement (savoir par exemple pour quelles raisons une page web peut se faire attendre). Nous sommes de plain-pied dans la problématique de la culture générale informatique qui doit être dispensée par l’École. Comment procéder pour former tous les élèves à la société de l’immatériel ? Car, comme le soulignent Maurice Lévy et Jean-Pierre Jouyet, dans l’économie de l’immatériel « l’incapacité à maîtriser les TIC constituera (…) une nouvelle forme d’illettrisme aussi dommageable que le fait de ne pas savoir lire et écrire » [5]. Et comment, dans le même temps, dispenser un enseignement qui prépare au mieux la formation ultérieure des spécialistes de haut niveau dont le pays a besoin ? Car, comme le relevait un article du Monde du 18 octobre 2006 sur les métiers de l’informatique, « la profession, où l’âge moyen est de 35 ans, commence à connaître une forte tension sur les recrutements des meilleurs profils : chefs de projet, ingénieurs spécialisés dans les nouvelles technologies, commerciaux, consultants spécialisés… ».

La question n’est pas nouvelle. Depuis une trentaine d’années, pour l’essentiel, deux approches se succèdent, coexistent, suscitent de vifs et intéressants débats. Pour l’une, les apprentissages doivent se faire à travers les usages de l’outil informatique dans les différentes disciplines existantes. Pour l’autre, l’informatique étant partout, elle doit être quelque part en particulier, à un moment donné, sous la forme d’une discipline scolaire en tant que telle [6].

Dans sa thèse, La constitution de l’informatique comme discipline scolaire (1987), Georges- Louis Baron, professeur à l’Université Paris V, parle de « lent cheminement vers le statut de discipline scolaire », et rappelle les conclusions d’un colloque international organisé à Sèvres en 1970 par le CERI-OCDE : « L’introduction d’un enseignement de l’informatique dans l’enseignement de second degré est apparu comme indispensable » [7]. Il y a eu, dans les années quatre-vingts et quatre-vingt-dix, une option informatique dans les lycées d’enseignement général. Créée en 1982, elle a été supprimée en deux temps, alors qu’elle était en voie de généralisation (première suppression en 1992, rétablissement en 1995, deuxième suppression en 1997). Le « cheminement » est donc quelque peu tortueux. Le cours de technologie au collège comporte une composante informatique bien identifiée. Le B2i, quant à lui, s’inscrit dans la démarche qui situe les apprentissages dans les usages de l’outil informatique dans l’ensemble des disciplines. Il figurera dans les épreuves du brevet des collèges et du baccalauréat, ce qui constitue une reconnaissance institutionnelle qui n’est pas toujours appréciée à sa juste valeur, indépendamment des avis que l’on peut avoir sur les contenus et les modalités d’évaluation.

Il arrive que cette question de la culture générale informatique ne soit pas exempte d’une certaine confusion, dans la mesure où l’on ne distingue pas suffisamment les objectifs généraux, les compétences à acquérir, les contenus scientifiques permettant de les atteindre – que l’on doit expliciter très précisément –, les méthodes pédagogiques et didactiques des disciplines. Rappelons donc succinctement que les statuts et les enjeux éducatifs de l’informatique et des TIC sont multiples.

L’informatique, outil et objet d’ensignement

Il y a un enjeu d’intégration d’instruments modernes pour améliorer la qualité de l’enseignement dans le contexte de sa démocratisation. L’ordinateur enrichit la panoplie des outils de l’enseignant. Il se prête à la création de situations de communication « réelles » ayant du sens pour des élèves en difficulté. Il constitue un outil pour la motivation. Il favorise l’activité. Il aide à atteindre des objectifs d’autonomie, de travail individuel ou en groupe. L’ordinateur est aussi encyclopédie active, créateur de situation de recherche, affiche évolutive, tableau électronique, outil de calcul et de traitement de données et d’images, instrument de simulation, évaluateur neutre et instantané, répétiteur inlassable, instructeur interactif… L’informatique s’immisce dans l’ « essence des disciplines » et leur enseignement doit en tenir compte. Cela vaut pour tous les ordres et niveaux d’enseignement, et notamment pour les formations techniques et professionnelles, tant les métiers, les processus de travail, les profils et les qualifications requises ont évolué. L’ordinateur est outil de travail personnel et collectif des enseignants, des élèves et de la communauté éducative. Enfin, l’informatique et les TIC sont objet d’enseignement car composantes incontournables de la culture générale de notre époque. Tous ces statuts ne s’excluent aucunement. Au contraire, ils se complètent et se renforcent. Ainsi le professeur de SVT pourra-t-il d’autant mieux enseigner l’expérimentation assistée par ordinateur et la simulation qu’il pourra s’appuyer sur de solides connaissances de base que ses élèves auront acquises précédemment et ailleurs que dans sa discipline.

Une discipline scolaire ?

En fait, la vraie question posée est celle de savoir s’il doit y avoir, à un moment donné de la scolarité obligatoire, apprentissages en matière de TIC et d’informatique sous la forme d’une discipline scolaire à part entière, comme c’est le cas dans un certain nombre de pays, par exemple la Corée du Sud, la Pologne et dernièrement le Maroc. Différentes raisons, selon nous, militent en faveur d’une réponse positive. D’abord, peuton considérer que « s’immerger c’est apprendre » ? À l’École et hors de l’École. L’utilisation d’un outil, matériel ou conceptuel, suffit-elle pour le maîtriser ? L’existence des enseignements techniques et professionnels est là pour rappeler que la réponse est évidemment non ! Jean-Michel Bérard, Inspecteur général de l’Éducation nationale, dit sans ambages que « l’utilisation d’un outil, si fréquente et diversifiée soit-elle, ne porte pas en elle-même les éléments qui permettent d’éclairer sa propre pratique » [8]. Ce qui ne signifie pas qu’il ne faille pas s’appuyer sur les pratiques et les expériences des élèves, mais avec l’objectif de les dépasser. Jean-François Cerisier, maître de conférences à l’Université de Poitiers, s’étonne de propos selon lesquels « les jeunes seraient naturellement outillés pour mettre en oeuvre des dispositifs techniques complexes dans une logique d’immersion qui postule implicitement que la pratique naïve des outils suffirait à produire des apprentissages pourtant complexes » [9]. Il indique qu’une étude conduite auprès d’élèves du cycle 3 a montré que la plupart d’entre eux ne disposaient pas d’une représentation suffisamment structurée d’Internet pour engager des démarches de recherche d’information même simples, et qu’ils « peinent à élaborer une requête documentaire lorsqu’ils utilisent un moteur de recherche standard ». Cela ne saurait surprendre quand on sait que le sens des opérateurs logiques (ET, OU) diffère de celui qu’ils ont dans le langage courant, que des éléments de logique figuraient dans les programmes de mathématiques des classes de seconde dans les années soixante-dix, et que leur compréhension n’allait pas de soi. On ne peut donc que le suivre quand, dans un autre article, il demande : « Comment en effet procéder à une recherche d’information efficace lorsque l’on n’a aucune connaissance du mode de fonctionnement de l’instrument utilisé ? » [10]. Par ailleurs, on sait que la science progresse en dégageant du « simple » dans la réalité complexe. Et que la pédagogie recommande de ne pas faire compliqué quand il faut faire simple. Dans une discipline donnée, se fixer, dans le même mouvement, des objectifs cognitifs et d’autres relatifs à l’outil informatique que l’on utilise, risque d’amener à échouer sur les deux tableaux. Chaque chose en son temps. J.-F. Cerisier fait également référence à « l’École comme seul lieu possible de prise en compte systématique des conceptions naïves ». C’est aussi le seul endroit où les élèves rencontrent la connaissance sous une forme structurée et organisée, où ils s’approprient « l’intelligence » des outils conceptuels pour bien s’en servir.

On ne fait pas des sciences expérimentales, ou de la technologie, de la même façon à l’école primaire et au lycée. La culture informatique s’acquiert donc selon des modalités diversifiées dans le temps. À l’école primaire, le B2i correspond bien aux méthodes d’initiation des enfants aux sciences et aux techniques. De plus, et c’est fondamental, il y a un enseignant unique, qui maîtrise donc ses progressions pédagogiques et leurs cohérences, l’organisation du temps scolaire et qui se coordonne facilement avec lui-même ! Ce qui n’est pas le cas au collège : là résident pour une bonne part les difficultés constatées de mise en oeuvre du B2i. Il n’est déjà pas évident d’organiser des apprentissages progressifs sur la durée lorsque les compétences recherchées sont formulées de manière très générale (du type « maîtriser les fonctions de base » ou « effectuer une recherche simple »), éventuellement répétitives à l’identique d’un cycle à l’autre, et que les contenus scientifiques, savoirs et savoir-faire précis permettant de les acquérir, ne sont pas explicités. Mais, quand, en plus, cela doit se faire dans des contributions multiples et partielles des disciplines, à partir de leurs points de vue, sans le fil conducteur de la cohérence didactique des outils et notions informatiques, on imagine aisément le caractère ardu de la tâche au plan de l’organisation concrète. Ainsi, un rapport de l’IGEN souligne-t-il que, « si différentes circulaires précisent les compétences qui doivent être validées et le support de l’évaluation (feuille de position), elles laissent néanmoins dans l’ombre de l’autonomie les modalités concrètes de mise en oeuvre » [11]. Pour se faire une idée de ces difficultés, il suffit d’imaginer l’apprentissage du passé composé et du subjonctif qui serait confié à d’autres disciplines que le Français, au gré de leurs besoins propres (de leur « bon vouloir »), pour la raison que l’enseignement s’y fait en français.

Former des utilisateurs « intelligents »

Au collège, le cours de technologie nous semble être un lieu institutionnel adapté à l’acquisition d’une maîtrise des outils informatiques, dont les enseignants des autres disciplines peuvent alors bénéficier dans leurs démarches pédagogiques, d’une manière réaliste. La complémentarité objet-outil d’enseignement peut donner toute son efficacité quand on l’envisage dans cette optique.

Au lycée, dans le prolongement des acquis précédents, une approche spécifique et scientifique, dans le cadre d’un enseignement particulier, permet de les capitaliser et de favoriser les usages pédagogiques des TIC dans les autres matières. Elle constitue une étape qualitativement nouvelle permettant de se fixer des objectifs ambitieux et incontournables pour des générations appelées à évoluer dans la société de la connaissance, dans laquelle on sait le rôle éminent joué par les TIC, de former des « utilisateurs intelligents » et des citoyens à part entière. Quand une matière est omniprésente dans la société, elle devient un élément de la culture générale, et de la culture scolaire, sous la forme d’une discipline particulière que l’on étudie pour elle-même afin de mieux la mettre au service des autres disciplines. Avec des enseignants spécialisés, des programmes, des horaires et des épreuves au baccalauréat. Jacques Baudé, président d’honneur de l’EPI (association Enseignement Public et Informatique), rappelle opportunément que « pendant plus de dix ans, le Conseil scientifique national (CSN), pilotant l’option informatique des lycées, a montré que la mise au point de programmes d’enseignement n’a pourtant rien d’impossible ; ce n’est ni plus difficile ni plus facile que dans n’importe quelle autre discipline ! Les invariants enseignables au lycée se dégagent somme toute assez facilement à condition de pratiquer une large concertation avec les universitaires et les enseignants du terrain » [12].

Ces invariants, dont parle Jacques Baudé, doivent inclure des activités d’algorithmique et de programmation, non pas pour former des informaticiens professionnels – même si cela y contribue – mais pour que les élèves comprennent la logique de fonctionnement de l’ordinateur et des environnements informationnels (si l’on apprend à résoudre des équations du second degré ce n’est pas parce qu’on en résout tous les jours !). Charles Duchâteau, professeur aux facultés universitaires N.-D. de la Paix de Namur, s’exprime en ce sens : « J’ai été et je reste parmi ceux qui croient que l’apprentissage de la programmation est formatif et qu’il ne faut pas tout mesurer à l’aune de l’utilité immédiate. Je crois aussi que les méthodes et concepts typiques de l’algorithmique sont parmi les plus fondamentaux de l’informatique et que, de plus en plus, une certaine familiarité avec le “faire faire” qui est au coeur de la programmation, au sens large, fait partie d’une utilisation efficace de beaucoup d’outils logiciels récents » [13]. Écrire des programmes informatiques, même très simples, permet également de donner de la substance à ce que sont les codes source et objet, et donc de mieux percevoir les enjeux des logiciels libres. La « philosophie » de ces logiciels est en phase avec l’objectif de former des utilisateurs « intelligents » car la connaissance du code permet la compréhension de la logique et du fonctionnement des logiciels.

Pour Jean-Pierre Demailly, membre de l’académie des Sciences, « un enseignement des langages, des algorithmes et de la programmation serait bien utile à partir du lycée. Tout d’abord parce que c’est un véritable besoin économique de mieux préparer les élèves à acquérir des connaissances technologiques solides, mais aussi parce que cela intéresserait de nombreux jeunes – dont l’informatique est parfois une passion en dehors de l’école » [14].

Pour résumer, une approche équilibrée garante d’une bonne culture générale scolaire doit, selon nous, s’appuyer sur l’utilisation de l’ordinateur dans les disciplines pendant toute la scolarité, le B2i à l’école primaire, le cours de technologie au collège et une matière « Informatique et TIC » au lycée. Avec la conviction que pareille intégration résolue de l’informatique et des technologies modernes dans le système éducatif est de nature à faciliter les évolutions économiques, sociales et culturelles du XXIe siècle.

Notes

[1] Jean-Pierre Archambault – CNDP-CRDP de Paris – Chargé de mission veille technologique

[2] L’illustration est une photographie de foundphotoslj intitulée Student in Class issue de Flickr et sous licence Creative Commons BY-SA

[3] Jean-Pierre Archambault, « Innover ou protéger ? Un cyberdylemne », Médialog n°58.

[4] lien

[5] Maurice Lévy, Jean-Pierre Jouyet, L’économie de l’immatériel – La croissance de demain, rapport de la commission sur l’économie de l’immatériel remis à Thierry Breton, décembre 2006.

[6] Jean-Pierre Archambault, Démocratie et citoyenneté à l’heure du numérique : les nécessités d’un enseignement lien

[7] lien.

[8] Jean-Michel Bérard, « Ordinateur et système éducatif : quelques questions » in Utilisations de l’ordinateur dans l’enseignement secondaire, Hachette Éducation, 1993.

[9] Jean-François Cerisier, « Qui est derrière Internet ? Des représentations tenaces », Les Cahiers pédagogiques n°446, octobre 2006.

[10] Jean-François Cerisier, « La nature du B2i lui permet-elle d’atteindre ses objectifs ? », Les dossiers de l’ingénierie éducative n°55, septembre 2006.

[11] lien en page 17.

[12] Jacques Baudé, Pour une culture générale intégrant l’Informatique et les Technologies de l’Information et de la Communication (TIC), lien

[13] Charles Duchâteau, Peut-on définir une « culture informatique » ? lien

[14] Jean-Pierre Demailly, professeur à l’université Grenoble I, directeur de l’Institut Fourier, membre de l’académie des Sciences, in interview à l’EPI, avril 2005. lien