Guerre contre l’Empire – épisode 37 – formats ouverts – ODF vs OOXML

C’est toujours un peu la même histoire… Une histoire qui risque bien d’être au cœur politique, économique, écologique et social de ce siècle : un monde non marchand qui cherche à se faire une place dans des espaces toujours plus réduits et convoités par un monde marchand. Une histoire où le logiciel libre a son mot à dire en affirmant, confiant mais lucide, que la route est longue mais la voie est libre

L’épisode du jour c’est la question des formats, véritable ligne de front entre le monde libre et le monde propriétaire. Les enjeux sont en effet plus qu’importants : la transparence, l’interopérabilité et la pérennité de nos données numériques (qui à l’avenir seront presque synonymes de nos données tout court !).

Et pour ce qui est des formats numériques en bureautique alors là c’est carrément la guerre ouverte avec une opposition frontale entre l’OpenDocument et l’Open XML (ou OOXML) de Microsoft. Mais il y a Open et Open. Quand le premier offre de solides garanties le second ne semble être avant tout qu’une manœuvre pour conserver une position dominante de fait (dont le piratage massif de la suite Microsoft Office n’est pas étranger soit dit en passant)[1].

D’un côté le libre et ses arguments et de l’autre le propriétaire dont les arguties pseudo-pragmatiques à court terme chechent à retarder l’échéance pour continuer le plus longtemps possible à engranger des bénéfices (et rassurer les actionnaires). Nonobstant les moyens considérables à disposition de Microsoft pour faire pression sur les structures et pouvoirs en place, l’échéance est pourtant bel et bien inévitable comme nous le rappelle l’article ci-dessous.

Traduit par nos petits activistes de FramaLang[2], il nous vient de Red Hat, société (et distribution) bien connue du monde Linux et très active dans la promotion de l’OpenDocument.

Screenshot - Red Hat Magazine web site

ODF : Le format inévitable

ODF: The inevitable format

T. Colin Dodd – 25 juillet 2007 – Red Hat Magazine

En 1999, un scientifique voulut consulter des données sur les échantillons collectés sur le sol de Mars en 1975 par la sonde Viking. Il souhaitait en effet tester une théorie sur la détection de l’existence de bactéries et de microbes Martiens – en d’autres termes, trouver de la vie sur Mars. Le scientifique pensait qu’il trouverait ce qu’il cherchait quelque part sur un site de la NASA, mais ce ne fut pas si simple. Les données originales avaient été égarées, et lorsque l’on retrouva les énormes bandes magnétiques qui conservaient les données, elles étaient "dans un format si ancien que le programmeur qui le connaissait était mort." Par chance quelqu’un trouva une imposante impression papier de ces données et la compréhension de l’univers par l’humanité se développa un peu plus… Le sentiment tragique qui aurait accompagné la perte de cette connaissance est l’écho des récits de la destruction de la Bibliothèque d’Alexandrie, et probablement ce pourquoi les autodafés sont un signe certain d’une société malade.

Bien sûr, toutes les données perdues ou inaccessibles ne contiennent pas des preuves de la vie sur Mars, et toutes les bribes d’informations n’ont pas besoin de survivre à leur créateur. Beaucoup de documents illisibles ne manqueront jamais, mais une politique publique responsable demande que les documents gouvernementaux – contrats, actes notariés ou enregistrements juridiques qui font autorité pour des décades ou même des siècles – doivent être archivés et accessibles. Quel que soit le cas, quand la donnée est stockée et partagée dans un format ancien ou propriétaire disparu, elle deviendra au fil du temps onéreuse d’accès ou disparaitra entièrement à tout jamais.

Lorsque l’on parle de créer, partager ou stocker numériquement des documents, la technologie qui prévient le dépérissement des formats existe déjà et elle est largement (et de plus en plus) utilisée. Elle s’appelle l’Open Document Format (ODF) et si vous ne l’utilisez pas aujourd’hui, vous le ferez sûrement un jour.

ODF, un langage de description de document basé sur le XML, a été initialement développé en 1999 par StarDivision, et ensuite par le projet OpenOffice.org de Sun Microsystem[3]. Conçu comme une alternative libre aux logiciels de gestion de documents propriétaires, qui dominaient alors le marché, la force motrice soutenant l’ODF était le besoin d’un format de document indépendant d’un éditeur et d’une application, lisible et enregistrable par tous, sans s’encombrer de royalties dues aux licences. Sa promotion se basait sur le fait que le monde des affaires et les contribuables pourraient économiser de l’argent. Un format ouvert créerait une compétition dans la sphère des applications de gestion de documents. Tous les documents pourraient être lus et partagés par quiconque. Rien ne pourrait se perdre à cause du temps ou suite à des changements dans un code propriétaire ou à des exigences de licences. Des sujets de grand intérêt public – données de recensement, données météorologiques, statistiques sur la santé publique, rapports d’enquêtes, enregistrements de tribunaux ou recherche fondamentale scientifique, tous payés par les contribuables, ne seraient plus encodés dans un format unique, propriétaire et fermé, demandant aux citoyens de payer double pour accéder à leurs propres informations. L’utilisation de l’ODF, disent ses partisans, permettrait de garder public les documents publics.

L’OASIS (Organization for the Advancement of Structured Information Standards) a été fondée en 2002 pour standardiser le format, qui a été reconnu par l’Organisation internationale de normalisation (ISO) en 2006[4]. L’Open Document Format Alliance s’est formée en mars 2006 pour promouvoir le format, et défendre le dossier public, légal et politique pour l’adoption de standards ouverts technologiques auprès des gouvernements et des institutions publiques.

"Red Hat était un membre fondateur de l’Alliance ODF et Tom Rabon (Vice-Président Corporate Affairs) est au comité exécutif," déclare Stéphanie McGarrah, ancienne Responsable des Politiques Publiques de Red Hat. "Red Hat travaille avec les autres membres du comité exécutif pour coordonner les efforts dans les discussions avec les gouvernements du monde entier à propos de l’ODF."

Bien que l’ODF ait été lancé avec beaucoup de bon sens, l’élan d’une large adoption a été entravé par l’inertie bureaucratique, les politiques locales, des idées fausses persistantes (renforcées par ses opposants) à propos de la viabilité de l’ODF et les "dangers" de son adoption. La plupart de la peur, de l’incertitude et du doute ont émané d’une source, dont les formats propriétaires constituent la plupart des documents dans le monde.

Les opposants à l’ODF ne peuvent admettre son adoption inévitable, et pratiquent un lobby actif à son encontre. Ce n’est pas que quelqu’un soit contre le format ODF en lui-même, ou trouve une quelconque vraie raison pour remettre en cause sa nécessité. La logique qui soutient l’ODF et la transparence de sa création est presque inexpugnable. Ce sont plutôt les standards ouverts sur lesquels l’ODF est bâti qui sont le plus souvent attaqués. Du point de vue de ses détracteurs, les choses sont bien telles qu’elles sont actuellement. Le « standard » est le leur. Ils ont la main mise sur le "marché" du document, et l’envisagent comme un "territoire" qu’ils ont "conquis" de façon juste. Ils ne peuvent envisager un futur sans lui (ça ne fait pas partie de leur plan stratégique), et tant que tout le monde utilise leurs applications et leurs formats, pourquoi changer ? Les opposants à l’ODF consacrent des ressources considérables à faire du lobbying auprès des législatures et des conseils d’administrations dans une tentative de les convaincre que l’adoption du format ODF limite en fait leur choix et fait du tort à l’efficacité apportée par le marché en "excluant" des éditeurs comme eux. Ils disent que la migration est coûteuse, et soutiennent même que l’adoption de l’ODF limitera l’accès public en encombrant l’environnement avec de trop nombreux formats "incompatibles". Et qui peut réellement croire tous ces "machins libres", d’ailleurs ?

Mais les partisans comme l’Alliance ODF ont leurs propres arguments, et la plupart d’entre eux sont issus de la preuve du contraire, du genre "En fait, c’est l’inverse qui est vrai…".

L’Alliance ODF défend l’idée que – au contraire – les standards ouverts encouragent le choix et la compétition entre fournisseurs en égalisant le terrain de jeu. Le standard est ouvert et disponible librement pour quiconque veut le mettre en oeuvre. Il n’y a pas de compétition autour du format, mais uniquement sur les applications qui l’utilisent. Dans cet univers, c’est la meilleure application qui gagne. L’alliance ODF souligne aussi que la mise en place ou la migration vers l’ODF n’est pas plus compliquée ou plus coûteuse que la mise à jour périodique d’une version à l’autre d’une application propriétaire, et en limitant les besoins de mises à jour futures, des réelles économies peuvent être réalisées avec le temps. À propos de l’accessibilité, Open Office (et les autres applications conformes à l’ODF) sont librement téléchargeables et prêtes à utiliser dès maintenant. Il n’y a pas de problèmes de compatibilité, disent-ils, seulement des problèmes de non coopération.

« Je pense que certains gouvernements ne sont pas au courant de l’ODF, ou n’ont pas les équipes techniques en place pour comprendre la valeur de l’ODF, » explique McGarrah. « Ainsi, c’est le travail de l’Alliance de diffuser ce message auprès des personnes au gouvernement qui prennent ces décisions ».

Mais l’argument irréfutable en faveur de l’utilisation de l’ODF pour les documents publics est le fait que c’est une meilleure affaire pour les citoyens et les contribuables sur le long terme. Utiliser des « standards » fermés, du logiciel propriétaire pour des documents publics est comme acheter le proverbial siège de toilettes à 10 000 $, ou interdire au gouvernement fédéral de négocier de meilleurs prix sur les médicaments auprès des sociétés pharmaceutiques au nom de patients de Medicaid et Medicare, ou essayer de nourrir une armée et reconstruire une zone de guerre en accordant des contrats secrets, non compétitifs et sans appels d’offre. C’est anti-compétitif dans le pire sens.

Malgré l’opposition, l’adoption de l’ODF suit une progression lente mais inexorable, et plus les politiciens prennent conscience de ce problème, plus l’ODF viendra défier l’ubiquité actuelle des formats propriétaires. Faisant un pas de plus en avant, le Japon a récemment demandé à ce que ses ministères passent des contrats avec des éditeurs de logiciels dont les applications sont bâties autour de standards ouverts. Le Brésil, la Pologne, la Malaisie, l’Italie, la Corée, la Norvège, la France, les Pays-Bas, le Danemark, la Belgique, le Commonwealth du Massachussetts, et le gouvernement de l’État de Delhi en Inde ont tous pris des engagements de principe sur l’adoption de l’ODF et, peut-être plus important, reconnaissent la nécessité d’utiliser des standards ouverts. L’Alliance ODF continue à équiper et éclairer les décisionnaires avec l’information et les outils dont ils ont besoin pour faire des recommandations et des politiques de changement, mais personne faisant la promotion de l’ODF ne pense qu’une large adoption est imminente. Cela prendra du temps.

« Ces décisionnaires ont beaucoup d’autres problèmes à gérer (par exemple : santé publique, éducation, transports, pauvreté…) et les décisions technologiques ne sont généralement pas en haut de leurs listes », déclare McGarrah. « Des progrès ont été faits dans une adoption plus large de l’ODF. Plusieurs gouvernements ont adopté l’ODF ou travaillent sur la mise en place du standard, mais il reste encore beaucoup à faire. »

ODF - Liberate your documents

Liens connexes :

Notes

[1] La situation des navigateurs web est similaire. D’un côté des navigateurs qui respectent les standards (tel Firefox) et de l’autre Internet Explorer qui ne les respecte pas et qui par là-même donne des cauchemars à tous les webmasters en les obligeant à d’usantes circonvolutions pour que leurs sites soient également compatibles visibles sur ce navigateur.

[2] Merci à VLI pour la traduction et Daria et Mben pour la relecture.

[3] NDT : suite au rachat de StarOffice par Sun.

[4] NDT : ISO/IEC 26300, Open Document Format for Office Applications (OpenDocument) v1.0.




dotSUB.com ou le meilleur du pire web 2.0

Nous en savons quelque chose à Framasoft, il n’est pas toujours facile de sensibiliser le grand public aux logiciels libres. Mais il en va de même pour l’usage général d’internet où nombreux sont mes proches qui se contentent du mail et de parcourir la toile comme une grande vitrine à regarder passivement quand bien même ils se construisent leur propre parcours via les liens hypertextes.

Combien sommes-nous en effet à comprendre et utiliser les fils RSS pour faire venir l’info pertinente à nous et non plus l’inverse ? Combien sommes-nous à comprendre que derrière Wikipédia il y a un outil extraordinaire qui s’appelle un wiki (et qui sera enseigné dans quelques années à même l’école) ? Plus généralement combien sommes-nous à appréhender véritablement ce que l’on appelle le web 2.0 ou les réseaux sociaux ou le read/write web (appellez-le comme vous voulez) et qui constitue réellement une nouveauté et un progrès ?

Il y a de nombreuses causes à cette méconnaissance mais je crois qu’elle commence avec le piètre niveau d’anglais de trop nombreux francophones (dont je suis). C’est pourquoi je fus dans un premier temps très agréablement surpris de voir quelques unes des plus intéressantes petites vidéos anglophones explicatives sur le sujet enfin sous-titrées en français.

Les voici donc ci-dessous. La première concerne le RSS, la deuxième le wiki et la troisième le web 2.0 dans son ensemble. Elles sont courtes, percutantes et pédagogiquement de très bonne facture. Faites passer et diffuser…

Mais… car il y a un mais, on se retrouve avec un nouvel exemple de ce que j’appelle péremptoirement le web 2.0 mais libre 0.2 (en fait ici on est proche du libre 0.0).

Le sous-titrage nous vient du site dotSUB.com et l’outil en ligne qui permet d’obtenir cela est simple et puissant (voir cette demo pour s’en convaincre). Le hic c’est qu’on cumule pas mal de petits problèmes de liberté en utilisant leur service. D’abord il y a le format flash omniprésent et l’impossibilité de récupérer la vidéo sous-titrée dans un autre format (au format flash aussi du reste). Mais surtout la traduction effectuée est entièrement la propriété de dotSUB.com.

En effet si vous décidez de vous inscrire pour participer à une traduction (ce qui est on ne peut plus louable et généreux) il vous faut d’abord accepter les Terms of Use et la Privacy Policy (vous savez, les trucs qu’on ne lit jamais à de rares exceptions près comme ceux qui ont une forte culture du libre !). Et là ça n’a pas l’air d’être très ouvert leur truc. On vous fait miroiter qu’un jour peut-être on tirera des revenus des vidéos sous-titrées (mais on ne sait pas encore comment) mais c’est peut-être pour mieux s’accaparer votre travail.

Extrait du Terms of Use :

You understand that the film or video translation you perform is considered to be a "work made for hire" that has been specially commissioned by the contributor and dotSUB LLC, with the contributor and dotSUB LLC being deemed the sole authors of the translation and the owners of the translation and any proceeds that result from the translation. If it is determined that your translation work is not a "work made for hire," then you assign to dotSUB LLC exclusively and irrevocably, forever and anywhere in the Universe, all rights (including, without limitation, all copyrights and renewals and extensions of such copyrights) that you may have in and to your translation. You also understand that dotSUB LLC’s rights in and to the film or video translation you perform extend to every medium of storage, transmission, and display, whether past, present, or future. In return for the consideration that you receive for your translation work, you also waive any "moral rights" that you may have as an author of the translation, as well as any "rental and lending rights" that you may now have or that may be granted by law in the future.

Petite traduction du passage central : vous attribuez à dotSUB LLC exclusivement et irrévocablement, pour toujours et partout dans l’Univers tous les droits (incluant, et sans limitation, tous les droits d’auteur et renouvellements et extensions de tels droits) que vous pouvez avoir dans et sur votre traduction.

Pour toujours et partout dans l’Univers, ils ont de l’humour non ?

C’est d’autant plus étonnant que les vidéos présentées ici sous toutes sous licences Creative Commons. Faudrait mettre nos amis juristes sur le coup pour voir un peu si tout ceci est bien réglo…

Quant à la Privacy Policy, voici le dernier paragraphe intitulé Changes to policy

dotSUB reserves the right to change this Privacy Policy at anytime. In the event that we make a material change to our policy we will post a notice of the change on this page, and will notify you of the change when you log in to your dotSUB account.

Autrement dit cette Privacy Policy ne vaut pas grand chose puisqu’on peut la modifier à tout moment (mais on est gentil on vous préviendra quand même à ce moment là).

Pff… On voudrait rendre les utilisateurs captifs que l’on ne s’y prendrait pas autrement. Encore un bel exemple de l’Esclavage 2.0. Le Libre n’a plus qu’à se retrousser les manches pour proposer un outil similaire à la communauté. Notre petit groupe de traducteurs Framalang en serait plus que ravi !




L’iPhone n’est pas encore sous GPLv3, étonnant non ?

Il fallait être particulièremenr rétif aux nouvelles technologies, genre mon père, pour ne pas avoir été au courant vendredi dernier de la sortie simultanée de l’iPhone (hou, hou, hou) et de la version 3 de la licence GNU GPL (clap, clap, clap).

L’occasion de traduire[1] à la volée[2] le corps de l’intéressant communiqué de la FSF qui concatène judicieusement les deux événements[3].

iPhone - DRM - DefectiveByDesign.org

L’iPhone enferme les utilisateurs, la GPLv3 les libère.

iPhone restricts users, GPLv3 frees them

BOSTON, Massachusetts, USA-Jeudi 28 Juin 2007

Vendredi, 29 juin, tout le monde aux Etats-Unis n’attendra pas dans les files d’attente pour acheter un iPhone à 500$. En fait, des centaines de milliers d’aficionados du numérique autour du globe ne seront pas du tout dans les files, car le 29 juin marque la sortie de la version 3 de la GNU General Public License (GPL). La version 2 de la GPL gouverne la plus grande part des logiciels libres qui est en train de remodeler radicalement l’industrie et de menacer le modèle technologique propriétaire représenté par l’iPhone.

L’auteur de la GPL est le Professeur Richard M. Stallman, président et fondateur de la Fondation pour le Logiciel Libre (Free Software Foundation ou FSF), et créateur du projet GNU. Avec sa première révision de la licence en seize ans, la version 3 de la GPL s’attaque aux plus récentes tentatives pour ôter la liberté du logiciel libre – et notablement, la version 3 attaque la "Tivoization" – et ceci pourrait être un problème pour Apple et son iPhone.

Maintenant, de la Chine à l’Inde, du Venezuela au Brésil, des Tivos aux téléphones cellulaires : le logiciel libre est partout, et il est en train de bâtir lentement un mouvement mondial d’utilisateurs demandant à avoir le contrôle sur leurs ordinateurs et les équipements électroniques qu’ils possèdent.

Tivoization et l’iPhone ?

La "Tivoization" est un terme forgé par la FSF pour décrire des équipements qui sont construits avec du logiciel libre, mais qui utilisent des mesures techniques qui empêchent l’utilisateur de faire des modifications au logiciel – une liberté fondamentale des utilisateurs du logiciel libre – et une attaque sur le logiciel libre que la GPLv3 pourra arrêter.

L’iPhone laisse les gens perplexes : contient-il du logiciel sous licence GPL ? Quel impact la GPLv3 aura sur les perspectives à long terme pour des équipements comme l’iPhone qui sont construits pour frustrer leurs propriétaires ?

Peter Brown, directeur exécutif de la FSF a dit, "Demain, Steve Jobs et Apple sortent un produit criblé de logiciel propriétaire et de restrictions numériques : criblé / invalide, parce qu’un équipement qui n’est pas sous le contrôle de son propriétaire, fonctionne contre les intérêts de son propriétaire. Nous savons qu’ Apple a bâti son système d’exploitation, OS X, et son navigateur internet Safari, en utilisant des travaux couverts par la GPL – il serait intéressant de voir dans quelle mesure l’iPhone utilise du logiciel sous GPL.

La version 3 de la GNU GPL sera publiée à 12:00 pm (EDT) – six heures avant la sortie de l’iPhone – mettant un terme à dix-huit mois de discussions et de commentaires publics, en révision de la plus populaire des licences du logiciel libre.

Notes

[1] Pour la traduction Framalang (alias ici Vincent et Daria) a encore frappé.

[2] Traduction non officielle.

[3] L’illustration est issue du site DefectiveByDesign.org.




Le monde opte massivement pour les plus restrictives des licences Creative Commons et c’est pire en France !

cc - Franz Patzig - CC BY

Ce titre un peu longuet c’est ce que je retiens péremptoirement d’une récente étude statistique sur les licences Creative Commons[1].

Ce n’est pas la première analyse sur le sujet mais la nombre croissant de ressources placées sous l’une des licences Creative Commons (dont le très impressionnant annuaire de photos Flickr[2]) ainsi que leur prise en compte dans les moteurs de Yahoo! et de Google permet désormais d’obtenir des résultats plus fins. C’est du reste à partir des données fournies par Yahoo!, Google et Flickr que se base cette étude.

Ce nombre croissant de ressources placées sous licence Creative Commons serait d’ailleurs la première des remarques. Entre le tous droits réservés du copyright par défaut et le plus aucun droit réservé du domaine public, il y avait en effet à l’ère du numérique un espace béant à combler. Et l’on ne peut que se réjouir d’avoir aujourd’hui tant de créations à dispositon, l’auteur évoque un total de 60 millions, que l’on peut utiliser certes sous certaines conditions mais sans être obligé d’aller demander à chaque fois l’autorisation à l’auteur (sauf à vouloir lever certaines de ces conditons). Ceci dit c’est toujours sympa de prévenir et de remercier l’auteur mais là ce n’est plus du droit c’est du savoir-vivre.

Voilà pour les réjouissances parce que pour le reste, comment dire, je fais un peu la moue[3].

On constate en effet que les auteurs sont à peine plus de 30% à adopter les seules licences Creative Commons qui soient compatibles avec celles des logiciels libres à savoir la Creative Commons BY et la Creative Commons BY-SA (on tombe même à moins de 20% sur Flickr). Environs 70% des ressources référencées possèdent la clause non commerciale NC (interdiction d’en faire profit sans l’aval de l’auteur) et 25% la clause non dérivative ND (interdiction de modifier sans l’aval de l’auteur).

Soit. Bornons-nous au constat parce que si je me mets à commenter la chose, je vais me faire taxer illico de libriste intégriste qui n’a pas compris la spécificité d’un logiciel par rapport aux autres créations. Et puis il est vrai que 30% de 60 millions, ça reste non négligeable ! Il n’empêche que dans la pratique la free culture de Lessig c’est beaucoup plus une free culture as in free beer qu’une free culture as in free speechCommonistes de tous les pays êtes-vous réellement unis en un seul et même mouvement ?

A propos de pays justement. L’étude a également cherché à les distinguer en analysant les ressources dont les auteurs ont fait un choix localisé (par exemple non pas la générique Creative Commons BY mais la nationale Creative Commons BY France). C’est plus sujet à caution et par la même moins significatif puisque seul 20% de l’ensemble des ressources sous Creative Commons ont une licence localisée. On dispose donc d’un panel plus restreint.

Toujours est-il que, cool, la France se classe en seconde position (derrière l’Espagne) pour le nombre de ressources sous Creative Commons locales. Sauf que, pas cool, elle est carrément en queue de peloton (aux alentours de la trentième place !) pour ce qui concerne le choix des licences Creative Commons BY et BY-SA. Avec, j’en blêmis lorsque je compare avec la moyenne des génériques, moins de 10% d’adoption !

Ce qui m’amène avec sagacité à émettre les conjectures suivantes :

  • Hypothèse 1 (politique) : La droite décomplexée a encore frappé !
  • Hypothèse 2 (sociologique) : Les français ont l’obsession de se faire spolier ou défigurer leurs biens
  • Hyothèse 3 (éducatique) : Ils cliquent au hasard sur le formulaire du choix de la licence[4]
  • Hypothèse 4 (artlibristique) : Ils préfèrent la licence Art Libre
  • Hypothèse 5 (pragmatique) : Il est par trop hâtif d’en tirer la moindre conclusion vu le faible échantillon analysé
  • Hypothèse 6 (nombrilistique) : Je pars en vrille

C’est malheureusement la dernière hypothèse la plus plausible puisque ma conclusion sera un vibrant : Commonistes BY et BY-SA de tous les pays unissons-nous pour réussir la librévolution !

Notes

[1] Creative Commons Statistics from the CC-Monitor Project par Giorgos Cheliotis, présenté lors du iCommons Summit de Dubrovnik (14-17 juin 2007). L’étude étant elle-même sous licence Creative Commons BY.

[2] L’illustration est une photographie de Franz Patzig intitulée cc issue justement de Flickr et sous licence Creative Commons BY

[3] Ma compagne, qui lit parfois dessus mon épaule, me souffle à l’oreille que c’est surtout la moule que je fais lorsque j’édite mon blog et une moule qui fait la moue n’est guère enclin(e) a susciter l’amour. Pff, elle est pénible avec ses bons mots… elle va finir par me déconcentrer !

[4] Sauf que cette hypothèse ne tient pas parce que par défaut le formulaire vous propose la Creative Commons BY, ce qui est une excellente initiative soit dit en passant.




Mortelle randonnée

Last Thoughts… - jurvetson - CC BY - détail

Voici une impressionnante photographie dont j’ai recadré quelques détails pour en accentuer l’effet dramatique (quand bien même ce n’était pas vraiment utile tant l’image se sufft à elle-même).

Last Thoughts… - jurvetson - CC BY - détail

Sous licence (libre) Creative Commons BY, elle est l’oeuvre de Steve Jurvetson.

Elle est disponible sur Flickr mais également dans l’annuaire d’images de Wikipédia (en) qui l’a élue photo du jour le 11 avril dernier.

On notera que l’auteur se trouve ravi de voir son image reprise dans un magazine grâce à la licence Creative Commons BY.

Last Thoughts… - jurvetson - CC BY - détail

Rien de plus naturelle que cette scène de la vie quotidienne d’une buse à queue rousse. Et pourtant difficile d’échapper à une sorte d’anthropomorphisme compassionnelle…

Last Thoughts… - jurvetson - CC BY




Ouvrons le débat de l’informatique à l’école

Reproduction de Informatique et TIC : une vraie discipline ?, un récent article de Jean-Pierre Archambault[1], que nous connaissions depuis longtemps comme héraut du libre éducatif, mais qui élargit ici la problématique au présent et à l’avenir de l’informatique et des TIC à l’école, et ce faisant pose finalement la question de la place des technologies de l’information et de la communication dans notre actuelle et future société.

L’occasion pour moi de citer en rappel deux initiatives liées à la récente campagne présidentielle française 2007, l’une de l’ADULLACT et l’autre de l’APRIL (avec son initiative Candidats.fr).

Extrait de la Lettre aux candidats à l’élection présidentielle de 2007 (ADULLACT)

C’est la jeunesse qui fera le monde de demain. Il est très urgent d’enseigner très tôt la maîtrise et non pas seulement l‘utilisation de l’informatique, les techniques et non pas les modes opératoires. Il faut promouvoir l’informatique comme discipline à part entière dans l’enseignement secondaire, et y encourager l’esprit et les outils de production et de partage, pour le savoir et les richesses. Il faut former les acteurs et non de simples consommateurs de la société de l’information. Pourquoi dans notre pays collégiens et lycéens ne peuvent-il s’initier à la programmation ou au travail collaboratif ?

Extrait du Questionnaire de Candidats.fr (APRIL)

Êtes-vous favorable à ce que l’informatique soit une composante à part entière de la culture générale scolaire de tous les élèves sous la forme notamment d’un enseignement d’une discipline scientifique et technique au lycée ?

Êtes-vous favorable à ce que les élèves soient formés non pas à une gamme de produits (e.g. la suite Microsoft Office) mais à des catégories d’outils (e.g. traitement de texte, tableur, logiciels de présentation…) ?

Avec des réponses contrastées (ADULLACT et APRIL) en particulier de celui qui est devenu dans l’intervalle le président de la République française (réponses PDF de Nicolas Sarkozy à l’ADULLACT et à l’APRIL).

Il est effectivement temps de faire bouger les lignes et ne pas se satisfaire de la situation actuelle qui ressemble parfois à de l’inertie pendant que le monde avance.

Heureusement que, dans un contexte proche de l’urgence, nous pouvons compter sur l’expérience (et l’expertise) de la communauté du libre qui, je crois, lui donne une perception fine des enjeux. Encore faut-il qu’elle soit écoutée en haut lieu…

Vous trouverez une version PDF de l’article en fin de page.[2]

Student in Class - foundphotoslj - CC-BY

Informatique et TIC : une vraie discipline ?

Jean-Pierre Archambault – Medialog 62 Juin 2007

Avec l’introduction de la maîtrise des TIC dans le socle commun de connaissances et de compétences et la généralisation du B2i, un consensus existe pour affirmer qu’il faut préparer les futurs citoyens de la société de la connaissance à devenir des utilisateurs « intelligents » et non « presse-boutons » des technologies. Mais il n’existe pas de consensus sur la façon de s’y prendre. Certains militent pour la création d’une discipline scolaire « Informatique et TIC ».

Tout le monde a en mémoire les débats qui ont accompagné en 2006 la transposition de la directive européenne sur les droits d’auteurs et les droits voisins dans la société de l’information (DADVSI) [3]. Ils concernaient notamment l’exercice du droit à la copie privée, la possibilité d’écouter sur plusieurs appareils un morceau de musique acquis en bonne et due forme… c’est-àdire la vie quotidienne de millions de gens. Ils portaient également sur l’interopérabilité, les DRM (Digital Rights Management) ou mesures techniques de protection, les logiciels de peer to peer, le code source des programmes (il fut abondamment question des logiciels libres), le droit un peu abscons des bases de données… Il est difficile au simple citoyen de maîtriser la complexité de ces notions techniques et juridiques et donc de mesurer l’impact de la loi. Par exemple, dans l’article 13 de la loi finalement adoptée, on peut lire : « Ces mesures techniques sont réputées efficaces lorsqu’une utilisation visée au même alinéa est contrôlée par les titulaires de droits grâce à l’application d’un code d’accès, d’un procédé de protection tel que le cryptage, le brouillage ou toute autre transformation de l’objet de la protection ou d’un mécanisme de contrôle de la copie qui atteint cet objectif de protection… Un protocole, un format, une méthode de cryptage, de brouillage ou de transformation ne constitue pas en tant que tel une mesure technique au sens du présent article… Les mesures techniques ne doivent pas avoir pour effet d’empêcher la mise en oeuvre effective de l’interopérabilité, dans le respect du droit d’auteur… » [4]

Une nouvelle forme d’illettrisme

Or, nul n’est censé ignorer la loi ! Mieux, chacun doit être en mesure de contribuer à sa manière à son élaboration et, pour cela, de comprendre ce dont il s’agit et de bien mesurer les enjeux et les conséquences des textes adoptés par le Parlement. Quelles sont les représentations mentales opérationnelles, les connaissances scientifiques et techniques qui permettent qu’il en soit ainsi ? Ces questions valent également pour la vie de tous les jours, quand il faut décrypter l’offre d’un fournisseur d’accès à Internet, avoir une idée de l’origine et de la responsabilité d’un dysfonctionnement (savoir par exemple pour quelles raisons une page web peut se faire attendre). Nous sommes de plain-pied dans la problématique de la culture générale informatique qui doit être dispensée par l’École. Comment procéder pour former tous les élèves à la société de l’immatériel ? Car, comme le soulignent Maurice Lévy et Jean-Pierre Jouyet, dans l’économie de l’immatériel « l’incapacité à maîtriser les TIC constituera (…) une nouvelle forme d’illettrisme aussi dommageable que le fait de ne pas savoir lire et écrire » [5]. Et comment, dans le même temps, dispenser un enseignement qui prépare au mieux la formation ultérieure des spécialistes de haut niveau dont le pays a besoin ? Car, comme le relevait un article du Monde du 18 octobre 2006 sur les métiers de l’informatique, « la profession, où l’âge moyen est de 35 ans, commence à connaître une forte tension sur les recrutements des meilleurs profils : chefs de projet, ingénieurs spécialisés dans les nouvelles technologies, commerciaux, consultants spécialisés… ».

La question n’est pas nouvelle. Depuis une trentaine d’années, pour l’essentiel, deux approches se succèdent, coexistent, suscitent de vifs et intéressants débats. Pour l’une, les apprentissages doivent se faire à travers les usages de l’outil informatique dans les différentes disciplines existantes. Pour l’autre, l’informatique étant partout, elle doit être quelque part en particulier, à un moment donné, sous la forme d’une discipline scolaire en tant que telle [6].

Dans sa thèse, La constitution de l’informatique comme discipline scolaire (1987), Georges- Louis Baron, professeur à l’Université Paris V, parle de « lent cheminement vers le statut de discipline scolaire », et rappelle les conclusions d’un colloque international organisé à Sèvres en 1970 par le CERI-OCDE : « L’introduction d’un enseignement de l’informatique dans l’enseignement de second degré est apparu comme indispensable » [7]. Il y a eu, dans les années quatre-vingts et quatre-vingt-dix, une option informatique dans les lycées d’enseignement général. Créée en 1982, elle a été supprimée en deux temps, alors qu’elle était en voie de généralisation (première suppression en 1992, rétablissement en 1995, deuxième suppression en 1997). Le « cheminement » est donc quelque peu tortueux. Le cours de technologie au collège comporte une composante informatique bien identifiée. Le B2i, quant à lui, s’inscrit dans la démarche qui situe les apprentissages dans les usages de l’outil informatique dans l’ensemble des disciplines. Il figurera dans les épreuves du brevet des collèges et du baccalauréat, ce qui constitue une reconnaissance institutionnelle qui n’est pas toujours appréciée à sa juste valeur, indépendamment des avis que l’on peut avoir sur les contenus et les modalités d’évaluation.

Il arrive que cette question de la culture générale informatique ne soit pas exempte d’une certaine confusion, dans la mesure où l’on ne distingue pas suffisamment les objectifs généraux, les compétences à acquérir, les contenus scientifiques permettant de les atteindre – que l’on doit expliciter très précisément –, les méthodes pédagogiques et didactiques des disciplines. Rappelons donc succinctement que les statuts et les enjeux éducatifs de l’informatique et des TIC sont multiples.

L’informatique, outil et objet d’ensignement

Il y a un enjeu d’intégration d’instruments modernes pour améliorer la qualité de l’enseignement dans le contexte de sa démocratisation. L’ordinateur enrichit la panoplie des outils de l’enseignant. Il se prête à la création de situations de communication « réelles » ayant du sens pour des élèves en difficulté. Il constitue un outil pour la motivation. Il favorise l’activité. Il aide à atteindre des objectifs d’autonomie, de travail individuel ou en groupe. L’ordinateur est aussi encyclopédie active, créateur de situation de recherche, affiche évolutive, tableau électronique, outil de calcul et de traitement de données et d’images, instrument de simulation, évaluateur neutre et instantané, répétiteur inlassable, instructeur interactif… L’informatique s’immisce dans l’ « essence des disciplines » et leur enseignement doit en tenir compte. Cela vaut pour tous les ordres et niveaux d’enseignement, et notamment pour les formations techniques et professionnelles, tant les métiers, les processus de travail, les profils et les qualifications requises ont évolué. L’ordinateur est outil de travail personnel et collectif des enseignants, des élèves et de la communauté éducative. Enfin, l’informatique et les TIC sont objet d’enseignement car composantes incontournables de la culture générale de notre époque. Tous ces statuts ne s’excluent aucunement. Au contraire, ils se complètent et se renforcent. Ainsi le professeur de SVT pourra-t-il d’autant mieux enseigner l’expérimentation assistée par ordinateur et la simulation qu’il pourra s’appuyer sur de solides connaissances de base que ses élèves auront acquises précédemment et ailleurs que dans sa discipline.

Une discipline scolaire ?

En fait, la vraie question posée est celle de savoir s’il doit y avoir, à un moment donné de la scolarité obligatoire, apprentissages en matière de TIC et d’informatique sous la forme d’une discipline scolaire à part entière, comme c’est le cas dans un certain nombre de pays, par exemple la Corée du Sud, la Pologne et dernièrement le Maroc. Différentes raisons, selon nous, militent en faveur d’une réponse positive. D’abord, peuton considérer que « s’immerger c’est apprendre » ? À l’École et hors de l’École. L’utilisation d’un outil, matériel ou conceptuel, suffit-elle pour le maîtriser ? L’existence des enseignements techniques et professionnels est là pour rappeler que la réponse est évidemment non ! Jean-Michel Bérard, Inspecteur général de l’Éducation nationale, dit sans ambages que « l’utilisation d’un outil, si fréquente et diversifiée soit-elle, ne porte pas en elle-même les éléments qui permettent d’éclairer sa propre pratique » [8]. Ce qui ne signifie pas qu’il ne faille pas s’appuyer sur les pratiques et les expériences des élèves, mais avec l’objectif de les dépasser. Jean-François Cerisier, maître de conférences à l’Université de Poitiers, s’étonne de propos selon lesquels « les jeunes seraient naturellement outillés pour mettre en oeuvre des dispositifs techniques complexes dans une logique d’immersion qui postule implicitement que la pratique naïve des outils suffirait à produire des apprentissages pourtant complexes » [9]. Il indique qu’une étude conduite auprès d’élèves du cycle 3 a montré que la plupart d’entre eux ne disposaient pas d’une représentation suffisamment structurée d’Internet pour engager des démarches de recherche d’information même simples, et qu’ils « peinent à élaborer une requête documentaire lorsqu’ils utilisent un moteur de recherche standard ». Cela ne saurait surprendre quand on sait que le sens des opérateurs logiques (ET, OU) diffère de celui qu’ils ont dans le langage courant, que des éléments de logique figuraient dans les programmes de mathématiques des classes de seconde dans les années soixante-dix, et que leur compréhension n’allait pas de soi. On ne peut donc que le suivre quand, dans un autre article, il demande : « Comment en effet procéder à une recherche d’information efficace lorsque l’on n’a aucune connaissance du mode de fonctionnement de l’instrument utilisé ? » [10]. Par ailleurs, on sait que la science progresse en dégageant du « simple » dans la réalité complexe. Et que la pédagogie recommande de ne pas faire compliqué quand il faut faire simple. Dans une discipline donnée, se fixer, dans le même mouvement, des objectifs cognitifs et d’autres relatifs à l’outil informatique que l’on utilise, risque d’amener à échouer sur les deux tableaux. Chaque chose en son temps. J.-F. Cerisier fait également référence à « l’École comme seul lieu possible de prise en compte systématique des conceptions naïves ». C’est aussi le seul endroit où les élèves rencontrent la connaissance sous une forme structurée et organisée, où ils s’approprient « l’intelligence » des outils conceptuels pour bien s’en servir.

On ne fait pas des sciences expérimentales, ou de la technologie, de la même façon à l’école primaire et au lycée. La culture informatique s’acquiert donc selon des modalités diversifiées dans le temps. À l’école primaire, le B2i correspond bien aux méthodes d’initiation des enfants aux sciences et aux techniques. De plus, et c’est fondamental, il y a un enseignant unique, qui maîtrise donc ses progressions pédagogiques et leurs cohérences, l’organisation du temps scolaire et qui se coordonne facilement avec lui-même ! Ce qui n’est pas le cas au collège : là résident pour une bonne part les difficultés constatées de mise en oeuvre du B2i. Il n’est déjà pas évident d’organiser des apprentissages progressifs sur la durée lorsque les compétences recherchées sont formulées de manière très générale (du type « maîtriser les fonctions de base » ou « effectuer une recherche simple »), éventuellement répétitives à l’identique d’un cycle à l’autre, et que les contenus scientifiques, savoirs et savoir-faire précis permettant de les acquérir, ne sont pas explicités. Mais, quand, en plus, cela doit se faire dans des contributions multiples et partielles des disciplines, à partir de leurs points de vue, sans le fil conducteur de la cohérence didactique des outils et notions informatiques, on imagine aisément le caractère ardu de la tâche au plan de l’organisation concrète. Ainsi, un rapport de l’IGEN souligne-t-il que, « si différentes circulaires précisent les compétences qui doivent être validées et le support de l’évaluation (feuille de position), elles laissent néanmoins dans l’ombre de l’autonomie les modalités concrètes de mise en oeuvre » [11]. Pour se faire une idée de ces difficultés, il suffit d’imaginer l’apprentissage du passé composé et du subjonctif qui serait confié à d’autres disciplines que le Français, au gré de leurs besoins propres (de leur « bon vouloir »), pour la raison que l’enseignement s’y fait en français.

Former des utilisateurs « intelligents »

Au collège, le cours de technologie nous semble être un lieu institutionnel adapté à l’acquisition d’une maîtrise des outils informatiques, dont les enseignants des autres disciplines peuvent alors bénéficier dans leurs démarches pédagogiques, d’une manière réaliste. La complémentarité objet-outil d’enseignement peut donner toute son efficacité quand on l’envisage dans cette optique.

Au lycée, dans le prolongement des acquis précédents, une approche spécifique et scientifique, dans le cadre d’un enseignement particulier, permet de les capitaliser et de favoriser les usages pédagogiques des TIC dans les autres matières. Elle constitue une étape qualitativement nouvelle permettant de se fixer des objectifs ambitieux et incontournables pour des générations appelées à évoluer dans la société de la connaissance, dans laquelle on sait le rôle éminent joué par les TIC, de former des « utilisateurs intelligents » et des citoyens à part entière. Quand une matière est omniprésente dans la société, elle devient un élément de la culture générale, et de la culture scolaire, sous la forme d’une discipline particulière que l’on étudie pour elle-même afin de mieux la mettre au service des autres disciplines. Avec des enseignants spécialisés, des programmes, des horaires et des épreuves au baccalauréat. Jacques Baudé, président d’honneur de l’EPI (association Enseignement Public et Informatique), rappelle opportunément que « pendant plus de dix ans, le Conseil scientifique national (CSN), pilotant l’option informatique des lycées, a montré que la mise au point de programmes d’enseignement n’a pourtant rien d’impossible ; ce n’est ni plus difficile ni plus facile que dans n’importe quelle autre discipline ! Les invariants enseignables au lycée se dégagent somme toute assez facilement à condition de pratiquer une large concertation avec les universitaires et les enseignants du terrain » [12].

Ces invariants, dont parle Jacques Baudé, doivent inclure des activités d’algorithmique et de programmation, non pas pour former des informaticiens professionnels – même si cela y contribue – mais pour que les élèves comprennent la logique de fonctionnement de l’ordinateur et des environnements informationnels (si l’on apprend à résoudre des équations du second degré ce n’est pas parce qu’on en résout tous les jours !). Charles Duchâteau, professeur aux facultés universitaires N.-D. de la Paix de Namur, s’exprime en ce sens : « J’ai été et je reste parmi ceux qui croient que l’apprentissage de la programmation est formatif et qu’il ne faut pas tout mesurer à l’aune de l’utilité immédiate. Je crois aussi que les méthodes et concepts typiques de l’algorithmique sont parmi les plus fondamentaux de l’informatique et que, de plus en plus, une certaine familiarité avec le “faire faire” qui est au coeur de la programmation, au sens large, fait partie d’une utilisation efficace de beaucoup d’outils logiciels récents » [13]. Écrire des programmes informatiques, même très simples, permet également de donner de la substance à ce que sont les codes source et objet, et donc de mieux percevoir les enjeux des logiciels libres. La « philosophie » de ces logiciels est en phase avec l’objectif de former des utilisateurs « intelligents » car la connaissance du code permet la compréhension de la logique et du fonctionnement des logiciels.

Pour Jean-Pierre Demailly, membre de l’académie des Sciences, « un enseignement des langages, des algorithmes et de la programmation serait bien utile à partir du lycée. Tout d’abord parce que c’est un véritable besoin économique de mieux préparer les élèves à acquérir des connaissances technologiques solides, mais aussi parce que cela intéresserait de nombreux jeunes – dont l’informatique est parfois une passion en dehors de l’école » [14].

Pour résumer, une approche équilibrée garante d’une bonne culture générale scolaire doit, selon nous, s’appuyer sur l’utilisation de l’ordinateur dans les disciplines pendant toute la scolarité, le B2i à l’école primaire, le cours de technologie au collège et une matière « Informatique et TIC » au lycée. Avec la conviction que pareille intégration résolue de l’informatique et des technologies modernes dans le système éducatif est de nature à faciliter les évolutions économiques, sociales et culturelles du XXIe siècle.

Notes

[1] Jean-Pierre Archambault – CNDP-CRDP de Paris – Chargé de mission veille technologique

[2] L’illustration est une photographie de foundphotoslj intitulée Student in Class issue de Flickr et sous licence Creative Commons BY-SA

[3] Jean-Pierre Archambault, « Innover ou protéger ? Un cyberdylemne », Médialog n°58.

[4] lien

[5] Maurice Lévy, Jean-Pierre Jouyet, L’économie de l’immatériel – La croissance de demain, rapport de la commission sur l’économie de l’immatériel remis à Thierry Breton, décembre 2006.

[6] Jean-Pierre Archambault, Démocratie et citoyenneté à l’heure du numérique : les nécessités d’un enseignement lien

[7] lien.

[8] Jean-Michel Bérard, « Ordinateur et système éducatif : quelques questions » in Utilisations de l’ordinateur dans l’enseignement secondaire, Hachette Éducation, 1993.

[9] Jean-François Cerisier, « Qui est derrière Internet ? Des représentations tenaces », Les Cahiers pédagogiques n°446, octobre 2006.

[10] Jean-François Cerisier, « La nature du B2i lui permet-elle d’atteindre ses objectifs ? », Les dossiers de l’ingénierie éducative n°55, septembre 2006.

[11] lien en page 17.

[12] Jacques Baudé, Pour une culture générale intégrant l’Informatique et les Technologies de l’Information et de la Communication (TIC), lien

[13] Charles Duchâteau, Peut-on définir une « culture informatique » ? lien

[14] Jean-Pierre Demailly, professeur à l’université Grenoble I, directeur de l’Institut Fourier, membre de l’académie des Sciences, in interview à l’EPI, avril 2005. lien




Dell + GNU/Linux Ubuntu : Un mariage assumé et médiatisé qui m’émeut

Dell.com - Ubuntu - screenshot

On peut toujours faire la fine bouche (en remarquant par exemple que la différence de prix à configuration similaire[1] n’est pas flagrante entre un modèle Ubuntu[2] et un modèle Windows Vista) mais on ne peut nier le plaisir de voir une distribution GNU/Linux s’afficher aujourd’hui en ouverture de dell.com, qui n’est rien d’autre que le premier site mondial de vente en ligne d’ordinateurs.

Dell a assurément marqué des points sur ce coup-là parce qu’ils sont allés au bout de leur démarche de consultation avec pour conséquence la mise en place très rapide d’offres Ubuntu inside tout de suite mises en avant.

Ce faisant c’est Linux et par extension le logiciel libre dans son ensemble qui ont marqué des points notamment chez le grand public qui y verra certainement là un gage de sérieux, de confiance mais aussi une assurance de trouver dès le départ des ordinateurs parfaitement configurés pour accueillir Ubuntu.

Quelque soit le degré de perfectionnement de l’offre c’est assurément un évènement majeur qui permet de mesurer le chemin parcouru…

Notes

[1] En fait on ne peut pas véritablement faire de comparaison parce que les modèles sont similaires sans jamais être identiques. Pas le peine de chercher bien loin le pourquoi du comment.

[2] Autre petit bémol sur le site de Dell actuel, la mention très discrète de Linux par rapport à l’omniprésence d’Ubuntu.




Le témoignage qui tue…

By phitar - CC BY-NC-ND

Le témoignage qui tue… Windows !

En April, ne te découvre pas d’un file ! est le récit simple et sincère d’une migration Linux en plusieurs étapes d’un utilisateur pragmatique et enthousiaste. Que dis-je d’un utilisateur… d’une utilisatrice !

Nombreux sont les visiteurs du réseau Framasoft qui s’y reconnaitront pour en être peu ou prou passé par là[1].

Depuis que je suis entrée dans le monde du logiciel libre, j’ai découvert une autre logique : travail coopératif et participation. Je ne code pas, je n’ai pas beaucoup de fric, ce qui limite mon apport à la communauté. Mais je suis un utilisateur permanent. Je peux donc prendre un peu de temps pour rapporter les bugs ou suggérer des améliorations qui apparaissent comme nécessaires à l’usage.

La communauté des développeurs du libre est un monde ouvert et mouvant. Pour discuter avec le concepteur d’un logiciel, le plus souvent, il suffit de se connecter sur le bon canal IRC, et hop, on est en prise directe avec la matière grise qui accouche l’outil ! Je tire une grande fierté d’avoir suggéré des améliorations ergonomiques de Scribus et d’avoir du coup un outil plus intuitif pour tous !

Au passage on nous suggère de participer à la nouvelle campagne d’adhésion de l’APRIL, ce qui est une autre bonne idée.

C’est réaliste, alerte, plein d’humour et d’esprit et au final bigrement convaincant.

Conclusion : Faites tourner 😉

Notes

[1] L’illustration est une photographie de phitar intitulée isoline pushes a broken nosed penguin issue de Flickr et sous licence Creative Commons BY-NC-ND