Les drôles de conseils du site Educnet

Zara - CC by-saNous le savons, et n’ayons pas peur de paraphraser les Beatles pour appuyer notre propos (et montrer toute l’étendue de notre culture), « logiciel libre » et « éducation » sont des mots qui vont très bien ensemble.

Voici ce qu’en disait récemment le Département de l’instruction publique du canton de Genève : « Dans sa volonté de rendre accessibles à tous les outils et les contenus, le libre poursuit un objectif de démocratisation du savoir et des compétences, de partage des connaissances et de coopération dans leur mise en œuvre, d’autonomie et de responsabilité face aux technologies, du développement du sens critique et de l’indépendance envers les pouvoirs de l’information et de la communication. »

En France pourtant cette association ne va pas de soi. Nouvelle illustration avec le site Educnet, portail TICE du Ministère de l’Éducation Nationale et du Ministère de l’Enseignement Supérieur et de la Recherche (autrement dit c’est ici que l’on traite des Technologies de l’information et de la communication pour l’éducation ou TICE).

Sur ce site donc, dans la catégorie juridique Légamédia[1], on trouve, et l’intention est louable, une page consacrée non pas aux logiciels libres mais aux logiciels « Open Source » : L’utilisation et le développement de logiciels issus de l’Open Source.

Il est difficile pour un site qui aborde tant de sujets d’être « expert en tout » mais dans la mesure où il s’agit d’un canal officiel de l’Éducation Nationale, je n’ai pu m’empêcher de réagir[2] et d’en faire ici une rapide lecture commentée.

1- Définition technique et pratique : L’Open Source est le nom donné à leur mouvement en 1998 par les acteurs du logiciel libre. Fruit de la mouvance libertaire de l’Internet, les bases de l’Open Source ont été jetées en 1984 par Richard Stallman avec son projet GNU (GNU’s not Unix). Ce projet consistait à créer un système d’exploitation aussi performant qu’Unix et complètement compatible avec lui. Est ainsi né le premier système d’exploitation dit « libre », car son utilisation, sa copie, sa redistribution voire sa modification étaient laissées au libre arbitre de l’utilisateur. Sous le nom d’Open Source, sont fédérées toutes les expériences d’accès libre au code source des logiciels.

Le site Educnet s’adresse à la communauté éducative dont en tout premier lieu aux enseignants. Expliquer rapidement ce qu’est un logiciel libre n’est pas chose aisée mais on aurait tout de même pu s’y prendre autrement, à commencer par privilégier l’expression « logiciel libre » à celle d’« Open Source ». Par exemple en empruntant la première phrase de l’article dédié de Wikipédia : « Un logiciel libre est un logiciel dont la licence dite libre donne à chacun (et sans contrepartie) le droit d’utiliser, d’étudier, de modifier, de dupliquer, et de diffuser (donner et vendre) le dit logiciel ».

Une fois ceci posé et compris, on aura bien le temps par la suite d’entrer plus avant dans le détail et d’aborder les choses plus finement en évoquant le code source ou les différences d’approche entre « logiciel libre » et « Open Source ». Quant à la « mouvance libertaire de l’Internet » je n’évalue pas l’effet produit sur le lecteur mais elle oriente assurément le propos.

1.1- Les principes de l’Open Source : En réaction au monopole d’exploitation reconnu par le droit d’auteur ou le Copyright, la finalité de l’Open Source est la promotion du savoir et sa diffusion auprès d’un public le plus large possible. Il est proposé aux internautes utilisant et développant les logiciels issus de l’Open Source de créer un fonds commun de logiciels en ligne. Concrètement, l’utilisation de logiciels issus de l’Open Source permet le libre accès au code source du logiciel, sa copie et sa libre redistribution.

Je continue à me mettre à la place d’un enseignant qui découvrirait ici le logiciel libre et cela demeure complexe à appréhender ainsi présenté. Reprendre la traditionnelle introduction de Richard Stallman (« je peux résumer le logiciel libre en trois mots : liberté, égalité, fraternité  ») aurait eu certainement plus de sens et d’impact. Retenons cependant que la finalité est « la promotion du savoir et sa diffusion auprès d’un public le plus large possible », ce qui tombe plutôt bien quand on s’intéresse à l’éducation, non ?!

1.2- Les conditions d’utilisation : Afin de développer à un moindre coût un projet informatique, des élèves et leur enseignant peuvent utiliser des logiciels « Open Source », les modifier ou les améliorer afin de les adapter à leurs besoins. En revanche, les améliorations effectuées sur le logiciel initial doivent être versées dans le fond commun mis en ligne. Il est possible de puiser gratuitement dans le fond des logiciels libres, à condition qu’à son tour on enrichisse le fond de ses améliorations en permettant à d’autres de les exploiter gratuitement…

Qu’est-ce que c’est alambiqué ! Et faux par dessus le marché : nulle obligation d’enrichir le fond des logiciels libres pour les utiliser ! On voudrait nous faire croire que les logiciels libres sont réservés aux informaticiens que l’on ne s’y prendrait pas autrement.

2- Les points de vigilance : En utilisant des logiciels issus de l’Open source, les élèves comme leurs enseignants doivent avoir conscience des conditions d’utilisation particulières de ce type de logiciel. Cela permet d’avoir des outils logiciels performants à moindre coût, mais son apport dans l’amélioration du logiciel n’est nullement protégé. Il faut au contraire le mettre en libre accès en rappelant sur le site de téléchargement du logiciel les principes de l’Open Source.

Là ce n’est plus alambiqué c’est carrément de parti pris ! La tournure et le champ lexical adopté (« vigilance », « avoir conscience », « conditions », « mais », « nullement protégé », « au contraire »…) ne peuvent que conduire à inspirer une certaine méfiance au lecteur alors même qu’on devrait se féliciter de l’existence du logiciel libre, véritable facilitateur de vie numérique en milieu scolaire !

Et pour finir en beauté, l’ultime conseil, dans un joli cadre pour en signifier toute son importance (les mises en gras sont d’origine) :

Conseils : Il est donc déconseillé d’utiliser ce type de logiciel si les élèves, leurs enseignants, voire l’établissement scolaire souhaitent garder un monopole d’utilisation des travaux de développement du logiciel libre. Les principes de l’Open Source obligent les développeurs à garantir un accès libre aux améliorations du code source du logiciel libre.

La cerise sur le gâteau, pour définitivement convaincre le lecteur que non seulement le logiciel libre c’est compliqué mais qu’il est en fait à déconseiller alors même qu’il ne viendrait jamais à l’idée des élèves, enseignants et établissements scolaires de « garder un monopole d’utilisation des travaux de développement du logiciel libre ». Sommes-nous sur Educnet ou sur un site du Medef ?

Que l’Institution souhaite conserver un positionnement neutre vis-à-vis du logiciel libre, je le déplore et le conteste mais je peux le comprendre. Personne ne lui demande en effet de sauter sur sa chaise comme un cabri en criant : logiciel libre, logiciel libre, logiciel libre ! Mais de là à présenter les choses ainsi…

Soupir… Parce qu’on avait déjà fort à faire avec Microsoft et ses amis.

Et ce n’est malheureusement pas terminé parce que, autre intention louable, il y a également une page consacrée (nouvel emprunt à l’anglais) à « l’Open Content » : L’utilisation de contenus issus de l’Open Content.

1- Définition technique et pratique : Dans le prolongement du mouvement Open Source qui concernait que les logiciels, l’Open Content reprend les mêmes principes de libre accès à la connaissance en l’appliquant cette fois à tout type de contenus en ligne (content). Sur l’Internet, des auteurs mettent en libre accès leurs créations musicales, photographiques, littéraires, etc. … Ils choisissent ainsi de contribuer à l’enrichissement d’un fonds commun de savoir mis en ligne. Lors de l’élaboration d’un site web ou de tout autre travail, les élèves ou les enseignants peuvent utilement puiser dans ce fonds et intégrer ces contenus issus de l’Open Content dans leurs propres travaux. Enfin, à leur tour, les élèves et leurs enseignants peuvent aussi verser leurs propres travaux dans le fonds commun de l’Open Content. Il faut pourtant garder à l’esprit quelques règles à respecter.

Cela commençait fort bien mais, comme précédemment, un bémol final : « il faut pourtant garder à l’esprit quelques règles à respecter ». C’est tout à fait juste au demeurant, il y a bien des règles à respecter, celles de la licence accolée à la ressource. Amusez-vous cependant à comparer par exemple la licence (« Open Content ») Creative Commons By-Sa avec les directives (non « Open Content ») concernant les usages des « œuvres protégées à l’Éducation Nationale, effet garanti !

2- Les points de vigilance : L’Open Content est un choix conscient et maîtrisé par l’auteur, comme le démontrent les licences d’utilisation de ce type de « contenus libres ». Les conditions d’utilisation sont claires.

Là encore, il faut que le lecteur soit « vigilant » en ayant la « maîtrise » des « conditions d’utilisation » et la « conscience » de ses choix. Faites mille fois attention avant d’adopter de telles licences ! Dois-je encore une fois renvoyer à cet article pour illustrer des conditions d’utilisation bien moins claires que n’importe quelle ressource sous licence libre ?

2.1- Les prérogatives morales : Tout d’abord, les licences sont l’occasion de rappeler aux futurs utilisateurs, élèves et enseignants les prérogatives morales de l’auteur : le respect de la paternité et de l’intégrité de l’œuvre. En utilisant ces contenus, le nom de l’auteur doit être mentionné et aucune modification à l’œuvre originale doit être apportée sauf si elle est mentionnée avec l’accord de l’auteur.

Avec l’accord de l’auteur… sauf dans le cas où la licence choisie confère d’office certains droits à l’utilisateur qui n’a alors rien à demander à l’auteur pour jouir de ces droits. C’est justement le positionnement adopté par les licences libres et les licences de types Creative Commons (voir ce diaporama à ce sujet), licences de la plus haute pertinence à l’ère du numérique surtout en… milieu scolaire. Imaginez-vous en effet devoir demander à chaque auteur les autorisations d’usage pour chaque œuvre que vous souhaitez utiliser et étudier en classe !

Et n’oublions pas non plus l’existence du domaine public qui n’est pas mentionné ici.

2.2- Les prérogatives patrimoniales : De même, la licence précise les conditions d’exercice des prérogatives patrimoniales de l’auteur : les droits de reproduction et de représentation. Sur ces points, selon le principe de libre accès, la licence permet la copie et la redistribution de l’œuvre à condition que les copies soient faites dans une finalité non commerciale. Il s’agit d’une cession à titre gratuit limitée. Les contenus issus de l’Open Content peuvent donc être utilisés sans restriction dans le cadre de l’activité scolaire à la condition de respecter les prérogatives morales des auteurs initiaux et en rappelant sur les pages où se trouvent les contenus « libres » les conditions des licences « Open Content ».

Encore du jargon juridique qui n’est pas de nature à être véritablement compris par l’enseignant, qui plus est sujet à caution puisque les licences libres autorisent généralement aussi bien la modification que l’exploitation commerciale d’une œuvre soumise à cette licence.

Et comme pour l’article précédent, un (étrange) conseil à suivre pour conclure :

Conseil : Il est par contre déconseillé au milieu scolaire d’utiliser ce type de contenus si on envisage de valoriser ses travaux en s’associant avec un partenaire privé pour une exploitation commerciale.

S’agit-il de « valoriser » ou de « monétiser » les travaux ? Et là encore, vous en connaissez beaucoup vous des enseignants qui envisagent de s’associer à un partenaire privé pour une exploitation commerciale ? De plus il n’y a aucune antinomie, on peut très bien adopter des licences libres et s’associer à un partenaire commercial pour exploiter (avec succès) ses travaux, Sésamath et ses manuels scolaires libres en vente chez l’éditeur Génération 5 nous en donne un parfait exemple.

Résumons-nous. Avec les licences libres appliquées aux logiciels et aux ressources, on tient de formidables instruments favorisant l’échange, le partage et la transmission de la connaissance en milieu scolaire (c’est ce que je tente de dire modestement au quotidien sur ce blog en tout cas). Mais de cela nous ne saurons rien si ce n’est que consciemment ou non tout est fait pour dissuader l’enseignant de les évaluer sérieusement en le noyant sous la complexité et les mises en garde avec des considérations économiques qui viennent parasiter un discours censé s’adresser à la communauté éducative.

Ces deux pages, non retouchées depuis un an, mériteraient je crois une petite mise à jour. Qu’il me soit alors permis de suggérer à leurs auteurs la lecture de ces quelques articles qui ne viennent pas d’un illégitime électron libre et « libriste » (comme moi) mais qui émanent du sérail : Les Creative Commons dans le paysage éducatif de l’édition… rêve ou réalité ? (Michele Drechsler, mars 2007), Un spectre hante le monde de l’édition (Jean-Pierre Archambault, septembre 2007) et Favoriser l’essor du libre à l’école (Jean-Pierre Archambault, juin 2008). Peut-être y trouveront-ils alors matière à quelque peu modifier le fond mais aussi la forme du contenu tel qu’il se présente actuellement.

Sur ce je souhaite une bonne rentrée à tous les collègues et à leurs élèves, ainsi qu’une bonne année à tous les lecteurs du Framablog. Il serait tout de même étonnant que l’année qui vient ne voit pas la situation évoluer favorablement pour le logiciel libre et sa culture, à l’intérieur comme à l’extérieur de l’école.

Notes

[1] On notera par ailleurs, bien mise en évidence dès l’accueil de la rubrique Légamédia, un « conseil de prudence aux agents publics souhaitant bloguer » qui doivent avoir le souci « d’éviter tout propos susceptible de porter atteinte à la fois à la dignité des fonctions qu’ils exercent et aux pouvoir publics  ». C’est bien de le rappeler mais on retrouve le même climat de méfiance voire de défiance, cette fois-ci vis-à-vis des blogs. J’espère que critiquer comme ici le contenu d’un site officiel ou s’interroger sur la pertinence des accords sur l’usage des « œuvres protégées » n’entrent pas dans ce cadre sinon je crains que ce billet soit l’un des derniers du Framablog.

[2] Crédit photo : Zara (Creative Commons By-Sa)




La tête dans les nuages mais les pieds sur terre

Nicholas T - CC byGMail, Google Apps, Zoho, Flickr, Del.icio.us, Box.net, Wuala, DropBox, Plaxo… Ça vous parle ? Vous savez, ces applications en ligne (ou Web Apps) pratiques et séduisantes qui poussent comme des champignons aux quatre coins de la Toile, souvent accompagnées de la mention beta pour faire hi-tech. On a même trouvé un terme pour englober tout ce petit monde, le très à la mode Cloud Computing, soit l’informatique dans les nuages ou dématérialisée[1].

Que celui qui n’a pas un compte chez l’un de ces services en ligne me jette la première pierre. Reconnaissons qu’il est fort commode, notamment pour qui travaille sur plusieurs postes ou de façon nomade, de pouvoir accéder à ses courriels, à ses documents et à certaines données depuis n’importe quel PC (voire téléphone mobile) à condition de disposer d’une connexion Internet.

Mais n’est-on pas en droit de s’inquiéter de savoir que tant de nos données se baladent on ne sait trop où dans l’espace virtuel ? Plaxo, par exemple, avait été critiqué à ses débuts car assez porté sur le spam et l’exploitation peu scrupuleuse des carnets d’adresses qu’on lui confiait (même si ce service a depuis redressé la barre). Quid des documents créés avec Google Docs, des fichiers conservés chez Box.net, des mails échangés avec GMail ? De plus en plus de grands groupes ou de start-ups se lancent sur ce marché apparemment juteux et se battent pour posséder nos données.

Il y a quelque temps déjà, plusieurs voix s’élevaient contre contre ces services en ligne : Larry Ellison, le fondateur d’Oracle, qualifiait le Cloud Computing de mode, et Richard Stallman, dans un entretien accordé au quotidien anglais The Guardian, allait plus loin en taxant ces services en ligne de pièges. Stallman mettait en garde les utilisateurs contre ces Web Apps et le stockage de données personnelles sur les serveurs d’entreprises commerciales : selon lui, confier ses données à de tels services revient à en perdre le contrôle et pose donc les mêmes problèmes que l’utilisation des logiciels propriétaires.

Stallman, qui n’a pas l’habitude de faire dans la nuance, recommandait donc de n’utiliser aucun de ses services et de leur préférer nos bonnes vieilles applis en dur sur lesquelles nous gardons tout contrôle. (Nul doute qu’il pensait par là à la Framakey…)

Tim O’Reilly, dans son blog, s’est lui aussi penché sur la question et a publié un billet assez fourni, dans lequel il estime qu’il faudrait appliquer au Cloud Computing les principes de l’Open Source et rappelle qu’il avait déjà mis en garde contre le verrouillage du Web, pourtant basé sur des programmes et outils Open Source, par des applications Web 2.0.

Cette question de la confidentialité, du contrôle des données et de l’indépendance de l’utilisateur face au logiciel concerne tous ceux qui ont un usage intensif du Web et de l’outil informatique, mais semble cruciale pour les adeptes du logiciel libre, très sensibles à ces questions. Comme dans le software classique, certains acteurs du Cloud Computing proposent des solutions libres. C’est le cas de Clipperz, qui a développé un gestionnaire de mots de passe et d’informations personnelles sous licence GPL.

Sur le blog de Clipperz , un des auteurs appelle les utilisateurs et les développeurs à agir pour préserver la liberté et la confidentialité dans les nuages, et propose quelques mesures pour que les applications Web 2.0 soient en accord avec les valeurs du libre, du point de vue des licences et du comportements des navigateurs Internet par exemple. On y retrouve par billet interposé Richard Stallman, avec qui l’auteur s’est entretenu et qui y va lui aussi de ses conseils.

Histoire de redescendre un peu sur terre après tant de temps passé dans les nuages, nous vous présentons donc la traduction de ce billet, réalisée par notre équipe Framalang.

Liberté et protection de la vie privée en ligne : agissez !

Freedom and Privacy in the Cloud – a call for action

Marco – 30 mai 2008 – Clipperz
(Traduction Framalang : Olivier, Burbumpa et Don Rico)

Ce message traite de la liberté. La liberté de posséder vos données et la liberté d’utiliser des logiciels libres. Vous devriez aussi pouvoir exiger ces libertés et en jouir quand vous utilisez des applications web.

Si vous soutenez le mouvement du logiciel libre, vous pouvez facilement opter pour Gimp au lieu de Photoshop, pour Firefox au lieu d’Internet Explorer. Vous pouvez également protéger le caractère privé de vos données en utilisant les outils de cryptage disponibles (GPG, TrueCrypt…). Mais dès qu’il s’agit d’applications web, tout se complique.

Les avantages des applications web – ou web apps – (accessibles partout et tout le temps, mises à jour transparentes, stockage fiable, …) sont nombreux, mais bien souvent les utilisateurs perdent la liberté d’étudier, de modifier et de discuter du code source qui fait tourner ces web apps.

De plus, nous sommes contraints de confier nos données aux fournisseurs de ces web apps (marque-pages, documents rédigés, copies des discussions, informations financières et désormais… dossiers médicaux) qui ne résident alors plus sur nos disques durs mais qui sont rangés quelque part dans les nuages. Ce n’est pas vraiment une situation confortable de devoir choisir entre aspect pratique et liberté.

Que l’on soit clair : les web apps sont formidables et je les adore. Mais je pense que le moment est venu de réclamer plus de liberté et de confidentialité. Voilà comment nous pouvons obtenir ces deux résultats en trois étapes.

1. Choisissez l’AGPL

Quelle est l’importance de l’AGPL ? Si vous êtes un fournisseur de services et que vos services s’appuient sur des logiciels placés sous licence AGPL, vous devez rendre le code source disponible à toute personne utilisant ce service. La FSF suggère dans ses directives de placer un lien Source qui renvoie à une archive contenant le code source directement dans l’interface de l’application web.

(Ne me demandez pas pourquoi la communauté des logiciels libres a mis tant de temps à réagir !)

Mesures
  • Aider Clipperz à mettre au point une suite AGPL : un ensemble d’applications web répondant aux besoins les plus courants.
  • Cette suite devrait comprendre : un traitement de texte, un logiciel de discussion, un gestionnaire de mots de passe, un carnet d’adresses, un pense-bête, un calendrier, un gestionnaire de marque-pages … Et chaque web app devra être soumise à la licence AGPL ! Vous pourrez alors oublier Google, del.icio.us, Plaxo, Meebo … à moins qu’ils ne se mettent à l’AGPL aussi.
  • Nous avons déjà deux candidats pour certains postes (Ajax Chat pour les discussions en ligne et, bien sûr, Clipperz pour le gestionnaire de mots de passe), mais la plupart des places sont encore à pourvoir !
  • Aider Clipperz à diffuser les bienfaits de l’AGPL auprès des développeurs de projets web open-source. Demandez-leur de se convertir à l’AGPL.

2. Ajoutez-y une pointe de divulgation nulle de données

Les développeurs Web, comme les utilisateurs, connaissent encore assez peu les possibilités offertes par le chiffrage via un navigateur pour rendre les applications web aussi sécurisées et confidentielles que les logiciels classiques.

Chez Clipperz, nous voulons apporter une nouvelle vision que nous appelons les web apps à divulgation nulle de données (description plus détaillée ici) qui associe l’idée d’un hébergement auquel même l’hébergeur n’a pas accès et un ensemble de règles basées sur le credo confidentialité absolue.

Ce nom est aussi bien un hommage au chiffrage (une garantie de divulgation nulle de données est un protocole de chiffrage standard) que la promesse d’une relation particulière entre l’utilisateur et le fournisseur d’application. Le serveur hébergeant la web app peut ne rien savoir sur ses utilisateurs, pas même leurs identifiants ! Clipperz applique cette vision pour mettre en œuvre son gestionnaire de mots de passe en ligne.

Mesures
  • Appliquer les techniques divulgation nulle de données à chaque composant de la suite AGPL. Convertir une application web à l’architecture divulgation nulle n’est pas simple, mais chez Clipperz nous avons développé un savoir-faire important et nous serons heureux de partager aussi bien ces connaissances que le code de base.

Nous pourrons ainsi finalement jouir d’un traitement de texte en ligne qui ne pourra pas lire nos documents, un logiciel de discussion qui n’enregistrera pas nos conversations, un wiki sur lequel on pourra conserver sans crainte des données importantes, etc.

  • Établir et maintenir à jour une liste des Fournisseurs de Service d’Application (NdT : ASP pour Application Service Provider en anglais) qui hébergent la suite complète sous AGPL. Cette référence sera utile à tous ceux qui attachent de l’importance aux logiciels libres et à la confidentialité mais ne possèdent pas les compétences et les ressources pour faire tourner des web apps sur leur propre serveur.

3. Créer un navigateur plus intelligent

On y est presque, mais il nous reste encore à fournir aux utilisateurs de web apps un environnement encore plus flexible et sécurisé. Dans la pratique, du fait de l’architecture des web apps à divulgation nulle de données, le serveur réalise de façon générale les tâches suivantes :

  • charger le code Javascript dans le navigateur de l’utilisateur (charger le programme) ;
  • authentifier l’utilisateur (optionnel et par un protocole à divulgation nulle de données)
  • rapatrier et stocker les données chiffrées demandées par le navigateur de l’utilisateur.

Logiciel libre est synonyme de contrôle total de ce qui se passe sur mon ordinateur. Se posent alors deux questions :

  • Comment faire tourner une version modifiée du code Javascript à la place de celui chargé par le serveur ?
  • Comment être alerté des modifications apportées au code Javascript que le serveur envoie à mon navigateur ?

J’ai récemment eu l’immense honneur d’échanger mes idées avec Richard Stallman lui-même au sujet de ces problèmes, et il a suggéré une solution futée pour les résoudre tous les deux.

Stallman propose d’ajouter une fonctionnalité au navigateur qui permette à l’utilisateur de dire : « Quand tu charges l’URL X, utilise le code Javascript de l’URL Y comme s’il venait de l’URL X ». Si l’utilisateur fait appel à cette fonctionnalité, il peut utiliser sa propre copie du code Javascript et peut toujours échanger des données avec le serveur hébergeant l’application web.

Un navigateur possédant cette capacité pourrait aussi facilement vérifier si le script Java de l’URL X est différent du script Java sauvegardé à l’URL Y. Si l’utilisateur fait confiance à la version courante du code Javascript de l’URL X, il peut en faire une copie à l’URL Y et sera ainsi alerté de tout changement. Cette solution protège l’utilisateur du code malveillant qu’il pourrait exécuter sans le savoir dans son navigateur, du code qui pourrait voler ses données et détruire l’architecture à divulgation nulle d’information.

Mesures :
  • Écrire des extensions pour les principaux navigateurs libres (Mozilla, Webkit, …) qui mettent en œuvre l’idée de Stallman.

Militer pour l’adjonction de la "suite AGPL" et des navigateurs améliorés pré-cités dans les distributions GNU/Linux.

  • Continuez à lire ce blog où je posterai de nouveaux articles régulièrement.
  • Faites-moi part de vos commentaires et suggestions.
  • Faites passez le message au travers de vos blogs, de vos messages sur les forums, …
  • Faites un don.

Et le meilleur pour la fin : comment nommeriez-vous cet ambitieux projet ? Faites-moi part de vos idées dans les commentaires !

Notes

[1] Crédit photo : Nicholas T (Creative Commons By)




Largage de liens en vrac #9

Meanest Indian - CC byBon ben c’est bientôt Noël, les bons baisers de Fort-de-France, tout ça… Dans ma besace, et comme c’est désormais devenu une tradition, j’ai tous les liens logiciels deliciousés depuis un bon gros mois. J’aurais pu les sortir un à un en prenant soin de les étudier méticuleusement mais faute de temps j’ai tout vidé en vrac à même le sol (c’est assez joli dans la neige remarquez). Ce serait bien le diable si vous ne trouviez pas au moins une chaussure à votre pied dans le tas[1].

  • Oxite : Commençons par la toute fraîche plate-forme CMS/Blog de… Microsoft. C’est bien entendu fait avec les technos de la maison (ASP et .NET) et avec la licence libre maison mais ne boudons pas notre plaisir car c’est tout de même un bonne nouvelle de la part de ceux qui affublaient hier encore le logiciel libre de noms d’oiseaux comme cancer ou pire encore communiste !
  • OpenXML Document Viewer : Dans le même ordre d’idée, c’est-à-dire toujours chez Microsoft, signalons cette extension Firefox capable a priori de lire les document sous le controversé format de la suite MS Office l’OOXML (.docx, etc.). La sortie est en HTML, donc c’est plus un convertisseur qu’un viewer. Une extension pour le navigateur libre concurrent (et bientôt, semble-t-il, la lecture/écriture native de l’ODF dans MS Office), jusqu’où n’est-on pas prêt à aller pour, au choix, assurer l’interopérabilité ou… ne pas perdre la guerre des formats !
  • Ecofont : Il fallait y penser, une police de caractère écologique parce qu’il y a des trous blancs dedans (et donc on use moins d’encre vous me suivez). Écologique et logique que le choix se soit porté sur une licence libre. Signalons en passant que l’Open Font Library commence à être vraiment bien fourni.
  • FUSBi : Acronyme de Free USB Installer, permet d’installer sa distribution GNU/Linux bootable sur une clé USB. Sauf que attention, pas n’importe quelle distribution, les seules véritablement libres selon la FSF ce qui donne ici : gNewSense, UTUTO, Dynebolic, BLAG and GNUstep.
  • Kiwix :  : Un logiciel pour utiliser Wikipedia sans connexion Internet. Pour la version française il vous faudra 2 Go d’espace mais c’est somme toute logique vu la dimension prise par l’encyclopédie (dans tous les sens du terme). Pratique aussi pour lutter contre la fracture numérique.
  • Tiny Tiny RSS : Un aggrégateur de flux RSS en ligne qui pourrait bien devenir le Google Reader killer du libre. Tout comme Piwik avec Google Analytics, il est fort important de disposer d’outils libres marchant sur les plate-bandes de Google.
  • Abiword : Belle mise à jour (avec l’intégration de l’OOXML de Microsoft par exemple) pour cet adorable petit traitement de texte qui a su trouver sa place dans PLLM (Paysage du Logiciel Libre Mondiale), surtout si vous trouvez qu’OpenOffice.org est trop pataud par rapport à vos modestes besoins.
  • Songbird : Autre très belle mise à jour, rien moins que la 1.0 (toujours très important de passer le seuil psychologique du 1.0 pour un logiciel). iTunes a désormais un réel concurrent libre. Et que même qu’il sait en faire beaucoup plus et se marie à merveille à grands coups d’extensions avec Firefox (celle que je préfère affiche l’article Wikipédia de la musique du moment). Bref, mériterait un billet à lui tout seul.
  • OpenGoo : Toujours dans la série émouvante des 1.0 (et toujours dans les concurrents potentiels à Google, ici Google Docs), signalons donc la mise à jour de cette suite bureautique en ligne qui commence à faire son trou.
  • Elgg : Et pour en finir avec les mises à jour majeures, celle de Elgg (1.2) qui devient très certainement la meilleure solution actuelle pour faire son propre site en réseau social (propose peu ou prou la même chose que Facebook, tout du moins les fonctions basiques).
  • Multi Theft Auto : Je connais pas bien mais à ce que j’ai compris c’est open source et ça permet de jouer à plusieurs à Grand Theft Auto : San Andreas (GTA : SA). Les adeptes s’y retrouveront (mais ils peuvent aussi laisser un commentaire pour dire ce qu’ils en pensent).
  • LoseThos : Rien moins qu’un système d’exploitation complet ne dépassant pas les 20 Mo et mis par son auteur dans le domaine public. Ne tourne que sur les IBM PC x86_64. Didactiquement c’est un formidable jouet pour les développeurs en herbe puisque vous avez d’office tous les droits sur tout 😉
  • XMind : Un logiciels pour faire du mind mapping (ou carte heuristique) qui semble assez puissant si l’on en juge par la présentation du site officiel.
  • Kaltura : Se veut être un peu le YouTube du libre (mais je peux me tromper) avec de plus des fonctions d’édition collectives a priori intéressantes. Collabore déjà avec Wikipédia et est proposé comme extension sur Drupal, WordPress ou Mediawiki.
  • OpenProj : Un outil de planification de projet, concurrent direct de solutions propriétaires comme Microsoft Project.
  • CockingIT : Même fonction que le logiciel précédent mais en plus simple et sexy (Ajax inside) et surtout en ligne.
  • Animata : De la création d’animation tout à fait originale et semble-t-il simple d’accès (non disponible sous Linux).
  • Translate.Net : Un logiciel qui se connecte aux plus populaires des services de traduction en ligne pour vous proposer plusieurs résultats et vous faciliter la tâche.
  • OTRS : Pour l’entreprise, un logiciel de gestion de tickets simple et efficace. Dans la même catégorie, j’ai noté également SiT! (à bien prononcer).
  • Cloud (gOS) : Un OS hybrique entre GNU/Linux (Ubuntu avec Enlightenment) et l’informatique dans les nuages à base principalement d’applications Google. Candidat aux netbooks, et très sexy sur le papier (voir la présentation diaporama sur le site). Fait beaucoup parler de lui sur le toile anglophone en ce moment.
  • Instalinux : Je ne connaissais pas. Permet de se faire, étapes par étapes, une image ISO d’un CD d’installation personnalisée de GNU/Linux à commencer bien entendu par le choix de la distribution (Ubuntu, Fedora, OpenSUSE, etc.)
  • Conky : Pour les geeks (et d’ailleurs que pour Linux), permet de faire afficher de manière très clair et agréable sur votre bureau plein d’informations systèmes.
  • Ubuntu Eee : Ubuntu sur votre Eee PC. Fort bien fait et téléchargeable puis installable directement à partir d’une clé USB.
  • Appnr : Pour installer des programmes sous Ubuntu, Synaptic c’est très pratic sauf que c’est tout de même assez frustre. Ici tout se fait à partir du web avec copies d’écrans et tout le tralala.
  • Go-oo : Le saviez-vous chers amis ubunteros ? Il y a un peu de Go-oo dans votre OpenOffice.org.
  • Toutou Linux : Basé sur Pupy Linux (lire par exemple ce test plus qu’enthousiaste), cette mini, moins de 100 Mo, distribution Linux est tout sauf un gadget. Il faudra aussi en reparler (ne serait-ce que parce qu’on tient un excellent candidat pour les machines soit-disant obsolètes de l’Education Nationale).
  • pure:dyne : Une distribution GNU/Linux spécialement dédiée aux artistes-hackeurs (et je sais qu’il y en a ou qui souhaitent le devenir). Il va sans dire qu’il y a plein d’outils pour l’audio et la vidéo dedans.
  • LotoEduc : Création de cartes de loto éducatives (qui ne devrait pas tarder à se trouver dans l’annuaire Framasoft, non, mais !).
  • Xerte Project : Nous vient de l’Université de Nottingham. Pour créer des applications web éducatives en Flash (un peu comme Mathenpoche en fait). Les démos sont assez impressionnantes de qualité graphiques comme seul Flash peut le proposer actuellement (et malheureusement).
  • Sage : On ne parle pas peut-être pas assez de ce logiciel de mathématiques capable de rivaliser, excusez du peu avec Magma, Maple, Mathematica et Matlab réunis !
  • ClamXav : Enfin une déclinaison Mac pour le célèbre outil anti-virus issu du monde du libre.
  • simpleCart : Si vous souhaitez créer une boutique en ligne pour quelques produits, et si ni le JavaScript ni Paypal ne vous pose problème, alors c’est certainement la meilleure des solutions (avec un look tout de suite très pro, ce qui fait jamais de mal quand on veut que les visiteurs deviennent aussi clients).
  • SimplePie : Une solution super élégante pour aggréger des flux RSS dans vos sites web (avec extensions pour WordPress, Drupal, Joomla, etc.).
  • GameJS : Un moteur de développement de jeu 2D en JavaScript. Le Tetris en exemple est fort bien fait.
  • today’s timetable : Toujours du JavaScript en code libre, une très esthétique (et valide W3C) frise chronologique pour vos sites.
  • WysiHat : Un éditeur WYSIWYG en JavaScript. Une petit demo pour bien comprendre.
  • Vfront : Vous voulez un truc plus sexy-web-2.0-ajax que PhpMyAdmin pour gérer vos bases SQL ?
  • Blackbird : Une console en JavaScript sur vos pages web. C’est très joli et en plus ça doit certainement servir à quelque chose !
  • The Beta (tbeta) : Popularisé par l’iPhone, les écrans tactiles sont en pleine évolution. Le libre n’est pas en reste.

Notes

[1] Crédit photo : Meanest Indian (Creative Commons By)




Le Framablog fait sa mue en plein hiver

Paul Mannix - CC byJ’avais très clairement d’autres choses plus urgentes à faire (sur Framasoft et ailleurs) mais je me suis souvenu de ma liste de bonnes résolutions pour l’année… 2008 ! Parmi une longue suite de promesses non tenues, se trouvait le projet de modifier un peu l’aspect graphique et ergonomique de ce blog qui n’avait pas bougé depuis sa création. Il reste encore un bon paquet de trucs à « peaufiner » mais voici donc le nouveau log du Framabook look du Framablog.

Qu’est-ce qui a réussi à me motiver assez pour trouver le temps de réaliser cette véritable prouesse (enfin, surtout pour moi) ? Principalement le nouveau thème Dotclear d’Olivier Meunier que j’ai trouvé fort bien fait ma foi et que j’ai donc adopté de go sans presqu’y rien changer (du coup le temps consacré a été diminué d’autant). J’en profite pour saluer l’extraordinaire travail d’Olivier et derrière lui toute la communauté Dotclear. Je n’ai pas vraiment suivi dans le détail mais il y a un an on avait, je crois, un projet moribond qui évoluait peu et qui voyait beaucoup de blogueurs partir sous d’autres cieux (comprendre vers WordPress).

Aujourd’hui c’est tout le contraire. La version 2 est là est bien là, correctifs, documentations, thèmes, plugins, trucs et astuces se succèdent à un rythme effréné et l’atmosphère est au beau fixe si j’en juge par la quantité, qualité et la gentillesse des interventions sur le forum (dont je n’ai malheureusement pas la disponibilité suffisante pour participer). Grand merci à vous tous, c’est un peu surfait de le dire mais c’est sincère : vous faites un boulot formidable ! Et d’ailleurs, tiens, la photo d’illustration[1] vous est dédiée 😉

Bon, bien entendu, fidèle visiteur, tu risques d’être un peu perturbé au début dans ta lecture (et puis il y a bien eu quelques compromis à faire). Mais puisque tu as tenté réussi à passer sous GNU/Linux, tu es désormais paré à toutes les éventualités !

Un peu comme un changelog de logiciel, voici en vrac une énumération non exhaustive d’informations, comparaisons et commentaires autour de ce nouveau manteau d’hiver.

  • Confort a priori accru avec des pages moins lourdes à se charger et une lecture plus agréable et aérée (à vous de me dire, une fois le cache actualisé of course). Le hic c’est que la mise en page de certains articles était optimisée pour l’étroite colonne de la version précédente et on se retrouve parfois à ne trop savoir que faire de tout ce vaste espace conquis. On tentera d’y pourvoir petit à petit et au cas par cas.
  • Apport de quelques contenus spécifiques qui faisaient défaut depuis le début (voir plus bas et shame on me).
  • Modifications sur les médias (images, audios, vidéos, etc.) qui devraient théoriquement permettre à Bibi d’émettre plus rapidement et efficacement ses futurs billets.
  • Apparition d’un menu permanent en haut de page utilisant l’option « pages fixes et indépendantes » de Dotclear.
  • Dans les liens de ce menu, on trouve Framalang. C’était bien le moins que de consacrer une page dédiée à ce projet ! Autre nouveauté, il y a également la possibilité à partir de cette page de s’inscrire directement à la liste de diffusion Framalang si jamais il vous venait l’envie de participer.
  • La page Framatube est une autre grande nouveauté. Elle sort de l’ombre notre compte sur blip.tv et permet de voir ainsi pas loin de cent vidéos autour du logiciel libre, sa culture et son état d’esprit ! Mais nous aurons bien le temps d’en reparler… Attention, « flashophobe » s’abstenir ! (sachez néanmoins que l’on possède très souvent des conversions au formats ouverts de ces vidéos, que l’on indiquera là encore au fur et à mesure, be patient)
  • Une page À propos permet au visiteur qui découvrirait le Framablog de mieux se rendre compte où il met les pieds (à propos, faudra que je pense à la remplir !).
  • C’était un peu bêbête mais il n’y avait pas de formulaire pour contacter le Framablog (en l’occurrence moi, mais sachez d’ores et déjà que d’autres vont bientôt venir me rejoindre à la rédaction). D’autant plus incongru que j’adôre la communication môa ! Cette lacune est désormais réparée. Outre les discrètes mentions de fautes d’orthographe, vous allez aussi pouvoir me proposer à l’avenir tout plein de suggestions de billets et autres scoops en exclusivité 😉
  • Autre fâcheux oubli, la licence du site et les mentions des dessins réalisés en haut et bas de page (merci à Pfelelep et LL de Mars au passage).
  • Le moteur de recherche interne est pertinent et spectaculaire (JavaScript inside) grâce au boulot d’Olivier Meunier.
  • La page d’accueil se trouve être revue de fond en comble. Ce n’est pas vraiment un problème pour toi, fidèle visiteur, qui est abonné au flux RSS du Framablog et qui donc attend tranquillement que ses articles viennent illico à toi sans passer par la case « accueil » du blog (et sans toucher 2000 euros, que de toutes les façons tu conserves jalousement pour participer toi aussi à la future campagne de survie soutien de Framasoft). Par contre, pour un visiteur tout frais qui passerait par hasard pour la première fois ici, la page d’accueil est certainement plus lisible que ce qui était proposé précédemment, à savoir une dizaine d’articles en enfilades qui donnaient une home page à l’ascenseur tellement long qu’il devenait un escalier (j’me comprends).
  • Les tags apparaissent enfin sur les pages du site. Comme avec le temps ils se sont accumulés, cela donne des propositions intéressantes d’entrées alternatives pour fureter dans le blog.
  • C’est un choix. Les tags étant mis en avant, il y a un paquet d’informations qui passent dans le gros pied de page du site. C’est donc là qu’on y trouvera désormais les derniers billets, commentaires, news du net, ainsi que, encore une nouveauté, une sélection de blogs et sites connexes au Framablog (en gros qui tournent eux aussi autour du Libre, et que si tu n’en connais aucun alors tu as bien de la chance parce que te voila parti pour le beau voyage de la découverte du logiciel libre et sa culture).
  • Après ce pied de page, c’est pas encore fini car on trouve une sorte de « méta-pied de page » qui concerne… je suis pénible je sais avec ça… l’imminente campagne de soutien (pour le moment, les liens ne sont pas renseignés mais ça ne saurait tarder).

Voilà. J’ai dû oublier des choses… mais ce n’est pas très grave puisqu’elles sont toutes contentes de se transformer alors en easter eggs.

Merci de me retourner dans les commentaires tout bug repéré (avec indications de l’OS et du navigateur si cela concerne l’affichage). Vous êtes également cordialement invité chez moi pour le Jour de l’an à laisser vos avis, critiques et propositions de suggestions pour continuer à améliorer le bouzin.

Merci enfin à toi, ô fidèle visiteur, pour être arrivé jusqu’ici (signifiant par là-même que tu es susceptible de le rester).

Notes

[1] Crédit photo : Paul Mannix (Creative Common By)




La campagne d’Obama et l’Open Source

Marcn - CC byLe sujet du jour c’est Obama et, j’ouvre les guillemets, « l’Open Source ».

Nombreux sont les observateurs qui ont en effet remarqué l’usage pointue des nouvelles technologies réalisé à cette occasion par le candidat victorieux. Certains allant même jusqu’à se demander dans quelle mesure cela n’a pas été un atout déterminant dans la campagne (contre McCain mais également contre Clinton). Déterminant aussi bien pour créer la dynamique, communiquer, faire adhérer au projet, coordonner les manifestations sur le terrain et, last but not least, lever des fonds.

Il y a souvent confusion entre Open Source et Web 2.0 mais il nous a semblé tout de même intéressant de solliciter Framalang pour d’abord un petit sous-titrage vidéo faisant une originale référence à l’un des ouvrages les plus célèbres du logiciel libre, la Cathédrale et le Bazar de Eric S. Raymond, puis ensuite un article plus détaillé au cœur des équipes techniques de la campagne[1].

La Cathédrale, le Bazar, et Obama

Le journaliste Alex Castellanos sur CNN le 5 novembre dernier :

—> La vidéo au format webm

(Sous-tirage : Xavier et Yostral)

La dynamique Open Source derrière la campagne d’Obama

The Open Source Force Behind the Obama Campaign

Doc Searls – 24 novembre 2008 – Linux Journal
(Traduction Framalang : Olivier et Yostral)

JFK a dit un jour « La victoire à cent pères, mais la défaite est orpheline ». Je viens donc aujourd’hui réclamer moi aussi la paternité du succès de la campagne d’Obama au nom de tous les fans de Linux. Les geeks n’étaient pas seuls évidemment, mais ils ont joué un rôle majeur.

J’étudie ce rôle depuis que j’ai couvert la campagne présidentiel d’Howard Dean en 2003-2004 pour le Linux Journal. Pour vous rafraichir la mémoire je vous conseille les lectures suivantes : Saving the Net, The Syndication Solution, Letters from the Campaign Pressure Cooker, Hacking Democracy, Lessons on Open Source Politics from the Campaign Forge, dans cet ordre.

Quand on s’est aperçu que les geeks étaient sérieusement impliqués dans la campagne d’Obama, une mission m’a été confiée : assurer la couverture de l’évènement pour le numéro de novembre 2008 du Linux Journal. Ce numéro devait sortir fin octobre, donc juste avant les élections.

Je m’y suis donc attelé. Après un intense travail de recherche et d’écriture et après avoir réduit ma prose à 3000 mots, nous nous sommes rendus compte que nous avions déjà largement assez d’articles traitant de Linux pour ce numéro et mon article a donc été mis de côté pour après les élections… et nous voici donc maintenant après les élections.

Plutôt que de mettre à jour l’article avec des données ou des citations plus récentes j’ai décidé de le publier tel que je l’avais écrit en août. A ma grande surprise son contenu n’est pas périmé. Je crois même qu’il touche à quelque chose d’important, une chose parmi tant d’autres, alors que l’Histoire était en marche. On s’en doutait à l’époque. On le sait maintenant.

Voici l’article :

Le 11 août 2008

Depuis l’avènement des médias de masse, le point crucial des campagnes politiques, surtout pour les campagnes présidentielles, a été de donner une image aux candidats. Vous dépeignez de vous-même un portrait flatteur tandis que vous dépréciez l’image de votre opposant. Durant le « cycle » de campagne présidentielle de 2008 (comme les professionnels le nomme), le candidat qui a réussi à se forger la meilleure image jusqu’à maintenant (au moment de l’écriture à la mi-août) est certainement Barack Obama. Advertising Age dit dans « What Obama can teach you about millenial marketing » (NdT : Une leçon de marketing ciblant la génération connectée par Obama) : « …la dévotion vouée à certaines marques par la génération connectée, que l’on parle de technologie, de boisson ou encore de mode, a fait de cette décennie un âge d’or du marketing pour ceux qui savent ce qu’ils font ». Et : « …concernant le marketing, la campagne de Barack Obama sait ce qu’elle fait. Le gestion de la marque Obama, du jamais vu lors d’une campagne présidentielle, montre une compréhension parfaite des rouages pour attirer les jeunes votants… Ce sont à la fois le produit à vendre et la manière de le vendre qui sont à l’origine de ce succès. »

Et c’est là que me revient à l’esprit la distinction que fait Isaac Asimov (dans le deuxième volet de la trilogie Fondation) entre « la réponse qui satisfait » et « la réponse qui était vraie ». Le succès de la campagne d’Obama jusqu’à maintenant ne repose pas entièrement sur la création d’une marque, sur la démographie ou même sur la politique telle que nous l’avons connue pendant trop longtemps, loin s’en faut. Il repose principalement sur l’usage de la technologie pour permettre à la démocratie de fonctionner.

L’histoire commence en 2001, quand un conseiller politique du nom de Joe Trippi s’est engagé en tant que conseiller de la firme Progeny, une entreprise dirigée par Ian Murdock donc le prénom est la deuxième moitié de Debian. Deux ans plus tard Joe dirigeait la campagne de Howard Dean. Le succès de cette campagne est largement dû a l’utilisation intelligente (et bon marché) d’Internet… et aussi à beaucoup de trucs open source de geeks. « Je me suis toujours demandé comment on pourrait transposer cette collaboration qui fait avancer Linux et l’open source pour l’appliquer ici », confiait Joe à Larry Lessig en 2003 au cours d’une interview. « Qu’est ce que cela donnerait si l’on pouvait y parvenir et qu’on implique tout le monde dans une campagne présidentielle ? » Quand Larry demanda à Joe si cela faisait de la campagne de Dean un campagne open source Joe répondit « Oui… je suppose qu’elle est aussi ouverte que peut l’être une campagne dans le monde politique actuel. »

Dans son blog, Ian Murdock écrit de Joe : « Après juste une heure de discussion avec lui, Joe comprenait le mouvement open source aussi bien que moi et il a aussi réussi à me faire voir des choses que je n’avais pas vues en 8 ans. »

La première fois que j’ai rencontré Joe c’était par vidéo interposée lors d’une session de chat. Le visage de Joe est apparu sur l’écran de mon portable en Californie tandis que le mien était sur le portable de Britt Blaser, l’ordinateur qu’il trimballait dans les couloirs et les salles de conférences du quartier général de campagne de Dean à Burlington dans le Vermont, un peu comme s’il était un serveur, mais avec un plateau qui parle. Cette visite a été si efficace que je me sentais déjà à l’aise dans le bâtiment quand j’y suis arrivé au plus profond de l’hiver, quand l’énergie de la campagne était à son paroxysme : mi-janvier 2004, la veille du caucus de l’Iowa.

Je garde en mémoire quelques souvenirs en particulier de cette visite. Par exemple celui de Nicco Mele qui s’occupait des racks de serveurs et d’autres appareils électroniques tournant sous LAMP et qui pestait contre le bordel que c’était de faire cohabiter les différents groupes au niveau des états et au niveau local sachant que chaque groupe possédait son propre système informatique créé de toute pièce, ce qui s’avéra être plus un problème qu’une solution. Je me souviens également de Zack Rosen, assis sur une boîte dans le coin d’un bureau avec trois ou quatre autres geeks entrain de hacker quelque chose dans Drupal. Zack s’est lancé dans la campagne avec le site HackersForDean (les hackers en faveur de Dean), qu’il a créé avec Josh Koenig. Un autre souvenir est celui de Daver Winer, il travaillait sur ce qu’il appelle « un projet de flux RSS très intéressant qui doit être lancé juste à temps pour les résultats du caucus de l’Iowa lundi soir ». Dans un message daté du même jour (le 17 janvier), Dave ajoute « Je reste neutre quant aux candidats à l’élection présidentiel. J’ai mes opinions, mais elles n’ont rien à faire dans mon travail technique. Je crois que les outils politiques doivent rester agnostiques. »

Maintenant que j’y repense je pense que j’ai assisté à l’équivalent en politique d’un club d’adeptes de trains miniatures ou d’un club de programmation maison. C’est là qu’est né un nouveau mouvement où l’on met vraiment la main à la pâte. Pour Britt Blaser c’est même « la première campagne dirigée comme un service Web plutôt que comme une campagne marketing disproportionnée ».

Dean s’est retiré de la course après avoir perdu l’Iowa, mais ce ne sont pas les techniciens ou leur code qui se présentaient. C’est à ce moment là que la « Diaspora Dean » s’est attelée à améliorer la démocratie grâce à des technologies libres et ouvertes.

L’un des membres de cette diaspora était Jascha Franklin-Hodge. « De retour à Boston j’ai commencé à reprendre contact avec des amis que j’avais ignoré pendant 6 mois » me racontait Jascha. « Et les gens n’arrêtaient pas de me dire : Ah, tu as travaillé pour Howard Dean, c’est super ! Je me suis rendu à des réunions et je suis devenu volontaire de l’antenne régional du partie démocratique. J’ai fait du porte à porte.. Ce sont des gens qui ne se sont pas contentés de supporter un candidat. Ils voulaient aussi trouver leur propre opinion politique, leur propre talent civique. »

Jasha a donc monté un petit groupe avec trois autres vétérans de la campagne pour Dean ; Clay A. Johnson, Joe Rospars, and Ben Self ; et il a lancé Blue State Digital. Dans un article paru dans le numéro de juin 2008, Business Week voyait Blue Stat Digital comme « l’arme secrète d’Obama ». En juillet, les efforts de Blue State étaient déjà à l’origine de plus de 200 millions de dollars de dons faits en ligne, de 75 000 évènements de campagne et comptaient plus d’un million d’utilisateurs. D’ici à ce que vous lisiez cet articles ces chiffres auront encore largement augmenté.

J’ai pris connaissance du travail réalisé par Blue State Digital pour la campagne Obama le 3 juin dernier par le biais d’un e-mail me redirigeant vers une publicité MyBO intitulée techinterest?foo. Cette publicité visait le recrutement de « développeurs Web exceptionnellement talentueux » possédant « une bonne connaissance des processus de développement LAMP et de leur bonne utilisation, expérience dans le déploiement à grande échelle d’applications Lamp, expérience requise dans la mise au point d’applications en PHP et MySQL et une bonne connaissance des performances de MySQL et de l’optimisation des requêtes » et enfin « utilisateur avancé voir expert en CSS, Javascript et Ajax ». L’e-mail précisait également que le site de campagne de McCain tournait sous Windows.

Mais Blue State n’avait pas vraiment besoin de cette publicité. Jasha me l’explique en ces termes : « Le travail que nous réalisons nous confère un énorme avantage lorsque nous sommes à la recherche de talents. Ce que nous faisons est bien plus important aux yeux de nombreux développeurs que de créer un logiciel pour une banque. Nous souhaitons que des geeks soient heureux en se réveillant le matin et qu’ils se disent Je construis aujourd’hui quelque chose que des millions de personnes utiliseront demain pour aider à changer le monde. »

La campagne Obama ne s’appuie pas trop sur les « réseaux sociaux » comme Facebook ou MySpace. Mais elle excelle dans l’utilisation du réseau pour rendre la campagne sociale dans le monde réel.

Quand je me rends sur MyBO et que je recherches les évènements qui ont lieu dans un rayon de 40 km autour de chez moi je reçois 64 réponses. On y retrouve : des groupes organisant des rencontres, des concerts, des soirées discours, des réunions aux marchés du terroir et aux fêtes foraines, des levées de fonds auxquelles participent des grands noms, des pique-niques ou des barbecues paroissiaux, des marches pour s’enregistrer sur les listes de vote, du co-voiturage, des rallyes de groupes de jeunes, des cafés organisés par des anciens de l’école… la liste est interminable. Et tout ceci juste pour le mois à venir. Chaque évènement est repéré par un petit symbole sur une carte en ligne. Trois boutons surplombent la liste et la carte : un bouton KML vert pour Google Earth, un bouton XML orange pour les flux RSS et un bouton iCAL vert pour ajouter ces dates à votre calendrier.

À droite de la carte se trouve la colonne my.BarackObama. Du haut vers le bas on retrouve Mon tableau de bord, Mon quartier, Amis, Évènements, Messages, Groupes, Levée de fonds et Mon Blog. Les six derniers sont des menus accompagnés d’un petit « + ». Déroulez ces menus et vous découvrirez 18 façons d’entrer en contact avec d’autres personnes ou de vous engager dans la campagne… voire les deux. Et malgré tout il reste encore beaucoup d’espace inutilisé. La page est conçue pour être rapide, agréable, simple et propre.

Si je me rends sur le site Web de campagne de McCain et que je recherches les évènements se déroulant dans le même rayon de 40 km autour de chez moi je reçois 16 réponses : 13 enjoignent les gens à s’engager dans des centres d’appels ou par d’autres manières et 3 concernent des fêtes organisées par des individus pour le même « jour national », chacune construite sur le même modèle.

Évidemment ces résultats sont très partiaux car le Massachusetts est non seulement un état très bleu mais c’est aussi là qu’est basé Blue State Digital.

J’ai donc refait le test pour le 85018, le code postal d’un quartier en plein centre de Phoenix : le cœur même du pays McCain. J’obtiens 23 réponses pour des évènements pour Obama et 16 pour McCain. On y retrouve la même variété pour Obama que dans les environs de Boston. Pour McCain on dirait qu’ils ont utilisé un tampon. 13 fêtes sont organisées (principalement par les gens eux-mêmes) pour le même « jour national » qu’à Boston. On dirait qu’ils sont tous sortis du même moule. Trois sont prévus à d’autres dates, parmi ceux-ci deux concernent les vétérans.

Quel est le secret de Blue State alors ? Et quelle est la part de Linux et de l’Open Source dans tout ça ? Voici la réponse de Jascha :

« Nos outils donnent la parole à la créativité des utilisateurs. Si on prend les systèmes d’organisation d’évènements par exemple. Par le passé ils étaient conçus pour qu’une association puisse mettre en ligne son calendrier officiel. C’est très bien, mais c’est loin d’être aussi intéressant que de permettre à vos supporteurs de créer leurs propres calendriers. Nous avons donc mis au point des outils dont la priorité première est d’aider les visiteurs du site à organiser une soirée, un grand ramassage d’ordures le long des routes en portant un t-shirt pour leur camp : de l’évènement le plus mondain au plus innovant. Nous voulions faciliter la création de manifestations, leur planification, augmenter leur visibilité, permettre la gestion des réponses et aider les gens à organiser leurs propres levées de fond.

Les deux services dont nous faisons le plus usage pour les évènements sont les cartographies de Google et de Yahoo ainsi que leurs API de géolocalisation. Nous utilisons votre adresse pour vous géolocaliser grâce à la longitude et la lattitude et nous mettons ces informations à profit pour vous communiquer les évènements proches de chez vous.

Nous possédons beaucoup de bases de données d’informations géographiques. Comme par exemple le centre d’un ZIP+4 désigné par sa longitude et sa lattitude. Nous rentrons également les congressional districts (NdT : zone électorale qui désigne un membre du congrès) pour y regrouper les codes postaux, les informations concernant les sondages, les tracts de sondages, les numéros des pâtés de maison… Si vous remplissez un formulaire d’inscription nous ne vous demandons pas de renseigner toutes ces informations. Si vous faites un don plus tard nous aurons votre adresse à ce moment là si vous ne souhaitez pas la donner tout de suite.

Nous travaillons avec LAMP : Linux, Apache, MySQL, PHP. Nous utilisons beaucoup de librairies et d’outils Open Source comme par exemple YUI et Ext qui sont des librairies d’interfaces utilisateur en javascript. Nous comptons parmi nous le créateur du projet Horde qui est un gros cadre de développement PHP Open Source.

On ne cherche pas à ré-inventer la roue. Par exemple, nous n’écrivons pas notre propre librairie de connexion à la base de données. Nous nous servons de ADOdb, l’une des librairies les plus populaires pour PHP, et de Python aussi. Nous utilisons PEAR, qui est la librairie d’outils PHP. Les modules PEAR nous rendent un fier service pour tout, depuis l’envoi d’e-mail à la mise en cache… On se sert aussi d’outils comme memcached et des utilitaires de surveillance Open Source.

Chez nous les flux RSS sont omniprésents : évènements, blogs… ils nous sont également utiles pour relier en interne des parties de notre propre système, comme par exemple partager des informations entre deux systèmes clients ou entre deux parties de notre système. A chaque fois que c’est possible nous tentons de construire ces points d’échange en respectant les standards. S’ils doivent être ouverts, ou si un client demande un accès direct, nous répondons : pas de problème, utilisez la librairie RSS de votre choix.

Si nous travaillons avec un outil et que nous y ajoutons une fonctionnalité importante ou que nous corrigeons un bogue, nous le partageons évidemment avec les développeurs du projet.

L’interface d’utilisation est, quant à elle, entièrement construite sur-mesure pour des organismes politiques ou à but non lucratif… ou n’importe-qui désirant s’engager dans un projet avec un but en tête. »

Alors que la campagne Obama monopolise l’attention, d’autres hackers de l’équipe initiale, celle de Dean, s’affèrent à travailler sur quelque chose que Obama et McCain ont tous les deux défendus en tant que sénateurs : une gouvernance transparente et responsable. Témoignage de Greg Elin, spécialiste des données à la Sunlight Foundation et pour tous les organismes qu’elle supporte (OpenCongress.org, Congresspedia.org, FedSpending.org, OpenSecrets.org, EarmarkWatch.org, LOUISdb.org…) :

« Presque tous nos projets sont Open Source, mais il arrive qu’on modifie un peu le code et ça prend du temps pour le publier. On n’est pas loin d’avoir convertit tous nos groupes à l’Open Source : MySQL, PostgreSQL, Apache, … La structure est rapidement adoptée : Rails, Django, Symfony…

Dernièrement je m’intéresse plus particulièrement aux scripts dynamiques, ce que j’appellerai des ensembles de données “débiter et terminer” en opposition à ce que Jeff Jonas appelle des ensembles de données entreposer et empiler. Les scripts dynamiques c’est ce qui fait Unix ! C’est à dire que chaque application a des données d’entrée et des données de sortie. Nous laissons derrière nous le monde des bases de données-créer-rapport pour entrer dans le monde des RSS en entrée et RSS en sortie.

Voici deux exemples de flux. Une base de données Sunlight, LouisDB.com, épluche le Congressional Daily Record quotidiennement, transformant son contenu en un fichier XML. Garrett Schure (développeur chez Sunlight Labs) et Josh Ruihley ont mis au point un algorithme de comptage de mot pour présenter le Mot du Jour du Congress et le microsite http://capitolwords.org, site qui date de 2001 et qui dispose d’un flux RSS, d’API et d’un widget que les gens peuvent incorporer à leur site. Louisdb.com facilite la recherche du contenu du Congressional Record. Un script est même disponible maintenant pour en faire du contenu pour Tweeter que d’autres peuvent utiliser aussi. Le deuxième exemple vient de MySociety: TheyWorkForYou. En analysant les archives quotidiennes du parlement et les votes il dresse un portrait de qui fait quoi au parlement. Et enfin, de nombreux sites s’appuient sur le travail de Josh Tauber http://govtrack.us b/c. Josh rassemble toutes les données qui ont trait aux lois votées au Congrès et les transforme en XML. Les données de Josh sont ouvertes, tout comme son code. C’est une contribution énorme. »

Et que devient Howard Dean ? Tout va bien pour lui, en 2005 il est devenu président du comité national démocratique. Son ancien site de campagne, DeanForAmerica, s’est doucement transformé en DemocracyForAmerica, qui soutient de nombreux candidats et non plus un seul. Jascha nous raconte : « Il a rassemblé toutes ces personnes, dont certaines avaient pris les rênes de leur antenne locale du parti démocrate, et les a aidé à canaliser cette énergie et cet esprit citoyen dans le but de faire élire les candidats défendant la démocratie et le progrès dans tout le pays. Ils ont fait des levées de fond. Ils ont mis en marche le bouche à oreille, coordonné les volontaire. Ici même à Boston un conseiller municipal, Sam Yoon, a emporté son siège haut la main grâce au formidable support de DFA. Tous ceux qui ont fait campagne pour Dean sont devenus des supporteurs de Yoon. »

Britt Blaser :

« Avant Dean, les hommes politiques ne savaient pas qu’Internet avait été créé par des “makers” et non pas par des “machers”, terme politique qui désigne ces personnes qui naviguent en politique grâce à leur influence, l’argent et l’intimidation. L’équipe de campagne de Dean, ses “makers”, est la graine d’une nouvelle classe d’experts en politique, une nouvelle classe qui se concentre sur les moyens et non sur la fin. Tout comme les hackers de Linux, les makers de Dean ont agi comme un guilde plutôt que comme des partisans et de la même manière ils se sentaient plus proches des personnes qui ne participaient pas à la campagne que de leurs supérieurs. Puisqu’ils sont tous volontaires, l’idée de supérieur ne signifiait pas grand chose à leurs yeux. Ils étaient à la recherche de collaborateurs en dehors de la campagne avec un objectif politique en tête. Mais les outils qu’ils ont élaborés s’accordent particulièrement bien avec les objectifs gouvernementaux puisque tout problème devient une loi après une campagne réussie pour les cœurs et les esprits et l’argent. »

Ce qui est très bien, mais est-ce suffisant. De tous les contacts que j’ai eu avec des anciens de la campagne de Dean, il y en a un qui se démarque des autres, celui avec Liza Sabater. Elle se plaignait du dernier né : CivicSpaceLabs (une création de Zack Rosen et d’autres personnes) et elle n’était pas la seule. Sa synergie avec Drupal a fait des merveilles et ce n’est pas tout.

« La vérité est qu’il n’existait aucun autre projet Open Source dont les promesses arrivaient à la cheville de celles de CivicSpaceLabs » nous dit Liza. « Et c’est là, à mes yeux, la différence fondamentale entre les élections de 2004 et de 2008. Malgré tout ce qu’on peut dire à propos de la campagne Obama, qu’elle s’appuie sur le net et qu’elle est avant-gardiste, le code du site est quand même propriétaire. Et je ne prédis pas d’ouverture du code pour que n’importe qui puisse répliquer ce qu’ils ont créé. Il en va de même d’ailleurs pour MoveOn.org, Democracy For America et même des outils d’organisations créés par le DNCC. »

Aucune des deux campagnes ne laissent une bonne impression à Phil Windley, ancien président de Utah : « Ce que je vois, c’est que le Net est perçu comme un grande média de diffusion de masse avec une tirelire intégrée. »

Greg Elin met ce déséquilibre en perspective :

« Les programmeurs et technologues qui ont grandit avec le Web et l’Open Source ont commencé à entrer dans l’arène politique, ou e-politique, ces dernières années et ils amènent avec eux les outils et les pratiques de l’Open Source et du Web 2.0. Ils collaborent, et des fois font concurrence, des technologues déjà en place qui était souvent des activistes qui ont appris à se servir d’abord des feuilles de calculs, des bases de données et de la publication et ensuite du Web pour faire passer leurs messages. Nous assistons donc à une geek-i-fication générale, des campagnes aux groupes gouvernementaux et même du gouvernement lui-même. Plus d’Open Source. Plus de structure. Plus de communication entre les développeurs. C’est encore loin d’être beau et lisse, mais une chose est sûr, on y arrive progressivement. Le point de non retour a été atteint maintenant en politique, la seule question qui reste en suspend concerne l’impact que cela aura. »

Dans une démocratie les candidats ne devraient pas être vendus comme des produits ou des marques. L’image compte, mais elle reste superficielle. La substance de la démocratie est ce que les hackers ont appris sur la durée : la liberté de faire, la liberté d’être, l’ouverture, la générosité et la responsabilité constructive. Le meilleur code n’est pas celui qui gagne, c’est celui qui marche. Il nous faut poursuivre cet effort maintenant et il nous faut l’enseigner aussi.

Notes

[1] Crédit photo : Marcn (Creative Commons By)




L’influence de Microsoft à l’école n’est-elle pas disproportionnée ?

Lettre aux enseignants - Offre Microsoft Office 2007Les enseignants doivent se sentir flattés d’un tel intérêt. En effet, en moins de six mois voici la troisième lettre qui leur est adressée par la société américaine Microsoft, et comme les précédentes missives nominativement dans leurs casiers de la salle des professeurs (vous en trouverez une image scannée en fin d’article).

Quel que soit son enrobage pédagogique cautionné par des associations d’enseignants complices de la manœuvre, le fond du sujet est toujours le même : la suite bureautique Microsoft Office 2007. On ne s’en cache pas du reste puisque l’objet de la lettre est texto : « Téléchargez Office 2007 chez vous sans frais ! ».

À croire que malgré la véritable machine de guerre déployée elle peine à être adoptée. Il faut dire qu’il n’y a pas que cette suite en jeu. Tapis derrière elle, c’est le nouveau système d’exploitation Windows Vista que Microsoft voudrait voir massivement installé dans les établissements scolaires (jackpot financier à la clé), alors que, répétons-le, absolument rien ne le justifie. Et encore plus loin c’est d’un véritable choix « culturel » qu’il s’agit. Souhaitez-vous que vos logiciels, formats, ressources, pratiques, échanges… soient majoritairement libres ou propriétaires ?

Vous connaissez notre réponse. Voici celle de Microsoft et ses acolytes avec cette nouvelle lettre aux enseignants qui a le mérite de synthétiser et d’exposer au grand jour toute la stratégie Microsoft en la matière. Nous vous proposons ci-dessous une petite lecture décryptée commentée. Pour finir pour nous demander en guise de conclusion si nous devons ou pouvons y faire quelque chose.

En route vers le B2i !

Dans la famille « Microsoft à l’Éducation Nationale », j’ai nommé la justification pédagogique…

C’est par ce slogan lancé par une charmante jeune femme que s’ouvre la lettre. Il est à noter que le Brevet Informatique et Internet (B2i) existe depuis plus de sept ans déjà mais qu’à cela ne tienne, allons vers… et allons-y gaiement et en confiance puisque Microsoft est justement là pour nous accompagner et nous faciliter la vie numérique.

Il y aurait beaucoup à dire d’ailleurs sur ce B2i, véritable fausse bonne idée de l’Éducation Nationale. Moins on a d’élèves et plus il est vanté, jusqu’à se montrer dithyrambique lorsque l’on a n’a plus d’élèves du tout ! Quitte au passage à donner mauvaise conscience aux collègues qui se permettraient de montrer quelques signes de perplexité quant à sa mise en application effective, accusés alors un peu vite de faire de la « résistance au changement ».

Il n’empêche que le B2i est là, qu’il y a désormais obligation de le valider, par exemple pour obtenir son Brevet en fin de collège, et qu’on doit donc faire avec et en l’état pour le moment. Et c’est plutôt bien vu de la part de Microsoft que de choisir cet angle d’attaque.

Depuis le mois de juin, vous avez le droit de télécharger sans frais Microsoft Office 2007 sur www.officepourlesenseignants.fr, comme tous les membres du corps enseignant des écoles, des collèges et des lycées, conformément à l’Accord cadre signé entre Microsoft et le Ministère de l’Éducation Nationale.

Dans la famille « Microsoft à l’Éducation Nationale », j’ai nommé la justification contractuelle…

Tout ce passage est rédigé en gros et gras. On notera qu’on prend bien soin de ne pas prononcer le mot gratuit, le droit conféré est un « droit pour une installation sur votre PC à domicile pour votre usage professionnel ». Drôle de licence que voilà, quid d’un ordinateur portable qui sortirait du domicile et quid d’un enseignant qui souhaiterait ponctuellement en faire un usage non professionnel ?

En tout cas après le B2i, et c’est toujours aussi bien vu de la part de Microsoft, on va s’appuyer sur ce fameux Accord cadre contracté en décembre 2003 et reconduit depuis. Je vous invite à le parcourir dans son ensemble mais si l’on devait n’en retenir qu’une phrase ce pourrait être la suivante, qui apparait à même le très officiel site Educnet : « L’Accord cadre a pour objectif de rendre plus homogènes et d’actualiser les systèmes d’exploitation du parc de PC des écoles, collèges et lycées, en favorisant l’accès à la dernière version de la suite bureautique Microsoft Office. » On ne peut être plus clair, la mise à jour vers Vista trouvant ici un magnifique alibi. Et tant pis pour le logiciel libre.

Rapport Becta en main, il pourrait être facile de critiquer cette prise de position discutable et arbitraire du Ministère de l’Éducation Nationale. Sauf qu’on ne peut l’accuser frontalement de favoritisme puisqu’il existe d’autres Accord cadres (Apple, IBM, Intel, Sun…) dont un très particulier que l’AFUL présentait ainsi dans un récent communiqué : « Le 28 octobre 1998, le Ministère de l’Éducation nationale signait un accord avec l’Association Francophone des Utilisateurs de Linux et des Logiciels Libres (AFUL), accord cadre permettant le développement de l’usage des technologies de l’information et de la communication auprès de l’ensemble des établissements d’enseignement français et des enseignants en ce qui concerne l’emploi des ressources informatiques libres et la disponibilité de ressources commerciales liées à l’informatique libre. Depuis dix ans, conséquences directes de l’accord cadre ou souvent simplement facilitées par son existence, de très nombreuses réalisations ont vu le jour dans ce secteur capital qu’est l’éducation, et les logiciels et les ressources libres y sont désormais bien présents, à tous les niveaux. »

Soit. L’AFUL met en valeur et c’est bien normal ce qui à l’époque constituait symboliquement une magnifique reconnaissance pour le logiciel libre à l’école. Il n’empêche qu’on se retrouve selon moi dix ans plus tard quelque peu piégé par la co-présence de ces deux Accord cadres que Microsoft fait bien plus fructifier que l’AFUL. Si ce constat est partagé, il conviendrait de voir ce que l’on peut faire ensemble pour remédier à cela.

Mais poursuivons la lecture de la lettre…

L’association d’enseignants Projetice vous propose plus de 120 formations réparties dans les Académies pour échanger et prendre en main des applications pratiques d’usages pédagogiques des TICE autour notamment des nouvelles fonctionnalités offertes par Microsoft Office 2007.
http://www.projetice.fr/formations/formations_office.aspx

Dans la famille « Microsoft à l’Éducation Nationale », j’ai nommé l’association d’enseignants qui prêchent la bonne parole sur le terrain…

Et revoici l’association d’enseignants Projetice. J’en avais parlé l’année dernière sans que personne ne vienne m’apporter la contradiction sauf… Thierry de Vulpillières, directeur des partenariats éducation chez Microsoft France ! Mes hypothèses non encore infirmées étaient les suivantes : Projetice a été créée sous l’impulsion de Microsoft, Projetice est quasi exclusivement financée par Microsoft, et les prestations de ses membres ne sont pas bénévoles et donnent lieu à rémunération et couvertures de frais par l’association et donc indirectement par Microsoft.

Et parmi les prestations il y a donc désormais ces « plus de 120 formations ». Quelle force de frappe ! Un véritable réseau parallèle au très officielle plan de formation continue de l’Education Nationale. Une aubaine pour le Ministère qui cherche à faire des économies à tous les étages (dont celui de la formation continue justement). Et comme ce n’est pas Microsoft qui entre dans les établissements scolaires mais de vrais collègues, les portes se trouvent être bien entendu grandes ouvertes.

J’aimerais beaucoup recueillir ici-même quelques témoignages d’enseignants qui ont eu l’honneur d’assister à l’une des ces formations. Parce que là encore on mélange allègrement dans le libellé les « pratiques d’usages pédagogiques des TICE » avec les « nouvelles fonctionnalités offertes par Microsoft Office 2007 ». On va finir par croire que l’un ne va pas sans l’autre ! La confusion venant de fait que les formateurs endossent simultanément leurs habits d’enseignants et de « VRP Microsoft ». Alors réelle formation pédagogique ou « publi-information » qui ne veut pas dire son nom ?

Les éditions Nathan vous propose l’ouvrage « Maîtriser les fonctions indispensables d’Office 2007 » qui permet une prise en main rapide et simplifiée de la nouvelle suite bureautique Office 2007. Nathan s’associe également à une offre très attractive d’équipement des établissements disponible sur le site www.nathan.fr/Office2007

Dans la famille « Microsoft à l’Éducation Nationale », j’ai nommé le partenaire éditeur scolaire…

Il fallait bien aussi un grand éditeur. Je note au passage qu’avec le titre proposé, « Maîtriser les fonctions indispensables d’Office 2007 », le rôle de Nathan ici est bien moins celui d’un éditeur scolaire que celui d’un éditeur informatique. Sachant que pour l’un comme pour l’autre, nous avons d’autres modèles à proposer comme par exemple Génération 5 pour le scolaire et… Framabook pour l’informatique 😉

Nathan nous offre lui aussi son petit service autour du B2i. Pas très conforme à son esprit du reste puisqu’il nous est proposé en ligne « d’évaluer et valider les connaissances de vos élèves » pour au final « délivrer l’attestation de réussite à chaque élève ». On se retrouve en fait avec une sorte de QCM que le Café Pédagogique devrait tout particulièrement apprécier. On remarquera par ailleurs que le site n’est pas non plus très conforme avec les standards du Web puisque « Attention, le site B2i est consultable uniquement sur PC et utlisant le navigateur Explorer ».

Curiosphere.tv (la web educative de France 5) vous propose désormais plus d’une centaine de vidéos à usage pédagogique et notamment à travers le site thématique consacré au B2i « tutoriels vidéos, se former au B2i »
http://www.curiosphere.tv/ressource/19636-tutoriels-video-se-former-au-b2i

Dans la famille « Microsoft à l’Éducation Nationale », j’ai nommé le partenaire institutionnel…

J’ai eu également déjà l’occasion de consacrer un billet (puis un deuxième) à Curiosphere.tv. La principale critique venant du fait qu’à parcourir les vidéos proposées, on hésitait entre formation B2i et formation aux logiciels Microsoft, l’un servant un peu de couverture à l’autre.

Comprenez-vous pourquoi par exemple la vidéo titrée « Tutoriel Word : modifier un schéma » se trouve être placée dans la catégorie « B2i > Adopter une attitude responsable » ? Et tout est à l’avenant. On participe à la réalisation de vidéos de promotion des produits Microsoft et après on les place aux forceps, un peu n’importe comment, dans les « cases B2i ». À trop vouloir tirer sur la corde de la justification pédagogique, elle finit par casser…

Mais arrêtons-nous quelques instants plus en détail sur ces vidéos. Si vous avez huit minutes, prenez le temps de regarder « Tutoriel Word : créer une frise chronologique » où un virtuose de Word vient nous montrer effectivement comment réaliser de but en blanc un tel objet. C’est franchement spectaculaire (et je ne crois pas qu’OpenOffice.org 3.0 dispose d’une telle fonctionnalité).

Le problème est double. D’abord on peut légitimement se demander si le jeu en vaut la chandelle pour un enseignant qui, si il se met à la tâche, passera certainement plus de temps que notre virtuose. Sans oublier que peut-être, après tout, notre enseignant était satisfait des frises qu’il proposait à ses élèves « du temps d’avant Microsoft Office 2007 ». Il s’agit donc déjà de faire la part des choses entre le gadget aussi clinquant soit-il et ses réels besoins.

Mais admettons qu’il estime que cette « frise qui fait jolie » mérite d’être insérée dans ses cours. On se retrouve alors face à un nouveau problème et non des moindres. En effet, il n’a pas, me semble-t-il, été prévu de mutualiser, échanger, éditer, modifier… collaborativement les ressources « pédagogiques » ainsi produites. Et ce n’est malheureusement guère étonnant car Microsoft n’a ni expérience ni culture en la matière. Ses formats de fichiers sont fermés et non interopérables, ses produits et ses ressources ne sont pas sous licences libres, et surtout la société ne s’est jamais appuyée sur des communautés d’utilisateurs pour « créer ensemble ». Elle n’a que des clients, et c’est aussi pour cela qu’elle se trouve parfois mal à l’aise voire parfois carrément en porte-à-faux lorsqu’elle aborde les rives du secteur éducatif.

Il n’y qu’à visiter les sites de Projetice et du Café Pédagogique, tous deux réalisés avec le concours de Microsoft, pour s’en convaincre. Les possibilités d’interactions avec le visiteur y sont minimales. Le plus emblématique étant le site du fameux Forum des enseignants innovants de Rennes qui « visait à faire connaître et à valoriser les nombreux projets pédagogiques innovants ». Que reste-t-il aujourd’hui sur le site de la centaine de projets sélectionnés ? Rien. Personne n’a pensé qu’il pouvait être a posteriori opportun de les mettre à disposition des collègues internautes qui n’ont pu se rendre à la manifestation.

Parce que c’est bien gentil mais pourquoi devrais-je réinventer la roue et créer de A à Z ma propre « frise qui fait jolie » ? Pourquoi ne me propose-t-on pas le document qui a permis de réaliser cette frise ? Cela me permettrait de ne pas démarrer à vide, de mieux comprendre comment le virtuose s’y est pris et surtout de pouvoir la modifier pour l’adapter à mes besoins. En lien et place on trouve sous la vidéo le texte suivant : « Extrait de : Office pour les enseignants – Word 2007 © 2008 Microsoft Corporation. Tous droits réservés. » qui n’invite pas forcément à la collaboration.

On remarquera que le site de Microsoft dédiée à l’opération propose lui aussi la même vidéo. La seule différence c’est la possibilité de télécharger la vidéo (au format fermé .wmv) mais aussi de… « l’envoyer à un ami » ! Que la dimension collective se résume à prévenir un ami en dit long sur l’état d’esprit du projet.

J’ajoute que la mise à disposition du document source ayant permis de créer la « frise qui fait jolie » est une condition nécessaire mais non suffisante à une collaboration optimale. Il conviendrait en effet d’en proposer un format ouvert et pérenne (ce qui n’est malheureusement pas encore le cas du .docx) et de placer le tout sous une licence qui favorise le partage. Et puis, si l’on veut vraiment bien faire les choses, pourquoi ne pas regrouper toutes ces ressources sur un site dédié permettant aux enseignants de réellement communiquer avec leurs pairs ? Vous verrez qu’alors des synergies apparaîtront spontanément entre les collègues et des projets insoupçonnés se mettront en place.

C’est toute la différence entre la culture du logiciel libre et celle du logiciel propriétaire. Et c’est ici je crois que le logiciel libre a beaucoup à apporter à l’école. Ce que la société Microsoft, malgré sa pléthore de moyens et ses alliés de circonstance, est bien incapable d’imaginer, enfermée qu’elle est par son modèle économique traditionnel. Aujourd’hui, en l’absence de toutes ces considérations, la « frise qui fait jolie » demeure au niveau de la pure poudre aux yeux. Ce n’est plus de la pédagogie, c’est du simple marketing.

Réalisé par un collectif d’enseignants, le Café Pédagogique publie chaque jour « l’Expresso », un flash d’information sur l’éducation. Le « Café Mensuel » partage entre profs les « bonnes pratiques » et les ressources pédagogiques nouvelles dans votre discipline. Vous êtes déjà plus de 180.000 abonnés à ces éditions. Le « Guide de Web pédagogique » vous donne les clés pour faire entrer les TICE dans la classe. Le « Guide du BAC et du Brevet » aidera vos élèves dans leurs révisions.
http://www.cafepedagogique.net/lesdossiers/Pages/Entrezlestice.aspx

Dans la famille « Microsoft à l’Éducation Nationale », j’ai nommé l’association d’enseignants qui prêchent massivement la bonne parole sur internet…

Je me demande si parmi « les clés pour faire entre les TICE dans la classe », on ne trouve pas aussi celles de Microsoft.

Toujours est-il que le Café Pédagogique a lui aussi fait l’objet d’un billet dédié tout récemment. Je n’y reviens pas si ce n’est pour dire que la seule réponse obtenue fut un mail privé. La porte est fermée, le débat public refusé et je le regrette.

En vous souhaitant une bonne prise en main de ces offres, nous vous prions d’agréer, Madame, Monsieur, l’expression de nos respectueuses salutations. Eric le Marois, Directeur Éducation et Recherche, Microsoft France.

Avec en bas de page, les logos de tous les partenaires (dont celui de Microsoft qui joue ici les modestes en se fondant avec les autres).

Voilà. Qu’ai-je voulu dire ici quitte à radoter pour la énième fois et irriter le lecteur avec mes idées fixes ?

Tout d’abord montrer la solidité et l’intelligence de la toile tissée par Microsoft au sein de l’Éducation Nationale. Je félicite sincèrement Thierry de Vulpillières pour cette politique d’entrisme menée de main de maître en fort peu de temps. L’école ayant de nombreux chats à fouetter, des difficultés budgétaires et peu d’expérience en matière « d’intelligence économique », elle ne pouvait clairement et momentanément pas lutter, surtout si l’on se permet de montrer patte blanche via un réseau de partenaires et d’associations d’enseignants financièrement dépendants du bailleur de fonds. Franchement, et n’en déplaisent à mes détracteurs, il est difficile, quand on regarde l’envergure et l’ambition de l’opération, de considérer Microsoft comme une société commerciale comme les autres. Et puis d’abord quelle est sa réelle légitimité pour venir nous parler de pédagogie ?

Mais je tenais également à témoigner, et ceci n’engage que moi, de la faiblesse actuelle de ceux qui souhaitent faire une plus juste place aux logiciels libres à l’école (« culture du libre » incluse !). Oui, comme le dit l’AFUL, et ce n’est pas le réseau Framasoft qui va la contredire, « de très nombreuses réalisations ont vu le jour dans ce secteur capital qu’est l’éducation, et les logiciels et les ressources libres y sont désormais bien présents, à tous les niveaux ». Mais oui aussi ces réalisations, aussi nombreuses soient-elles, sont éparses, pas encore assez structurées et organisées, et faiblement soutenues par l’Institution. Oui encore cette trop forte présence et prégnance de Microsoft à l’école freine non seulement le logiciel libre mais une certaine idée que l’on se fait des TICE. Et oui surtout nous ne sommes pas capable aujourd’hui de proposer des actions similaires d’une telle cohérence et d’une telle dimension. Non pas, comme certains aimeraient le croire, pour « bouter Microsoft hors de l’école », mais simplement pour faire entendre notre voix et, parce que l’indifférence amène l’ignorance, offrir ainsi à une majorité d’enseignants les conditions du choix. Un choix qui, nous le savons, va bien au delà de la praticité d’usage de tel ou tel logiciel.

Pouvons-nous adresser un courrier personnalisé dans le casier de chaque enseignant ? Pouvons nous proposer plus de cent formations non pas aux nouvelles fonctionnalités de la dernière version d’OpenOffice.org mais plutôt à l’utilisation pédagogique d’une suite bureautique illustrée par exemple avec OpenOffice.org ? (formations que l’Accord cadre avec l’AFUL autorisent pleinement du reste) Pouvons-nous, comme on nous y invite, réaliser plus d’une centaine de vidéos didactiques ? Pouvons-nous enfin communiquer d’un coup avec des centaines de milliers d’enseignants comme peut le faire le Café Pédagogique avec les produits de son partenaire ? (ce qui serait pratique par exemple pour diffuser le rapport Becta).

Malheureusement non. Rien nous oblige bien entendu à vouloir reproduire à l’identique cette manière de faire. Mais force est de constater qu’aujourd’hui nous ne pouvons rivaliser. On peut bien sûr décider de ne rien faire de plus que ce l’on fait actuellement (ne serait-ce que parce qu’on ne peut en faire plus) et s’en remettre à la sagesse et à la clairvoyance de nos collègues en se disant que jour après jour, dans l’ombre du terrain, le logiciel libre et son état d’esprit avancent et finiront par atteindre une telle masse critique qu’on ne pourra plus feindre de les ignorer.

Certes, mais on peut aussi être plus volontariste, surtout si l’on accepte le fait que ce qui est exposé dans cet article est potentiellement à même de nous faire reculer de dix bonnes nouvelles années ! Ce recul étant bien moins celui des logiciels que celui des mentalités. Si cela ne tenait qu’à moi, et si j’avais la moindre légitimité pour le faire, j’irai même jusqu’à convoquer d’urgence un… « Grenelle du Logiciel Libre dans l’Éducation » !

C’est une boutade, mais je crois sincèrement que, la balle étant dans notre camp, il y a là prétexte à se mettre en mouvement et unir nos quelques forces. Partout ailleurs dans l’administration publique, le logiciel libre est évalué et bien souvent adopté. Pourquoi en irait-il autrement à l’Éducation Nationale ? Parce qu’avec la complicité passive du Ministère, Microsoft aura fait acte héroïque de résistance en compagnie de quelques enseignants que le court terme aveugle ?

Je ne puis m’y résoudre et vous pose pour conclure la question suivante : Ce billet n’est-il qu’une nouvelle déclinaison de l’obsession paranoïaque d’un adepte de la théorie du complot ou bien au contraire sommes-nous face à un réel problème qui nécessite de réelles réponses ?




Internet et Google vont-ils finir par nous abrutir ?

Striatic - CC byVoici la traduction d’un article assez passionnant qui a connu un bel impact dans la sphère anglophone au moment de sa mise en ligne cet été. Son titre choc Is Google Making Us Stupid? est un peu trompeur car il s’agit bien moins de charger l’emblématique Google que de s’interroger sur les transformations profondes induites par internet et les nouvelles technologies, transformations qui peuvent aller jusqu’à modifier nos perceptions, nos modes de pensée, voire même notre cerveau.

Prenons le Framablog par exemple. Il possède, merci pour lui, d’assez bonnes statistiques d’audience globales, mais lorsque l’on se penche sur la moyenne du temps passé par page, c’est la grosse déprime car cela ne dépasse que trop rarement les deux minutes, intervalle qui ne vous permet généralement pas d’y parcourir les articles du début à la fin. En décidant d’en achever la lecture bien avant la conclusion, peut-on affirmer que plus de la moitié des visiteurs ne les trouvent pas intéressants ? C’est fort probable.

Mais il y a peut-être aussi une autre explication. Les articles de ce blog sont souvent relativement « longs » et par la-même nécessitent de trouver un minimum de temps disponible et de concentration. Ils nous demandent de fixer notre attention et d’interrompre notre surf internet en coupant momentanément le contact avec le flot continu d’informations dont nous sommes abreuvés.

Allons plus loin avec l’objet livre (que nous défendons d’ailleurs avec force et modestie sur Framabook). Lit-on moins de livres au fur et à mesure qu’Internet prend de plus en plus de place dans nos vies ? Et surtout les lit-on avec les mêmes facilités qu’auparavant ? Et qu’en est-il de la jeune génération ?[1]

Nicholas Carr, partant du constat qu’il n’a plus la même patience que par le passé vis-à-vis de la lecture « calme et profonde », revisite quelques dates marquantes de l’Histoire (le passage de l’oral à l’écrit, l’apparition de l’imprimerie, de la machine à écrire, du taylorisme…) pour nous inviter à une réflexion autour de l’influence des technologies et leurs systèmes sur rien moins que notre manière de penser et de percevoir le monde.

Vous vous sentez vous aussi atteint par le symptôme ? Ne vous laissez pas abattre ! Oubliez l’espace d’un instant SMS, MSN, Facebook, Twitter… et sérendipité, en réussissant l’exploit de parcourir ce billet jusqu’à son terme 😉

Est-ce que Google nous rend idiots ?

Is Google Making Us Stupid?

Nicholas Carr – juin 2008 – The Atlantic
(Traduction Framalang : Penguin, Olivier et Don Rico)

« Dave, arrête. Arrête, s’il te plaît. Arrête Dave. Vas-tu t’arrêter, Dave ? » Ainsi le super-ordinateur HAL suppliait l’implacable astronaute Dave Bowman dans une scène célèbre et singulièrement poignante à la fin du film de Stanley Kubrick 2001, l’odyssée de l’espace. Bowman, qui avait failli être envoyé à la mort, au fin fond de l’espace, par la machine détraquée, est en train de déconnecter calmement et froidement les circuits mémoires qui contrôlent son « cerveau » électronique. « Dave, mon esprit est en train de disparaître », dit HAL, désespérément. « Je le sens. Je le sens. »

Moi aussi, je le sens. Ces dernières années, j’ai eu la désagréable impression que quelqu’un, ou quelque chose, bricolait mon cerveau, en reconnectait les circuits neuronaux, reprogrammait ma mémoire. Mon esprit ne disparaît pas, je n’irai pas jusque là, mais il est en train de changer. Je ne pense plus de la même façon qu’avant. C’est quand je lis que ça devient le plus flagrant. Auparavant, me plonger dans un livre ou dans un long article ne me posait aucun problème. Mon esprit était happé par la narration ou par la construction de l’argumentation, et je passais des heures à me laisser porter par de longs morceaux de prose. Ce n’est plus que rarement le cas. Désormais, ma concentration commence à s’effilocher au bout de deux ou trois pages. Je m’agite, je perds le fil, je cherche autre chose à faire. J’ai l’impression d’être toujours en train de forcer mon cerveau rétif à revenir au texte. La lecture profonde, qui était auparavant naturelle, est devenue une lutte.

Je crois savoir ce qui se passe. Cela fait maintenant plus de dix ans que je passe énormément de temps sur la toile, à faire des recherches, à surfer et même parfois à apporter ma pierre aux immenses bases de données d’Internet. En tant qu’écrivain, j’ai reçu le Web comme une bénédiction. Les recherches, autrefois synonymes de journées entières au milieu des livres et magazines des bibliothèques, s’effectuent désormais en un instant. Quelques recherches sur Google, quelques clics de lien en lien et j’obtiens le fait révélateur ou la citation piquante que j’espérais. Même lorsque je ne travaille pas, il y a de grandes chances que je sois en pleine exploration du dédale rempli d’informations qu’est le Web ou en train de lire ou d’écrire des e-mails, de parcourir les titres de l’actualité et les derniers billets de mes blogs favoris, de regarder des vidéos et d’écouter des podcasts ou simplement de vagabonder d’un lien à un autre, puis à un autre encore. (À la différence des notes de bas de page, auxquelles on les apparente parfois, les liens hypertextes ne se contentent pas de faire référence à d’autres ouvrages ; ils vous attirent inexorablement vers ces nouveaux contenus.)

Pour moi, comme pour d’autres, le Net est devenu un media universel, le tuyau d’où provient la plupart des informations qui passent par mes yeux et mes oreilles. Les avantages sont nombreux d’avoir un accès immédiat à un magasin d’information d’une telle richesse, et ces avantages ont été largement décrits et applaudis comme il se doit. « Le souvenir parfait de la mémoire du silicium », a écrit Clive Thompson de Wired, “peut être une fantastique aubaine pour la réflexion.” Mais cette aubaine a un prix. Comme le théoricien des média Marshall McLuhan le faisait remarquer dans les années 60, les média ne sont pas uniquement un canal passif d’information. Ils fournissent les bases de la réflexion, mais ils modèlent également le processus de la pensée. Et il semble que le Net érode ma capacité de concentration et de réflexion. Mon esprit attend désormais les informations de la façon dont le Net les distribue : comme un flux de particules s’écoulant rapidement. Auparavant, j’étais un plongeur dans une mer de mots. Désormais, je fends la surface comme un pilote de jet-ski.

Je ne suis pas le seul. Lorsque j’évoque mes problèmes de lecture avec des amis et des connaissances, amateurs de littérature pour la plupart, ils me disent vivre la même expérience. Plus ils utilisent le Web, plus ils doivent se battre pour rester concentrés sur de longues pages d’écriture. Certains des bloggeurs que je lis ont également commencé à mentionner ce phénomène. Scott Karp, qui tient un blog sur les média en ligne, a récemment confessé qu’il avait complètement arrêté de lire des livres. « J’étais spécialisé en littérature à l’université et je passais mon temps à lire des livres », écrit-il. « Que s’est-il passé ? » Il essaie de deviner la réponse : « Peut-être que je ne lis plus que sur Internet, non pas parce que ma façon de lire a changé (c’est à dire parce que je rechercherais la facilité), mais plutôt parce que ma façon de PENSER a changé ? »

Bruce Friedman, qui bloggue régulièrement sur l’utilisation des ordinateurs en médecine, décrit également la façon dont Internet a transformé ses habitudes intellectuelles. « J’ai désormais perdu presque totalement la capacité de lire et d’absorber un long article, qu’il soit sur le Web ou imprimé », écrivait-il plus tôt cette année. Friedman, un pathologiste qui a longtemps été professeur l’école à de médecine du Michigan, a développé son commentaire lors d’une conversation téléphonique avec moi. Ses pensées, dit-il, ont acquis un style « staccato », à l’image de la façon dont il scanne rapidement de petits passages de texte provenant de multiples sources en ligne. « Je ne peux plus lire Guerre et Paix », admet-il. « J’ai perdu la capacité de le faire. Même un billet de blog de plus de trois ou quatre paragraphes est trop long pour que je l’absorbe. Je l’effleure à peine. »

Les anecdotes par elles-mêmes ne prouvent pas grand chose. Et nous attendons encore des expériences neurologiques et psychologiques sur le long terme, qui nous fourniraient une image définitive sur la façon dont Internet affecte nos capacités cognitives. Mais une étude publiée récemment sur les habitudes de recherches en ligne, conduite par des spécialistes de l’université de Londres, suggère que nous assistons peut-être à de profonds changements de notre façon de lire et de penser. Dans le cadre de ce programme de recherche de cinq ans, ils ont examiné des traces informatiques renseignant sur le comportement des visiteurs de deux sites populaires de recherche, l’un exploité par la bibliothèque britannique et l’autre par un consortium éducatif anglais, qui fournissent un accès à des articles de journaux, des livres électroniques et d’autres sources d’informations écrites. Ils ont découvert que les personnes utilisant ces sites présentaient « une forme d’activité d’écrémage », sautant d’une source à une autre et revenant rarement à une source qu’ils avaient déjà visitée. En règle générale, ils ne lisent pas plus d’une ou deux pages d’un article ou d’un livre avant de « bondir » vers un autre site. Parfois, ils sauvegardent un article long, mais il n’y a aucune preuve qu’ils y reviendront jamais et le liront réellement. Les auteurs de l’étude rapportent ceci :

Il est évident que les utilisateurs ne lisent pas en ligne dans le sens traditionnel. En effet, des signes montrent que de nouvelles formes de « lecture » apparaissent lorsque les utilisateurs « super-naviguent » horizontalement de par les titres, les contenus des pages et les résumés pour parvenir à des résultats rapides. Il semblerait presque qu’ils vont en ligne pour éviter de lire de manière traditionnelle.

Grâce à l’omniprésence du texte sur Internet, sans même parler de la popularité des textos sur les téléphones portables, nous lisons peut-être davantage aujourd’hui que dans les années 70 ou 80, lorsque la télévision était le média de choix. Mais il s’agit d’une façon différente de lire, qui cache une façon différente de penser, peut-être même un nouveau sens de l’identité. « Nous ne sommes pas seulement ce que nous lisons », dit Maryanne Wolf, psychologue du développement à l’université Tufts et l’auteur de « Proust et le Calamar : l’histoire et la science du cerveau qui lit. ». « Nous sommes définis par notre façon de lire. » Wolf s’inquiète que le style de lecture promu par le Net, un style qui place « l’efficacité » et « l’immédiateté » au-dessus de tout, puisse fragiliser notre capacité pour le style de lecture profonde qui a émergé avec une technologie plus ancienne, l’imprimerie, qui a permis de rendre banals les ouvrages longs et complexes. Lorsque nous lisons en ligne, dit-elle, nous avons tendance à devenir de « simples décodeurs de l’information ». Notre capacité à interpréter le texte, à réaliser les riches connexions mentales qui se produisent lorsque nous lisons profondément et sans distraction, reste largement inutilisée.

La lecture, explique Wolf, n’est pas une capacité instinctive de l’être humain. Elle n’est pas inscrite dans nos gènes de la même façon que le langage. Nous devons apprendre à nos esprits comment traduire les caractères symboliques que nous voyons dans un langage que nous comprenons. Et le médium ou toute autre technologie que nous utilisons pour apprendre et exercer la lecture joue un rôle important dans la façon dont les circuits neuronaux sont modelés dans nos cerveaux. Les expériences montrent que les lecteurs d’idéogrammes, comme les chinois, développent un circuit mental pour lire très différent des circuits trouvés parmi ceux qui utilisent un langage écrit employant un alphabet. Les variations s’étendent à travers de nombreuses régions du cerveau, incluant celles qui gouvernent des fonctions cognitives essentielles comme la mémoire et l’interprétation des stimuli visuels et auditifs. De la même façon, nous pouvons nous attendre à ce que les circuits tissés par notre utilisation du Net seront différents de ceux tissés par notre lecture des livres et d’autres ouvrages imprimés.

En 1882, Friedrich Nietzsche acheta une machine à écrire, une « Malling-Hansen Writing Ball » pour être précis. Sa vue était en train de baisser, et rester concentré longtemps sur une page était devenu exténuant et douloureux, source de maux de têtes fréquents et douloureux. Il fut forcé de moins écrire, et il eut peur de bientôt devoir abandonner. La machine à écrire l’a sauvé, au moins pour un temps. Une fois qu’il eut maîtrisé la frappe, il fut capable d’écrire les yeux fermés, utilisant uniquement le bout de ses doigts. Les mots pouvaient de nouveau couler de son esprit à la page.

Mais la machine eut un effet plus subtil sur son travail. Un des amis de Nietzsche, un compositeur, remarqua un changement dans son style d’écriture. Sa prose, déjà laconique, devint encore plus concise, plus télégraphique. « Peut-être que, grâce à ce nouvel instrument, tu vas même obtenir un nouveau langage », lui écrivit cet ami dans une lettre, notant que dans son propre travail ses « pensées sur la musique et le langage dépendaient souvent de la qualité de son stylo et du papier ».

« Tu as raison », répondit Nietzsche , « nos outils d’écriture participent à l’éclosion de nos pensées ». Sous l’emprise de la machine, écrit le spécialiste allemand des médias Friedrich A. Kittler, la prose de Nietzsche « est passée des arguments aux aphorismes, des pensées aux jeux de mots, de la rhétorique au style télégraphique ».

Le cerveau est malléable presque à l’infini. On a longtemps cru que notre réseau mental, les connexions denses qui se forment parmi nos cent milliards et quelques de neurones, sont largement établis au moment où nous atteignons l’âge adulte. Mais des chercheurs du cerveau ont découvert que ce n’était pas le cas. James Olds, professeur de neurosciences qui dirige l’institut Krasnow pour l’étude avancée à l’université George Mason, dit que même l’esprit adulte « est très plastique ». Les cellules nerveuses rompent régulièrement leurs anciennes connexions et en créent de nouvelles. « Le cerveau », selon Olds, « a la capacité de se reprogrammer lui-même à la volée, modifiant la façon dont il fonctionne. »

Lorsque nous utilisons ce que le sociologue Daniel Bell appelle nos « technologies intellectuelles », les outils qui étendent nos capacités mentales plutôt que physiques, nous empruntons inéluctablement les qualités de ces technologies. L’horloge mécanique, qui est devenu d’utilisation fréquente au 14ème siècle, fournit un exemple frappant. Dans « Technique et Civilisation », l’historien et critique culturel Lewis Mumford décrit comment l’horloge « a dissocié le temps des événements humains et a contribué à créer la croyance en un monde indépendant constitué de séquences mathématiquement mesurables ». La « structure abstraite du découpage du temps » est devenue « le point de référence à la fois pour l’action et les pensées ».

Le tic-tac systématique de l’horloge a contribué à créer l’esprit scientifique et l’homme scientifique. Mais il nous a également retiré quelque chose. Comme feu l’informaticien du MIT Joseph Weizenbaum l’a observé dans son livre de 1976, « Le pouvoir de l’ordinateur et la raison humaine : du jugement au calcul », la conception du monde qui a émergé de l’utilisation massive d’instruments de chronométrage « reste une version appauvrie de l’ancien monde, car il repose sur le rejet de ces expériences directes qui formaient la base de l’ancienne réalité, et la constituaient de fait. ». En décidant du moment auquel il faut manger, travailler, dormir et se lever, nous avons arrêté d’écouter nos sens et commencé à nous soumettre aux ordres de l’horloge.

Le processus d’adaptation aux nouvelles technologies intellectuelles est reflété dans les métaphores changeantes que nous utilisons pour nous expliquer à nous-mêmes. Quand l’horloge mécanique est arrivée, les gens ont commencé à penser que leur cerveau opérait « comme une horloge ». Aujourd’hui, à l’ère du logiciel, nous pensons qu’il fonctionne « comme un ordinateur ». Mais les changements, selon la neuroscience, dépassent la simple métaphore. Grâce à la plasticité de notre cerveau, l’adaptation se produit également au niveau biologique.

Internet promet d’avoir des effets particulièrement profonds sur la cognition. Dans un article publié en 1936, le mathématicien anglais Alan Turing a prouvé que l’ordinateur numérique, qui à l’époque n’existait que sous la forme d’une machine théorique, pouvait être programmé pour réaliser les fonctions de n’importe quel autre appareil traitant l’information. Et c’est ce à quoi nous assistons de nos jours. Internet, un système informatique d’une puissance inouïe, inclut la plupart de nos autres technologies intellectuelles. Il devient notre plan et notre horloge, notre imprimerie et notre machine à écrire, notre calculatrice et notre téléphone, notre radio et notre télévision.

Quand le Net absorbe un médium, ce médium est recréé à l’image du Net. Il injecte dans le contenu du médium des liens hypertextes, des pubs clignotantes et autres bidules numériques, et il entoure ce contenu avec le contenu de tous les autres média qu’il a absorbés. Un nouveau message e-mail, par exemple, peut annoncer son arrivée pendant que nous jetons un coup d’œil aux derniers titres sur le site d’un journal. Résultat : notre attention est dispersée et notre concentration devient diffuse.

L’influence du Net ne se limite pas aux bords de l’écran de l’ordinateur non plus. En même temps que l’esprit des gens devient sensible au patchwork disparate du médium Internet, les média traditionnels ont dû s’adapter aux nouvelles attentes de leur public. Les programmes de télévision ajoutent des textes défilants et des pubs qui surgissent, tandis que les magazines et les journaux réduisent la taille de leurs articles, ajoutent des résumés, et parsèment leurs pages de fragments d’information faciles à parcourir. Lorsque, au mois de mars de cette année, le New York Times a décidé de consacrer la deuxième et la troisième page de toutes ses éditions à des résumés d’articles, son directeur artistique, Tom Badkin, explique que les “raccourcis” donneront aux lecteurs pressés un « avant-goût » des nouvelles du jour, leur évitant la méthode « moins efficace » de tourner réellement les pages et de lire les articles. Les anciens média n’ont pas d’autre choix que de jouer suivant les règles du nouveau médium.

Jamais système de communication n’a joué autant de rôles différents dans nos vies, ou exercé une si grande influence sur nos pensées, que ne le fait Internet de nos jours. Pourtant, malgré tout ce qui a été écrit à propos du Net, on a très peu abordé la façon dont, exactement, il nous reprogramme. L’éthique intellectuelle du Net reste obscure.

À peu près au moment où Nietzsche commençait à utiliser sa machine à écrire, un jeune homme sérieux du nom de Frederick Winslow Taylor apporta un chronomètre dans l’aciérie Midvale de Philadelphie et entama une série d’expériences historique dont le but était d’améliorer l’efficacité des machinistes de l’usine. Avec l’accord des propriétaires de Midvale, il embaucha un groupe d’ouvriers, les fit travailler sur différentes machines de métallurgie, enregistra et chronométra chacun de leurs mouvements ainsi que les opérations des machines. En découpant chaque travail en une séquence de petites étapes unitaires et en testant les différentes façons de réaliser chacune d’entre elles, Taylor créa un ensemble d’instructions précises, un « algorithme », pourrions dire de nos jours, décrivant comment chaque ouvrier devait travailler. Les employés de Midvale se plaignirent de ce nouveau régime strict, affirmant que cela faisait d’eux quelque chose d’à peine mieux que des automates, mais la productivité de l’usine monta en flèche.

Plus de cent ans après l’invention de la machine à vapeur, la révolution industrielle avait finalement trouvé sa philosophie et son philosophe. La chorégraphie industrielle stricte de Taylor, son « système » comme il aimait l’appeler, fut adoptée par les fabricants dans tout le pays et, avec le temps, dans le monde entier. À la recherche de la vitesse, de l’efficacité et de la rentabilité maximales, les propriétaires d’usine utilisèrent les études sur le temps et le mouvement pour organiser leur production et configurer le travail de leurs ouvriers. Le but, comme Taylor le définissait dans son célèbre traité de 1911, « La direction des ateliers » (le titre original « The principles of scientific management » pourrait être traduit en français par « Les principes de l’organisation scientifique »), était d’identifier et d’adopter, pour chaque poste, la « meilleure méthode » de travail et ainsi réaliser « la substitution graduelle de la science à la méthode empirique dans les arts mécaniques ». Une fois que le système serait appliqué à tous les actes du travail manuel, garantissait Taylor à ses émules, cela amènerait un remodelage, non seulement de l’industrie, mais également de la société, créant une efficacité parfaite utopique. « Dans le passé, l’homme était la priorité », déclare-t-il, « dans le futur, la priorité, ce sera le système ».

Le système de Taylor, le taylorisme, est encore bien vivant ; il demeure l’éthique de la production industrielle. Et désormais, grâce au pouvoir grandissant que les ingénieurs informaticiens et les programmeurs de logiciel exercent sur nos vies intellectuelles, l’éthique de Taylor commence également à gouverner le royaume de l’esprit. Internet est une machine conçue pour la collecte automatique et efficace, la transmission et la manipulation des informations, et des légions de programmeurs veulent trouver « LA meilleure méthode », l’algorithme parfait, pour exécuter chaque geste mental de ce que nous pourrions décrire comme « le travail de la connaissance ».

Le siège de Google, à Mountain View, en Californie, le Googleplex, est la Haute Église d’Internet, et la religion pratiquée en ses murs est le taylorisme. Google, selon son directeur-général Eric Schmidt, est « une entreprise fondée autour de la science de la mesure » et il s’efforce de « tout systématiser » dans son fonctionnement. En s’appuyant sur les téra-octets de données comportementales qu’il collecte à travers son moteur de recherche et ses autres sites, il réalise des milliers d’expériences chaque jour, selon le Harvard Business Review, et il utilise les résultats pour peaufiner les algorithmes qui contrôlent de plus en plus la façon dont les gens trouvent l’information et en extraient le sens. Ce que Taylor a fait pour le travail manuel, Google le fait pour le travail de l’esprit.

Google a déclaré que sa mission était « d’organiser les informations du monde et de les rendre universellement accessibles et utiles ». Cette société essaie de développer « le moteur de recherche parfait », qu’elle définit comme un outil qui “comprendrait exactement ce que vous voulez dire et vous donnerait en retour exactement ce que vous désirez”. Selon la vision de Google, l’information est un produit comme un autre, une ressource utilitaire qui peut être exploitée et traitée avec une efficacité industrielle. Plus le nombre de morceaux d’information auxquels nous pouvons « accéder » est important, plus rapidement nous pouvons en extraire l’essence, et plus nous sommes productifs en tant que penseurs.

Où cela s’arrêtera-t-il ? Sergey Brin et Larry Page, les brillants jeunes gens qui ont fondé Google pendant leur doctorat en informatique à Stanford, parlent fréquemment de leur désir de transformer leur moteur de recherche en une intelligence artificielle, une machine comme HAL, qui pourrait être connectée directement à nos cerveaux. « Le moteur de recherche ultime est quelque chose d’aussi intelligent que les êtres humains, voire davantage », a déclaré Page lors d’une conférence il y a quelques années. « Pour nous, travailler sur les recherches est un moyen de travailler sur l’intelligence artificielle. » Dans un entretien de 2004 pour Newsweek, Brin affirmait : « Il est certain que si vous aviez toutes les informations du monde directement fixées à votre cerveau ou une intelligence artificielle qui serait plus intelligente que votre cerveau, vous vous en porteriez mieux. » L’année dernière, Page a dit lors d’une convention de scientifiques que Google « essayait vraiment de construire une intelligence artificielle et de le faire à grande échelle. »

Une telle ambition est naturelle, et même admirable, pour deux mathématiciens prodiges disposant d’immenses moyens financiers et d’une petite armée d’informaticiens sous leurs ordres. Google est une entreprise fondamentalement scientifique, motivée par le désir d’utiliser la technologie, comme l’exprime Eric Schmidt, « pour résoudre les problèmes qui n’ont jamais été résolus auparavant », et le frein principal à la réussite d’une telle entreprise reste l’intelligence artificielle. Pourquoi Brin et Page ne voudraient-ils pas être ceux qui vont parvenir à surmonter cette difficulté ?

Pourtant, leur hypothèse simpliste voulant que nous nous « porterions mieux » si nos cerveaux étaient assistés ou même remplacés par une intelligence artificielle, est inquiétante. Cela suggère que d’après eux l’intelligence résulte d’un processus mécanique, d’une suite d’étapes discrètes qui peuvent être isolés, mesurés et optimisés. Dans le monde de Google, le monde dans lequel nous entrons lorsque nous allons en ligne, il y a peu de place pour le flou de la réflexion. L’ambiguïté n’est pas un préliminaire à la réflexion mais un bogue à corriger. Le cerveau humain n’est qu’un ordinateur dépassé qui a besoin d’un processeur plus rapide et d’un plus gros disque dur.

L’idée que nos esprits doivent fonctionner comme des machines traitant des données à haute vitesse n’est pas seulement inscrite dans les rouages d’Internet, c’est également le business-model qui domine le réseau. Plus vous surfez rapidement sur le Web, plus vous cliquez sur des liens et visitez de pages, plus Google et les autres compagnies ont d’occasions de recueillir des informations sur vous et de vous nourrir avec de la publicité. La plupart des propriétaires de sites commerciaux ont un enjeu financier à collecter les miettes de données que nous laissons derrière nous lorsque nous voletons de lien en lien : plus y a de miettes, mieux c’est. Une lecture tranquille ou une réflexion lente et concentrée sont bien les dernières choses que ces compagnies désirent. C’est dans leur intérêt commercial de nous distraire.

Peut-être ne suis-je qu’un angoissé. Tout comme il y a une tendance à glorifier le progrès technologique, il existe la tendance inverse, celle de craindre le pire avec tout nouvel outil ou toute nouvelle machine. Dans le Phèdre de Platon, Socrate déplore le développement de l’écriture. Il avait peur que, comme les gens se reposaient de plus en plus sur les mots écrits comme un substitut à la connaissance qu’ils transportaient d’habitude dans leur tête, ils allaient, selon un des intervenants d’un dialogue, « arrêter de faire travailler leur mémoire et devenir oublieux. » Et puisqu’ils seraient capables de « recevoir une grande quantité d’informations sans instruction appropriée », ils risquaient de « croire posséder une grande connaissance, alors qu’ils seraient en fait largement ignorants ». Ils seraient « remplis de l’orgueil de la sagesse au lieu de la sagesse réelle ». Socrate n’avait pas tort, les nouvelles technologies ont souvent les effets qu’il redoutait, mais il manquait de vision à long terme. Il ne pouvait pas prévoir les nombreux moyens que l’écriture et la lecture allaient fournir pour diffuser l’information, impulsant des idées fraîches et élargissant la connaissance humaine (voire la sagesse).

L’arrivée de l’imprimerie de Gutenberg, au XVème siècle, déclencha une autre série de grincements de dents. L’humaniste italien Hieronimo Squarciafico s’inquiétait que la facilité à obtenir des livres conduise à la paresse intellectuelle, rende les hommes « moins studieux » et affaiblisse leur esprit. D’autres avançaient que des livres et journaux imprimés à moindre coût allaient saper l’autorité religieuse, rabaisser le travail des érudits et des scribes, et propager la sédition et la débauche. Comme le professeur de l’université de New York, Clay Shirky, le remarque, « la plupart des arguments contre l’imprimerie était corrects et même visionnaires. » Mais, encore une fois, les prophètes de l’apocalypse ne pouvaient imaginer la myriade de bienfaits que le texte imprimé allait amener.

Alors certes, vous pouvez vous montrer sceptique vis-à-vis de mon scepticisme. Ceux qui considèrent les détracteurs d’Internet comme des béotiens technophobes ou passéistes auront peut-être raison, et peut-être que de nos esprits hyperactifs, gavés de données surgira un âge d’or de la découverte intellectuelle et de la sagesse universelle. Là encore, le Net n’est pas l’alphabet, et même s’il remplacera peut-être l’imprimerie, il produira quelque chose de complètement différent. Le type de lecture profonde qu’une suite de pages imprimées stimule est précieux, non seulement pour la connaissance que nous obtenons des mots de l’auteur, mais aussi pour les vibrations intellectuelles que ces mots déclenchent dans nos esprits. Dans les espaces de calme ouverts par la lecture soutenue et sans distraction d’un livre, ou d’ailleurs par n’importe quel autre acte de contemplation, nous faisons nos propres associations, construisons nos propres inférences et analogies, nourrissons nos propres idées. La lecture profonde, comme le défend Maryanne Wolf, est indissociable de la pensée profonde.

Si nous perdons ces endroits calmes ou si nous les remplissons avec du « contenu », nous allons sacrifier quelque chose d’important non seulement pour nous même, mais également pour notre culture. Dans un essai récent, l’auteur dramatique Richard Foreman décrit de façon éloquente ce qui est en jeu :

Je suis issu d’une tradition culturelle occidentale, pour laquelle l’idéal (mon idéal) était la structure complexe, dense et « bâtie telle une cathédrale » de la personnalité hautement éduquée et logique, un homme ou une femme qui transporte en soi-même une version unique et construite personnellement de l’héritage tout entier de l’occident. Mais maintenant je vois en nous tous (y compris en moi-même) le remplacement de cette densité interne complexe par une nouvelle sorte d’auto-évolution sous la pression de la surcharge d’information et la technologie de « l’instantanément disponible ».

À mesure que nous nous vidons de notre « répertoire interne issu de notre héritage dense », conclut Foreman, nous risquons de nous transformer en « crêpe humaine », étalée comme un pâte large et fine à mesure que nous nous connectons à ce vaste réseau d’information accessible en pressant simplement sur une touche.”

Cette scène de 2001 : l’odyssée de l’espace me hante. Ce qui la rend si poignante, et si bizarre, c’est la réponse pleine d’émotion de l’ordinateur lors du démontage de son esprit : son désespoir à mesure que ses circuits s’éteignent les uns après les autres, sa supplication enfantine face à l’astronaute, “Je le sens, je le sens. J’ai peur.”, ainsi que sa transformation et son retour final à ce que nous pourrions appeler un état d’innocence. L’épanchement des sentiments de HAL contraste avec l’absence d’émotion qui caractérise les personnages humains dans le film, lesquels s’occupent de leur boulot avec une efficacité robotique. Leurs pensées et leurs actions semblent scénarisées, comme s’ils suivaient les étapes d’un algorithme. Dans le monde de 2001, les hommes sont devenus si semblables aux machines que le personnage le plus humain se trouve être une machine. C’est l’essence de la sombre prophétie de Kubrick : à mesure que nous nous servons des ordinateurs comme intermédiaires de notre compréhension du monde, c’est notre propre intelligence qui devient semblable à l’intelligence artificielle.

Notes

[1] Crédit photo : Striatic (Creative Commons By)




De l’usage des « œuvres protégées » à l’Éducation Nationale

MK Media - CC byD’un côté vous avez le « copyright », qui donne à l’auteur un droit exclusif d’exploitation sur son œuvre (texte, image, musique, cinéma, logiciel, etc.) et qui s’applique par défaut en l’absence de toute autre mention.

C’est ce qu’a toujours connu l’Éducation Nationale avant l’apparition des nouvelles technologies, et mis à part le problème du « photocopillage qui tue le livre », tout allait pour le mieux dans le meilleur des mondes possibles. D’autant que l’on ne pouvait pas avoir conscience qu’il pouvait en être autrement. Et puis, il suffisait d’être patient et d’attendre que certaines œuvres tombent dans le domaine public.

Puis est arrivé le « copyleft », c’est-à-dire la possibilité donnée par l’auteur d’un travail soumis au droit d’auteur (texte, image, musique, cinéma, logiciel, etc.) de copier, d’utiliser, d’étudier, de modifier et de distribuer son œuvre dans la mesure où ces possibilités restent préservées.

Ce copyleft ouvre la voie aux Open Educational Ressources. Nous en avons un bel exemple chez nous avec Sésamath et ses « manuels libres », et rien que cette semaine j’ai noté deux nouvelles ressources scolaires dans la sphère anglophone : Collaborative Statistics, un manuel sous licence Creative Commons By-Sa et Chemical Process Dynamics and Controls édité à même un wiki et sous la même licence[1].

Question : Qui du copyright ou du copyleft est plus adapté aux situations d’enseignement à l’ère du numérique ?

Pour nous aider à répondre nous allons nous appuyer sur les accords issus du texte toujours en vigueur paru au Bulletin Officiel n°5 du 1er février 2007 concernant l’usage en situation scolaire de l’écrit, de la presse, des arts visuels, de la musique et de l’audiovisuel.

L’un des problèmes de ces accords c’est qu’il y a confusion et collusion entre « œuvres protégées » et « œuvres protégées sous le classique copyright ». Le copyleft, qui n’est à aucun moment mentionné, protège lui aussi les œuvres, par exemple en garantissant toujours la paternité des auteurs, mais pas de la même façon et pas dans le même but.

Toujours est-il que voici donc nos enseignants confrontés uniquement à des œuvres protégées sous copyright. Et là, tout petit hiatus, on ne peut a priori strictement rien faire avec de telles œuvres puisque l’auteur (ou les ayant-droits) en détient les droits exclusifs d’exploitation. Pour lever l’interdit il faudrait en théorie demander au cas par cas les autorisations. Vous imaginez un professeur d’histoire et géographie contactant tous les ayant-droits des illustrations qu’ils comptent montrer à ses élèves pendant toute l’année avec toutes ses classes ? Ce n’est pas réaliste.

Dans la mesure où « l’exception pédagogique » n’est parait-il qu’un mythe sans le moindre fondement juridique, l’Institution se devait de faire quelque chose et c’est ce qui fut fait avec ce texte officiel du BO, conséquence directe des négociations avec les ayant-droits de « l’industrie culturelle ».

En voici quelques extraits (évidemment choisis et commentés à dessein, donc je vous invite à le lire en intégralité, histoire de vous en faire une meilleure idée, c’est un peu indigeste mais juridiquement et aussi « culturellement » c’est fort instructif et pas seulement si vous faites partie de la maison).

Accrochez-vous et ayez une pensée compatissante pour nos enseignants qui doivent en connaître les détails sur le bout des doigts et ne surtout pas commettre d’erreurs dans leurs applications.

Mise en œuvre des accords sectoriels sur l’utilisation des œuvres protégées à des fin d’enseignement et de recherche

C’est l’accord général qui fixe le cadre et donne le modèle.

Le ministre de l’éducation nationale, de l’enseignement supérieur et de la recherche a conclu, avec les titulaires des droits d’auteur et en présence du ministre de la culture et de la communication, cinq accords sur l’utilisation des œuvres protégées à des fins d’enseignement et de recherche, à raison d’un accord pour chacun des grands secteurs de la propriété littéraire et artistique : l’écrit, la presse, les arts visuels, la musique et l’audiovisuel.

Louable intention.

Le champ de ces accords recoupe dans une large mesure celui de la clause introduite au e) du 3° de l’article L. 122-5 du code de la propriété intellectuelle par la loi n° 2006-961 du 1er août 2006 relative au droit d’auteur et aux droits voisins dans la société de l’information.

Droit d’Auteur et Droits Voisins dans la Société de l’Information parfois appelé aussi DADVSI.

Conformément aux principes fondamentaux du droit de propriété intellectuelle, constamment rappelés par la législation française, l’utilisation collective d’une œuvre protégée est soumise en principe au consentement préalable du titulaire des droits d’auteur. Pour répondre aux besoins du service public de l’enseignement et favoriser la diversification des supports pédagogiques, les cinq accords sectoriels proposent un cadre général pour les utilisations les plus usuelles. Les utilisations qui entrent dans le champ de ces accords et qui en respectent les clauses sont réputées autorisées sans que les établissements ou les personnels n’aient à effectuer de démarches particulières.

C’est ce que j’évoquais plus haut. L’idée c’est d’obtenir une sorte de passe-droit pour ne plus avoir à demander d’autorisations. Bien entendu, comme nous le verrons plus bas, il y a quelques compensations.

La représentation dans la classe d’œuvres protégées est couverte de façon générale dès lors qu’elles illustrent le cours. Il en va ainsi de la projection d’une image, d’un document audiovisuel ou de la diffusion d’une chanson qui éclaire un point de l’enseignement ou qui en constitue l’objet principal. Cette représentation collective peut également intervenir pour illustrer le travail qu’un élève ou un étudiant présente à la classe.

Cette couverture est pleine de bon sens sauf si c’est le seul cas de couverture possible.

Les accords autorisent la représentation d’extraits d’œuvres lors de colloques, conférences ou séminaires organisés à l’initiative et sous la responsabilité des établissements d’enseignement supérieur ou de recherche. Les accords exigent que le colloque, la conférence ou le séminaire soit destiné aux étudiants ou aux chercheurs. Dans le cas contraire, la représentation d’œuvres sera subordonnée à l’accord préalable des titulaires de droit.

Le supérieur n’est pas très gâté. On lui fixe un cadre très précis et dans le cas contraire c’est interdit (sauf accord préalable…).

Les dimensions des œuvres qui peuvent être numérisées et incorporées dans un travail pédagogique ou de recherche mis en ligne sont précisées pour chaque catégorie :
– pour les livres : 5 pages par travail pédagogique ou de recherche, sans coupure, avec reproduction en intégralité des œuvres des arts visuels qui y figurent, dans la limite maximum de 20% de la pagination de l’ouvrage. Dans le cas particulier d’un manuel scolaire, l’extrait ne peut excéder 4 pages consécutives, par travail pédagogique ou de recherche, dans la limite de 5% de la pagination de l’ouvrage par classe et par an ;
– pour la presse : deux articles d’une même parution sans excéder 10% de la pagination ;
– pour les arts visuels : le nombre d’œuvres est limité à 20 œuvres par travail pédagogique ou de recherche mis en ligne. Toute reproduction ou représentation numérique de ces œuvres doit avoir sa définition limitée à 400×400 pixels et avoir une résolution de 72 DPI.

Arbitraire et pour le moins alambiqué tout ça ! Limite ubuesque ! Rappelons, pour mémoire, qu’avec le copyleft il n’y aucune contrainte d’utilisation.

La mise en ligne de thèses sur le réseau internet est admise en l’absence de toute utilisation commerciale et, le cas échéant, après accord de l’éditeur de la thèse. La mise en ligne devra utiliser un procédé empêchant celui qui consulte la thèse sur internet de télécharger les œuvres qui y sont incorporées.

Nouvelle barrière.

La reproduction numérique d’une œuvre doit faire l’objet d’une déclaration pour permettre d’identifier les œuvres ainsi reproduites. Cette déclaration consiste à compléter le formulaire mis en ligne à l’adresse suivante.

Il y a donc obligation de déclarer chaque œuvre utilisée ! Ce qui, pour notre professeur d’histoire-géographie, peut prendre un certain temps. Mais ayez la curiosité de vous rendre sur le site de la déclaration. Aucune identification n’est demandée, je me suis imaginé renseignant une photographie et me suis retrouvé avec deux uniques champs : « Auteur » et « Nbre estimé d’élèves/étudiants destinataires ». On clique sur valider et c’est tout. Est-ce ainsi que l’on va redistribuer équitablement les droits ?

Accord sur l’utilisation des livres et de la musique imprimée à des fins d’illustration des activités d’enseignement et de recherche

Le cas particulier des livres (et des partitions musicales). Accord entre le ministère et Le Centre français d’exploitation du droit de copie (CFC), agissant également au nom de la société de perception et de répartition de droits suivante AVA, sur mandat exprès de ces dernières, La Société des éditeurs et auteurs de musique (SEAM) ci-après dénommés « les représentants des ayants droit ».

Le ministère réaffirme son attachement au respect des droits de propriété littéraire et artistique. Il partage le souci des ayants droit de mener des actions coordonnées pour sensibiliser l’ensemble des acteurs du système éducatif – enseignants, élèves, étudiants et chercheurs – sur l’importance de ces droits et sur les risques que la contrefaçon fait courir à la vitalité et la diversité de la création littéraire et artistique.

J’ai déjà entendu cela quelques part…

Pour ce qui concerne les œuvres musicales visées par l’accord : de parties d’œuvres musicales visées par l’accord dont la longueur sera déterminée d’un commun accord entre les Parties, en fonction des œuvres concernées et des usages appliqués ; à défaut d’accord particulier, l’extrait ne peut excéder 20 % de l’œuvre musicale concernée (paroles et/ou musique) par travail pédagogique ou de recherche, par classe et par an, dans la limite maximale de 3 pages consécutives d’une même œuvre musicale visée par l’accord ; pour les ouvrages de formation ou d’éducation musicales et les méthodes instrumentales, l’extrait ne peut excéder 5 % d’une même œuvre musicale visée par l’accord (paroles et/ou musique) par travail pédagogique ou de recherche, par classe et par an, dans la limite maximale de 2 pages consécutives d’une même œuvre musicale visée par l’accord.

Bienvenue dans le monde de la complexité…

En ce qui concerne les œuvres musicales visées par l’accord, sont autorisées exclusivement les reproductions numériques graphiques temporaires exclusivement destinées à la représentation en classe par projection collective. Les reproductions d’œuvres musicales par reprographie ne sont en aucune manière autorisées par le présent accord ainsi que rappelé à l’article 4.2 ci-après. Il est précisé que le présent article n’autorise pas les reproductions numériques temporaires des œuvres musicales visées par l’accord disponibles uniquement à la location auprès des éditeurs concernés.

Un vrai terrain miné…

L’accord n’autorise pas la distribution aux élèves, étudiants ou chercheurs de reproductions intégrales ou partielles d’œuvres visées par l’accord.

C’est bien dommage parce qu’avec le copyleft l’élève peut tranquillement repartir de l’école avec l’œuvre numérique dans sa clé USB.

Les moteurs de recherche des intranets et extranets des établissements permettront l’accès aux travaux pédagogiques ou de recherche, ou aux communications faites lors de colloques, conférences ou séminaires, mais ne comporteront en aucune manière un mode d’accès spécifique aux œuvres visées par l’accord ou aux extraits d’œuvres visées par l’accord ou une indexation de celles-ci.

De la recherche bridée en somme.

Le ministère informera les établissements du contenu et des limites de l’accord. Il s’engage également à mettre en place dans l’ensemble des établissements des actions de sensibilisation à la création, à la propriété littéraire et artistique et au respect de celle-ci. Ces actions, définies en liaison avec les représentants des ayants droit, interviendront au moins une fois par an et par établissement. Elles pourront prendre des formes diverses en partenariat avec des auteurs, des compositeurs, des éditeurs de livres ou de musique ou des artistes plasticiens.

Je veux bien participer 😉

En contrepartie des autorisations consenties dans l’accord et compte tenu des engagements pris par le ministère à l’article 6, celui-ci versera au CFC et à la SEAM une somme de :
– 1 146 000 euros sur l’exercice budgétaire 2007 ;
– 1 146 000 euros sur l’exercice budgétaire 2008.
Cette somme sera répartie par le CFC et la SEAM entre les titulaires de droits ou leur représentant qui leur ont donné mandat pour conclure l’accord.

C’est précis et non négligeable.

Dans l’hypothèse où il apparaîtrait que, dans le cours de l’application de l’accord, les utilisations numériques d’œuvres visées par l’accord augmenteraient de façon significative, la rémunération définie ci-dessus devra être révisée en conséquence. Les Parties se rapprocheront pour fixer la rémunération adaptée.

Je suis curieux de savoir comment on peut réellement se rendre compte de cela. Via le formulaire de renseignement mentionné plus haut ? Je n’ose à peine le croire !

Les représentants des ayants droit pourront procéder ou faire procéder à des vérifications portant sur la conformité des utilisations d’œuvres visées par l’accord au regard des clauses de l’accord. Les agents assermentés de chaque représentant des ayants droit auront la faculté d’accéder aux réseaux informatiques des établissements afin de procéder à toutes vérifications nécessaires. Ils pourront contrôler notamment l’exactitude des déclarations d’usage et la conformité de l’utilisation des œuvres visées par l’accord avec chaque stipulation de l’accord.

Quand les « agents assermentés » des ayant-droits sont autorisés à pénétrer dans le sanctuaire scolaire… Je ne sais pas trop (ou trop bien) comment qualifier cela.

Accord sur l’utilisation des publication périodiques imprimées à des fins d’illustration des activités d’enseignement et de recherche

Le cas de la presse. Accord entre le ministère et Le Centre français d’exploitation du droit de copie (CFC) agissant au nom des éditeurs de publications périodiques imprimées.

En contrepartie des autorisations consenties par le présent accord, le ministère de l’éducation nationale, de l’enseignement supérieur et de la recherche versera au CFC une somme de :
– 291 000 euros sur l’exercice budgétaire 2007 ;
– 291 000 euros sur l’exercice budgétaire 2008.
Cette somme sera répartie par le CFC entre les titulaires de droits qui lui ont donné mandat pour conclure le présent accord.

Accord sur l’utilisation des œuvres des arts visuels à des fins d’illustration des activités d’enseignement et de recherche

Passons aux œuvres des arts visuels (images, photos, illustrations, etc.). Accord signé entre le ministère et l’AVA, société de perception et de répartition de droits, agissant au nom des sociétés de perception et de répartition de droits suivantes sur mandat exprès de ces dernières : ADAGP, SACD, SAIF et SCAM, l’ensemble de ces sociétés étant ci-après dénommées « les sociétés de perception et de répartition de droits ».

En contrepartie des autorisations consenties dans l’accord et compte tenu des engagements pris par le ministère à l’article 6, celui-ci versera à AVA une somme de :
– 263 000 euros sur l’exercice budgétaire 2007 ;
– 263 000 euros sur l’exercice budgétaire 2008.
Cette somme sera répartie par AVA aux titulaires de droits ou leur représentant.

Accord sur l’interprétation vivante d’œuvres musicales, l’utilisation d’enregistrements sonors d’œuvres musicales et l’utilisation de vidéomusiques à des fins d’illustration des activités d’enseignement et de recherche

Quant à la musique… Accord entre le ministère et La SACEM, société des auteurs, compositeurs et éditeurs de musique, agissant pour elle- même et au nom des sociétés de perception et de répartition suivantes sur mandat exprès de celles-ci : ADAMI, SACD, SCPP, SDRM, SPPF, SPRE, SPEDIDAM, l’ensemble de ces sociétés, y compris la SACEM, étant ci-après dénommées « les sociétés de perception et de répartition de droits ».

En contrepartie des autorisations consenties par l’accord et compte tenu des engagements pris par le ministère à l’article 5, le ministère versera à la SACEM une somme de :
– 150 000 euros sur l’exercice budgétaire 2007 ;
– 150 000 euros sur l’exercice budgétaire 2008.
Cette somme sera répartie par la SACEM entre les sociétés de perception et de répartition de droits.

Accord sur l’utilisation des œuvres cinématographiques et audiovisuelles à des fins d’illustration des activités d’enseignement et de recherche

Et pour finir le cinéma. Accord entre le ministère et la PROCIREP, société des producteurs de cinéma et de télévision, agissant au nom des sociétés de perception et de répartition de droits assurant la gestion des droits sur les œuvres audiovisuelles et cinématographiques, ci- dessous désignées : ARP, ADAMI, SACD, SACEM, SCAM, SPEDIDAM, l’ensemble de ces sociétés, y compris la PROCIREP, étant ci-après dénommées « les sociétés de perception et de répartition de droits ».

Est autorisée par l’accord la représentation dans la classe, aux élèves ou étudiants, de toute œuvre cinématographique ou audiovisuelle diffusée par un service de communication audiovisuelle hertzien non payant (…) L’utilisation d’un support édité du commerce (VHS préenregistrée du commerce, DVD vidéo, etc.) ou d’une œuvre cinématographique ou audiovisuelle diffusée sur un service de communication audiovisuelle payant, tel que, par exemple, Canal+, Canalsatellite, TPS, ou un service de vidéo à la demande (VOD ou S-VOD), n’est pas autorisée par l’accord, sauf dans le cas prévu à l’article 3.2.

Ne reste plus, si j’ai bien compris, que nos chères chaînes de télévision généralistes à voir uniquement en direct live.

En contrepartie des autorisations consenties par l’accord et compte tenu des engagements pris par le ministère à l’article 5, le ministère versera à la PROCIREP une somme de :
– 150 000 euros sur l’exercice budgétaire 2007 ;
– 150 000 euros sur l’exercice budgétaire 2008.
Cette somme sera répartie par la PROCIREP entre les sociétés de perception et de répartition de droits.

Je prends ma calculette… ce qui nous donne pour les seules années 2007 et 2008… quatre millions d’euros tout rond pour toutes « les sociétés de perception et de répartition de droits ». C’est pas mal, surtout si l’on se souvient des nombreuses clauses restrictives qui parsèment les accords (et puis, au risque de m’égarer, n’oublions pas également la taxe sur la copie privée, qui certes s’applique à tout le monde mais qui participe de la même logique).

Voilà. Dans un monde où n’existerait que le copyright, on se retrouve à négocier ainsi avec les ayant-droits de l’industrie culturelle pour le résultat que vous avez donc aujourd’hui sous les yeux. Reconnaissons que ce n’est pas toujours évident pour les enseignants (et leurs élèves) de s’y retrouver !

Il est à noter qu’à l’époque de la discussion de ces accords, c’est-à-dire en 2006 au fameux temps de l’examen de la loi DADVSI, certains enseignants n’avaient pas hésité à carrément prôner la « désobéissance civile ». Avec une pétition à le clé ayant regroupée pas moins de 5000 signataires.

Il y a cependant une bonne nouvelle. Tous ces accords se terminent le 31 décembre 2008. Nous attendons donc avec impatience (et fébrilité) les nouvelles directives 2009. Peut-être que cette fois-ci le copyleft aura doit de cité ? Dans le cas contraire, cela n’empêchera nullement les enseignants de s’y intéresser toujours davantage, pour finir par lentement mais sûrement construire ensemble les bases d’un nouveau paradigme.

Notes

[1] Crédit photo : MK Media (Creative Commons By)