Un cas d’école : Quand trois étudiants de l’université Yale résistent à Google

Law Keven - CC by-saSi il y a bien une constante lorsqu’une décision est prise dans l’éducation autour des nouvelles technologies, c’est de rarement prendre la peine de consulter les principaux intéressés, c’est-à-dire les élèves et les étudiants eux-mêmes !

C’est ce que nous rappelle en creux cette intervention de trois étudiants de la prestigieuse Université Yale, surpris à juste titre de voir arriver, sans la moindre concertation, la messagerie Gmail de Google dans leur établissement.

L’annonce en a été faite le 9 février dernier sur le site d’actualité de l’université : Google to run Yale e-mail.

Mais deux jours plus tard, paraissait sur le même site la réaction de nos étudiants, traduite ci-dessous, dont le titre est un malicieux clin d’œil à la devise de leur université : Lux et Veritas (Lumière et Vérité).

Saluons au passage l’existence de ce site d’actualités Yale Daily News qui ouvre ses colonnes au débat et à la contestation (cf les nombreux commentaires sous le billet d’origine). Les universités françaises s’honoreraient de s’en inspirer.

Ils n’en appelaient pas forcément à rejeter le projet. Juste à plus de transparence, en se posant ensemble en amont quelques légitimes questions lorsqu’il s’agit de confier nos données à Google et à ses serveurs dans les nuages.

Je ne sais si cette opportune intervention est directement à l’origine de la décision, mais toujours est-il que l’Université a accepté peu de temps après de retarder la migration, annoncé dans un nouvel article également traduit ci-dessous, validant par là-même leurs doutes et leurs arguments.

Nous ne manquerons pas de vous tenir au courant de la décision finale de l’Université.

Si tous les étudiants ressemblaient à nos trois compères, nul doute que l’on serait plus vigilant face aux risques des marchandisation de l’école. Nul doute également que le logiciel libre et sa culture seraient plus souvent évalués, encouragés et adoptés[1].

Lux et Veritas et Gmail, par Csar, Kamdar et Slade

Csar, Kamdar and Slade: Lux et Veritas et Gmail

Christian Csar, Adi Kamdar et Francesca Slade – 11 février 2010 – Yale Daily News
(Traduction Framalang : Barbidule et Quentin)

Nous dépendons de l’e-mail pour à peu près tout. c’est le moyen idéal pour organiser des évènements, sensibiliser les gens, diffuser des annonces officielles. Le mail est constamment présent dans la vie de tous les membres de Yale. A ce titre, toute modification radicale dans la manière dont fonctionne ce système – comme le possible passage à un système hébergé par Google – mérite un débat approfondi. Bien que le système basé sur Gmail possède de nombreux avantages, cela n’excuse pas l’opacité qui a entouré le processus de transition jusqu’ici. Le degré de frustration envers le service e-mail actuel est indéniablement haut – beaucoup d’étudiants veulent quelque chose de mieux, et Gmail est une possibilité. La substantielle fraction d’étudiants qui transfèrent leur e-mail de leur boîtes Yale vers leur compte Gmail verraient d’un bon oeil une transition vers Gmail. Et même si de nombreux étudiants se réjouiront de l’arrivée de Gmail, un tel changement ne devrait résulter que d’un processus transparent avec un dialogue ouvert entre toutes les parties prenantes.

La transition telle qu’elle est envisagée aujourd’hui laisse sans réponses plusieurs questions fondamentales.

Nous avons cru comprendre que Google ne facturerait rien à l’université, par exemple, et nous nous interrogeons sur ce que Google retire de cette générosité – hormis bien évidemment l’accès à nos mails. Sans un processus de planification transparent, au cours duquel les étudiants ont la possibilité de poser ce genre de questions, il est difficile de ne pas être un minimum méfiant.

Les étudiants qui utilisent Gmail pour leur e-mail de Yale font pour le moment un choix individuel, ils sont libres d’arbitrer entre les indéniables avantages de Gmail et leurs propres inquiétudes. Ainsi, nous sommes en train d’écrire cet article sur Google docs. Cependant, quand l’ensemble du système de mails bascule sur Gmail, ces inquiétudes ne sont plus seulement l’affaire de quelques individus, elles concernent l’institution elle-même. Les problèmes collectifs de la faculté, de l’équipe et des étudiants doivent par conséquent être étudiés avant que Yale change pour Gmail.

Car malgré tous les avantages de Gmail, il subsiste quelques réelles inquiétudes. En tant qu’étudiants, nous avons besoins d’être assurés que Yale a signé un contrat avec Google garantissant un certain nombre de points. Pour l’instant, le passage à Gmail repose sur la générosité de Google, qui fournit un service gratuitement et sans publicité. Si à l’avenir Google décide de facturer ce service, quelles seront les conséquences pour Yale ? Nous ignorons quel contrôle la Direction des Systèmes Informatiques (DSI) et l’Université auront sur les données, leur sauvegarde, leur sécurité et leur migration. Nous ignorons où les serveurs Gmail seront situés, et quelles dispositions légales sur la protection des données personnelles s’appliqueront dans cette juridiction. A Brown, par exemple, d’après le site de l’Université, les mails peuvent être stockés « dans des datacenters situés hors des États-Unis ». De plus, personne n’a précisé quel sera l’accès que Google, avec ses algorithmes de data-mining, aura aux mails de Yale. Même si Google et la DSI ont toutes les réponses, nous avons au moins le droit de nous poser ces questions.

Enfin, Google n’est pas infaillible. Au cours des huit derniers mois, Gmail a connu six coupures, dont certaines prolongées. Et la seule compensation qu’offre Google – y compris aux clients qui paient – ce sont des jours gratuits. Quels sont les mécanismes mis en place par Yale en cas de coupure ? Comment pouvons-nous être sûrs que Gmail ne délivrera pas accidentellement des mails aux mauvaises personnes, comme ce fut le cas lors de la transition vers Gmail à l’université de Brown ?

Seul un processus de décision transparent permettra de répondre à ces questions que posent les étudiants. C’est pourquoi nous demandons à l’administration d’ouvrir un large dialogue avant que la DSI ne s’engage dans une démarche de sous-traitance du mail des étudiants actuels et futurs. Même si la décision de basculer est déjà arrêtée, il n’y a aucune raison valable pour dissimuler les choses et refuser d’entendre les préoccupations de ceux qui utiliseront quotidiennement le système. Le mail est trop important pour que son fonctionnement soit secret. Avec comme devise Lux et Veritas, Yale devrait comprendre la nécessité d’éclairer les conséquences de ce changement.

Christian Csar et Francesca Slade sont co-président du Club d’Informatique des Etudiants de Yale et sont étudiants l’un à l’Université Silliman, et l’autre à l’Université Pierson. Adi Kamdar est étudiant en deuxième année à l’Université Calhoun, il est également président des Etudiants de Yale pour une Culture Libre.

Le service informatique repousse le passage à Gmail

ITS delays switch to Gmail

David Tidmarsh – 30 mars 2010 – Yale Daily News
(Traduction Framalang : Quentin)

Le passage vers Google comme fournisseur de courriels de l’Université Yale est suspendu à une date ultérieure.

La migration de la messagerie de l’université de l’ancien Horde vers Gmail (et la suite de services de communication et de collaboration Google Apps Education) est suspendue, en attendant les résultats d’une étude impliquant davantage la participation des professeurs et des étudiants. En effet, après une série de réunions entre les étudiants, leurs professeurs et les administrateurs en février dernier, les officiels du département informatique ont décidé de mettre ce changement en attente, a dit le doyen adjoint pour les sciences et la technologie, Steven Girvin.

« Il y avait suffisamment de préoccupations exprimées pour que la consultation et la participation de la communauté deviennent nécessaires », dit-il dans un email envoyé au site d’actualités de l’université.

L’idée de passer à Google Apps Education – incluant des programmes populaires tels que Gmail, Google Calendar et Google Docs – résulte de réunions internes au service informatique qui se sont déroulées cet hiver, a dit le professeur d’informatique Michael Fischer. Mais lorsque le service informatique a notifié ce changement aux représentants des professeurs et aux administrateurs en février, des réserves ont été exprimées, et les officiels du département informatique ont décidé d’organiser un comité pour discuter de cette situation.

« De nombreux membres de ce comité ont pensé que le service informatique avait pris une décision trop hâtive sans l’approbation globale de l’université », a dit Fischer.

« Les gens se sont principalement intéressés à des questions techniques sur la conduite du changement en se demandant Comment pouvons-nous faire ? » dit-il. « Mais personne ne s’est réellement demandé : Devons-nous le faire ? ».

Fischer classe les inquiétudes à propos du passage à Gmail en trois catégories : les problèmes liés au cloud computing (le transfert des informations des serveurs de l’université vers Internet), les risques et les inconvénients technologiques, et les problèmes idéologiques.

Google enregistre toutes les données dans trois datacenters choisis aléatoirement, parmi les nombreux dont il dispose à travers le monde, de façon à garantir leur accès et à pouvoir continuer à travailler si l’un d’entre eux tombe en panne. La problème c’est que ces données sont alors théoriquement soumises aux lois des pays qui les hébergent. Il a ajouté que Google n’est pas prêt de fournir au service informatique la liste de pays susceptibles d’héberger ces données, il ne consent qu’à donner une liste d’une quinzaine de pays où les données ne seront pas stockées.

« Yale est une communauté internationale et multiculturelle d’étudiants », a-t-il dit. « Les étudiants devraient avoir le droit de savoir ce qu’il advient de leurs données tant qu’ils sont sur notre campus. »

« Quand bien même toutes les données soient stockées sur le sol américain, la taille et la visibilité de Google la rend plus susceptible d’être attaqué par des individus malintentionnés », a déclaré Fischer.

Avec cette décision et ce partenariat, Yale va peut-être perdre le contrôle de ses données et donner l’impression d’approuver la politique de Google (dont les gros datacenters laissent une grande empreinte carbone). « De plus », poursuit Fischer, « Google Apps est proposé dans une taille unique pour toute sa clientèle, avec tous les risques inhérents à cette monoculture Google ».

Le doyen adjoint Vharles Long a dit mercredi dernier qu’il ne connaissait pas la décision du comité mais qu’elle serait annotée par de nombreux membres de l’université concernés par la sécurité des communications à l’intérieur du système Google.

« J’ai entendu dire que les étudiants sont déjà tous sur Gmail » a t-il dit, « mais ils sont également concernés par le devenir de leurs données personnelles dans le respect des législations en vigueur ».

« Le service informatique met en place des propositions de procédures afin d’obtenir des retours de la communauté et pouvoir ainsi prendre une décision plus avertie dans les mois à venir », ajoute Fischer.

Au départ, le service informatique avait planifié une transition par étapes depuis Horde vers Gmail à partir de l’été prochain, en faisant passer directement les nouveaux et les étudiants en première année sur Gmail tout en offrant aux autres la possibilité de rester sur Horde si ils le désirent.

A ce stade, Fischer estime que le passage à Google Apps Education ne se fera pas avant l’été de l’année suivante, avec une promotion 2015 qui sera la première à adopter le nouveau système dès le début de leur première année.

Google a été récemment au centre de nombreuses controverses concernant les problèmes de vie privée, de sécurité et de propriété intellectuelle. Ainsi l’introduction récente de Google Buzz autorisait automatiquement les utilisateurs de Gmail à voir les contacts des membres de leur carnet d’adresses. La société a également été critiquée pour sa censure des résultats de recherche en coopération avec le gouvernement chinois, même si Google a récemment inversé cette politique en fermant son site Web chinois.

Notes

[1] Crédit photo : Law Keven (Creative Commons By-Sa)




Vu à la télé – Le logiciel libre pour nos enfants demain ?

Le logiciel libre pour nos enfants demain ?

C’est la question que l’on se pose depuis des années, en se désespérant de constater que l’Éducation nationale ne fait pas grand chose pour que ce demain devienne aujourd’hui.

Mais nous ne sommes pas les seuls, parce que c’est aussi la question que posait le 17 mars dernier le titre de la chronique « Clair et Net » d’Emma Rota dans l’émission Les Maternelles de France 5 (reproduite et transcite ci-dessous).

Elle y mettait en avant les trois projets éducatifs libres bien connus ici que sont Abuledu, Sésamath et OOo4Kids.

Pour ce dernier projet, elle pointait directement vers un billet « énervé » du Framablog : 0,01% du budget licences Microsoft pour soutenir et déployer OOo4Kids à l’école ! Force est de constater que l’argument du manque de soutien a été bel et bien repris et de quelle manière :

« Si ces enseignants optent pour le logiciel libre à l’école c’est parce qu’ils adhèrent à une éthique que personne ne peut décemment rejeter : notre école publique n’est pas un lieu marchand ; donc il devrait être interdit de laisser toute la place à des logiciels propriétaires type ceux de Microsoft (…) Ce qui ne veut pas dire que ces initiatives n’ont pas un coût (…) Et vous serez d’accord avec moi pour décréter que c’est au ministère de l’éducation nationale de les financer un minimum. »

Après merci Emmanuelle, merci Emma !
😉

—> La vidéo au format webm

Le logiciel libre pour nos enfants demain ?

URL d’origine du document

Emma Rota – 17 mars 2010 – Clair et Net / Les Maternelles

Il y a un mois est sorti dans le silence le plus total un rapport de 326 pages commandé par le ministère de l’éducation nationale intitulé « Réussir l’école numérique ». Il s’agit d’un recueil de 12 000 contributions et témoignages d’enseignants, d’élèves, de parents d’élèves qui démontrent combien l’usage de l’ordinateur et d’internet à l’école est un facteur d’égalité des chances et de réussite scolaire. Le rapport préconise la connexion en haut débit pour 100% des écoles d’ici 2012.

Pour rappel, lorsque je faisais cette même chronique il y a maintenant 8 ans à cette même place (ça ne nous rajeunit pas) je rapportais déjà les mêmes genres de vœux pieux de la part du ministère de l’éducation nationale… 😉

Et nous on aime les vœux pieux. Surtout lorsqu’on reçoit en parallèle des mails d’instituteurs excédés qui disent en substance – et c’est la réalité du terrain, tous les chiffres le démontrent - : « nous ne recevons pas le moindre centime de l’état, ce que nous bâtissons de numérique dans nos écoles c’est avec notre énergie toute personnelle et les deniers de notre collectivité locale ».

D’où, vous l’aurez compris, l’énorme disparité du matériel, des logiciels et du savoir numérique selon l’école primaire que fréquente ou que va fréquenter votre enfant…

C’est pourquoi aujourd’hui j’ai décidé de mettre à l’honneur trois belles initiatives numériques montées par des instits, avec leur passion et sur leur temps personnel.

1 – Allons d’abord sur le fantastique site www.abuledu.org, né en 1998 – il y a déjà 12 ans, par un instit passionné de Pessac.

C’est aujourd’hui un site qui propose une liste énorme de logiciels éducatifs scolaires pour les élèves de la maternelle à l’université. Pour y accéder, on clique sur ce qu’ils appellent « le Terrier » et regardez la liste : je vous propose de tester « A nous les nombres » par exemple : un petit logiciel de maths qui permet à l’enfant de dénombrer des barques ou des éléphants en s’amusant. Ou encore le logiciel « Associations » qui lui est pour les enfants dès la fin de la maternelle : il permet d’entendre le son associé à un mot et associé à une image, des exercices pour débuter l’apprentissage de la lecture.

Tous ces logiciels sont des logiciels libres : c’est à dire que leur créateur a voulu dès le départ que tous les enseignants et élèves de la France entière puisse en profiter s’ils le désirent ; chacun de ces logiciels est copiable, distribuable et même modifiable si on veut y apporter des changements soi même ! C’est la différence d’avec un logiciel propriétaire du type Word qui, en plus d’être payant ne va pouvoir être partagé avec personne…

2 – Seconde initiative qui elle aussi connaît actuellement une adhésion phénoménale dans le milieu enseignant : www.sesamath.net Des logiciels libres pour les enseignants ET les élèves pour rendre plus ludique l’apprentissage des mathématiques à tous les âges. Tenez vous bien, quasi 9000 profs de maths ont abonnés à ce site, c’est à dire le quart des profs de maths en France ! Ils profitent des exercices interactifs, des cours et des corrections animés tout en échangeant sur leur manière d’enseigner. Car il est là le principal attrait du logiciel libre éducatif?: partager son savoir, évoluer dans sa manière d’enseigner et donc forcément enrichir ses élèves qui je le rappelle, sont nos enfants. Et personnellement je rêve que mon fils lorsqu’il sera à l’école primaire puisse bénéficier de la curiosité d’enseignants de la trempe de ceux qui sont sur ces sites là…

3 – Enfin troisième initiative à encourager car elle est en train de se construire, on la voit sur cette vidéo.

il s’agit d’une suite bureautique spécialement conçue pour les 7/12 ans avec un design simplifié et adapté aux enfants, avec un traitement de texte et un tableur aux outils simplifiés eux aussi.

Si ces enseignants optent pour le logiciel libre à l’école c’est parce qu’ils adhèrent à une éthique que personne ne peut décemment rejeter : notre école publique n’est pas un lieu marchand ; donc il devrait être interdit de laisser toute la place à des logiciels propriétaires type ceux de Microsoft alors qu’il existe d’autres solutions plus neutres.

Ce qui ne veut pas dire que ces initiatives n’ont pas un coût. Elles ont un coût comme toute chose sur cette Terre, au moins le coût de la sueur et du temps de celui qui le fabrique.

Et vous serez d’accord avec moi pour décréter que c’est au ministère de l’éducation nationale de les financer un minimum. Surtout lorsque l’on se souvient à quel point il s’extasie depuis 10 ans sur les prouesses des outils numériques dans ses écoles.

Ah les vœux pieux, les vœux pieux…




Google prends les ARM pour défendre Theora

Titlap - CC byComme vous le savez, HTML5 est la cinquième version du langage utilisé pour concevoir les pages Web, qui propose enfin aux développeurs le moyen d’afficher directement et simplement les vidéos dans la page, de la même façon qu’il est déjà possible de le faire pour des images. C’est à dire de façon simple, ouverte et puissante, sans la contrainte de recourir à un plugin propriétaire comme Flash.

Mais la taille des vidéos doit être réduite pour pouvoir être diffusées sur Internet, et comme il a déjà été dit dans ces colonnes, HTML5 est muet quant au format à utiliser pour compresser ces vidéos (on parle aussi de codec). Aujourd’hui, deux codecs peuvent techniquement assumer ce rôle clé : Theora et H264 (en attendant une possible libération du codec VP8 racheté par Google). Mais alors que le premier est entièrement libre et utilisable sans aucune restriction, le deuxième est breveté et son usage est rigoureusement encadré et soumis à redevance.

On comprend alors que l’affrontement de ces deux codecs n’est que la traduction de l’affrontement de deux visions : tandis que Theora doit permettre de maintenir un Web ouvert où chacun serait libre de publier du contenu ou de créer des applications innovantes, H264 permettra à quelques entreprises privées de faire main basse sur le Web.

À côté de l’avènement de HTML5, un autre facteur est en train de rebattre les cartes : il s’agit du nombre grandissant d’appareils mobiles reliés à Internet[1].

Pour ces appareils mobiles, la question de la puissance processeur et de la consommation électrique se pose de manière nouvelle : ces appareils sacrifient souvent la première au profit de la seconde.

Ainsi, à l’inverse de ce qui se passe dans le monde des micro-ordinateurs de bureau, où l’architecture x86 développée par Intel domine, l’univers des appareils ultra mobiles est dominé par une architecture concurrente : ARM.

Les processeurs ARM (pour Advanced Risc Machine) sont des processeurs fabriqués sous licence par différentes sociétés de par le monde à partir des travaux de la société anglaise ARM. Cette société conçoit des processeurs consommant peu d’énergie qui se retrouvent ensuite dans la plupart des appareils mobiles : des sociétés comme Nokia, Google (Nexus One), HTC, Samsung, Apple (Iphone/iPad), Sony Ericsson, Palm (Plam Pre), Siemens, LG, ou encore Motorola l’utilisent dans leurs smartphones.

Dans la mesure où l’on retrouve souvent le codec H264 dans les vidéos en Flash et où le format H264 exige d’importantes ressources processeur pour être décodé, de nombreux appareils mobiles ont été optimisés pour aider au décodage du H264.

De fait, ce handicap initial est devenu paradoxalement un avantage pour le H264 : bien que Theora demande beaucoup moins de ressources pour être décodé et soit ainsi plus adapté aux appareils mobiles, certains lui opposent le fait qu’il ne bénéficie pas du même support matériel que le H264.

Heureusement la situation n’est pas figée et de nombreux développeurs sont à pied d’œuvre pour permettre à Theora de tirer parti de ces optimisations matérielles (en attendant que les fabricants implémentent eux-même leurs optimisations pour Theora).

C’est le cas notamment de Google qui investit dans le développement de theorARM, une version de Theora optimisée pour les processeurs ARM, comme l’explique Robin Watts sur le blog « des projets Open Source » de Google dans le billet traduit ci-après.

Avant de laisser la parole à Robin Watts, remarquons que, depuis que Theora est pressenti comme codec possible pour la vidéo sur le Web, celui-ci s’améliore de manière constante. Tous les défauts relevés à l’encontre de Theora sont en passe d’être corrigés grâce aux efforts conjugués de toute une communauté de développeurs talentueux regroupée derrière la fondation Xiph.Org (qui développe Theora) dont Red Hat, les fondations à but non lucratif Wikimédia et Mozilla, et à présent Google.

H264, de son côté, reste irrémédiablement entravé par son péché originel : celui d’être breveté jusqu’à l’os. Et les meilleurs développeurs du monde n’y pourront rien changer.

Bref, là où Theora promet le meilleur, à tous points de vue, H264 n’annonce que le pire.

Ça bouge du côté de la vidéo sur le Web

Interesting times for Video on the Web

Robin Watts – 9 avril 2010 – Google Open Source Blog (Traduction Framalang : Olivier Rosseler et Goofy)

Si je vous disais que Google a participé au financement d’une version du codec Theora optimisée pour les processeurs ARM, vous seriez nombreux à passer directement au billet suivant de ce blog. Personne ne se soucie des codecs audio ou vidéo, du moins tant qu’ils fonctionnent.

Demandez à la plupart des utilisateurs d’ordinateurs quel est leur codec favori et ils vous regarderont comme si vous aviez demandé leur moteur de machine à laver préféré. « On veut juste que ça marche ! » vous répondront-ils. C’est exactement la même chose pour ceux qui créent et publient du contenu sur le Web. À chaque fois qu’une vidéo est inaccessible au visiteur d’un site Web, c’est un message qui n’atteint pas sa cible. Peu importe la qualité du message et le temps passé à le peaufiner, ou les techniques virales employées pour attirer les visiteurs ; si la page Web n’affiche qu’un beau rectangle vide à l’endroit du contenu, tous ces efforts auront été vains.

Publiez la vidéo afin qu’elle soit lisible partout

L’idée est bonne, mais sa mise en pratique est loin d’être simple. Il n’existe aucun standard vidéo actuellement sur le Web. Certains sites utilisent la technologie Flash, restreignant ainsi leur auditoire aux utilisateurs disposant d’un lecteur Flash et excluant de fait la plupart des téléphones. Certains se servent de lecteurs Java intégrés, mais l’auditoire se limite alors au seul public disposant de machines suffisamment puissantes pour décoder l’audio et la vidéo dans une machine virtuelle, ce qui exclut tout ce qui est plus lent qu’un ordinateur portable. D’autres encore se reposent sur les lecteurs natifs à telle plateforme (comme Windows Media Player) et se coupent ainsi de toutes les autres plateformes. D’autres enfin ne proposent que le lien vers la vidéo et s’en remettent au lecteur vidéo que l’utilisateur a pu éventuellement installer.

On est bien loin du « ça marche, tout simplement », et aucune de ces solutions ne semble en prendre le chemin. Que ça vous plaise ou non, avec la multiplication des appareils connectés, ce Graal va être de plus en plus difficile à atteindre. À une époque, il suffisait de s’assurer que la vidéo était lisible sur PC et sur Mac. Maintenant il faut jongler entre Android, ChromeOS, iPhoneOS, Linux, Maemo, Symbian et plein d’autres systèmes encore. Et ce n’est pas tout, puisqu’il faut prendre en compte toute une gamme de processeurs de puissances différentes, depuis les ordinateurs de bureaux aux téléphones en passant par les ordinateurs portables, les netbooks et les PDA. Le problème est loin d’être résolu, bien au contraire.

Heureusement, HTML5 nous apporte de l’espoir. Cette nouvelle version d’HTML (le langage de base utilisé pour écrire les pages Web) introduit un élément video.

Un standard existe maintenant pour que les gens spécifient dans le code de la page l’intégration d’une vidéo. À chaque navigateur, ensuite, d’implémenter la lecture des vidéos : soit qu’il lise lui-même la vidéo soit qu’il délègue cette tâche à un lecteur incorporé ou externe. Dans tous les cas, la décision appartient à l’utilisateur au lieu d’être imposée par le créateur du contenu. Le plus génial dans tout cela, c’est que cette fonction est déjà supportée : Firefox, Opera, Chrome et Safari prennent déjà en charge le HTML5 et les autres navigateurs suivront rapidement.

Alors, problème réglé ?

À vrai dire, non. Il existe désormais un langage commun pour publier des vidéos, c’est un bon début, mais la question du format n’est pas résolue. Là, il n’y a pas de « taille unique ». La vidéo est-elle visionnée sur un téléphone avec un petit écran, sur un netbook, sur un PC de bureau, ou sur un écran LED 3D de 150 pouces à la résolution quatre fois supérieure à celle de la TVHD ? La taille de l’écran, la connectique et la puissance de calcul jouent chacune un rôle ici. Un peu comme la transition de la VHS au DVD puis au BluRay pour les vidéos télévisées, la vidéo sur le Web va s’améliorer au fur et à mesure. Et c’est très bien ainsi : la technologie des serveurs Web permet d’adapter la vidéo au navigateur et à l’appareil utilisés.

En revanche, il nous faut assurément nous accorder sur un plus petit dénominateur commun, un format standard qui servira de format par défaut si tout le reste échoue. Ça ne doit pas nécessairement être le format le plus complexe, ou le plus marketé, ni même celui créé par l’union du plus grand nombre d’entreprises. Il doit simplement être disponible, partout. Le codec le plus adapté actuellement est Ogg Theora, dérivé du codec VP3 libéré par On2 il y a quelques années. Il se débrouille plutôt bien en termes de qualité et de compression, et il n’a pas à rougir face à ses rivaux plus populaires comme le MPEG4, tout en étant bien plus simple à décoder. Mais surtout, il se démarque de ses concurrents par le fait qu’il est libre. Vraiment libre. Pas seulement « libre d’utilisation dans les décodeurs » ou « libre d’utilisation si vous signez cet accord de licence compliqué », mais vraiment, honnêtement, authentiquement, 100% libre. Les spécifications du flux et le code source de l’encodeur/décodeur sont accessibles publiquement et peuvent être librement utilisées/modifiées par n’importe qui. Theora a toujours été développé avec comme objectif premier d’éviter les brevets. Aucun autre codec que Theora ne peut se targuer de n’enfreindre aucun brevet et de n’être soumis à aucune redevance tout en tenant malgré tout la dragée haute à ses concurrents.

Alors, qu’est-ce qu’on attend ?

Décoder une vidéo demande beaucoup de ressources au processeur. Un important travail reste à accomplir avant de réaliser le rêve de lire une vidéo sur n’importe quel appareil. Theora est bien moins complexe que bon nombre de ses concurrents : les autres codecs nécessitent souvent du matériel dédié pour atteindre des performances décentes, alors que, bien programmé, Theora peut être décodé sans aide extérieure. En fait, sur les ordinateurs portables ou de bureau, le décodage à la volée est possible dans un lecteur Java intégré (comme par exemple l’excellent Cortado, lui aussi libre), ce qui permet la lecture de vidéos dans les navigateurs ne prenant pas encore en compte l’élément video. Mais ça n’est pas envisageable pour les appareils comme les PDA, les téléphones, les netbooks, les tablettes ou les lecteurs portables. Ces engins reposent souvent sur des processeurs ARM qui sont bien moins énergivores que les processeurs qui équipent habituellement les micro-ordinateurs. Malgré les gains de puissance continus réalisés au cours de ces dernières années, ils ne rivalisent pas encore avec leurs cousins plus costauds pour ce qui est de la puissance pure. Cette gamme très importante d’appareils construits autour de processeurs ARM représente le dernier défi pour un décodage fluide de Theora. Tout progrès d’efficacité réalisé se traduit par davantage d’autonomie ou des écrans plus grands.

C’est là que l’aide financière de Google intervient. En subventionnant le développement de TheorARM (une version libre de Theora optimisée pour les processeurs ARM), ils nous aident à nous rapprocher du jour où la vidéo fonctionnera partout sur le Web, pour tout le monde. Ça serait plutôt pas mal, non ? Ça y est, maintenant vous pouvez passer au billet suivant du blog.

Notes

[1] Crédit photo : Titlap (Creative Commons By)




CoursdeProfs.fr : une affligeante initiative aveuglément relayée par la grande presse

Silviadinatale - CC byLorsque j’ai découvert il y a peu CoursDeProfs.fr j’en suis resté bouche bée. Et j’ai encore du mal à croire qu’on ait pu oser un tel projet, l’un des pires qui ait été lancé dans l’éducation depuis des années. La seule et unique consolation c’est qu’il n’émane pas de l’institution mais du secteur privé.

De quoi s’agit-il exactement ? D’un site qui propose aux enseignants de déposer leurs cours et aux visiteurs de les consulter. « Venez échanger et partager votre savoir », peut-on lire en accueil. Le slogan est au diapason : « Partageons ! »

Sympa, non ? Jusqu’ici tout va bien. Et, sourire aux lèvres, on pense alors naïvement être en présence d’une sorte de forge communautaire de contenus éducatifs, interopérables et sous licences libres. Quelque chose qui ressemblerait à une Académie en ligne qui aurait gommé tous ses défauts, ou plus sûrement à un Sésamath étendu cette fois-ci à toutes les disciplines et à tous les niveaux.

Grossière erreur, car l’état d’esprit qui anime le projet se trouve précisément aux antipodes de ce modèle. Pour tous ceux qui comme nous participent à diffuser le logiciel libre et sa culture au sein de l’Éducation nationale, c’est plus qu’une déception, c’est une véritable provocation.

Prenez le meilleur de Sésamath et Wikipédia en essayant de faire exactement le contraire, et vous obtiendrez CoursDeProfs.fr !

Que ce site rencontre le succès, que les profs embarquent nombreux consciemment ou non dans cette supercherie[1], et je serais obligé de « faire mon Jospin 2002 », c’est-à-dire en prendre acte et quitter séance tenante aussi bien Framasoft que mon métier d’enseignant pour m’en aller cultiver des tomates bios en Ardèche.

Or l’hypothèse n’est pas à exclure quand on voit avec quelle coupable complaisance l’initiative est unanimement relayée et saluée par nos grands médias, illustrant par là-même leur désolante méconnaissance du sujet.

J’ai vainement cherché le moindre début de critique constructive non seulement sur ces mainstream médias mais également dans la blogosphère et je n’ai strictement rien trouvé. C’est ce qui m’a poussé à rédiger ce billet, histoire d’apporter un peu la contradiction (quitte aussi à prendre le risque de leur faire ainsi une injuste publicité).

Ceci étant dit, CoursDeProfs apporte une très mauvaise réponse à d’excellentes questions. Les enseignants souhaitent-ils se regrouper pour créer et échanger ensemble ? Les élèves et leurs parents souhaitent-ils avoir facilement et librement à disposition des ressources éducatives de qualité sur Internet ?

Des médias complices et ignorants

Je tire mon chapeau au service marketing de CoursdeProfs.fr. Non seulement ils ont eu une prestigieuse couverture médiatique mais en plus les articles sont dithyrambiques.

Jugez plutôt :

Le Nouvel Obs : Une plate-forme collaborative pour les profs

Le site CoursDeProfs.fr s’est ouvert officiellement ce lundi 15 mars, pour le plus grand bonheur des enseignants. Concrètement, le site propose aux profs de mettre en commun leurs cours et devoirs avec un seul mot d’ordre : « Partagez vos expériences et vos savoirs ».

Libération : Des cours Net et sans bavures

Vous êtes prof de maths et vous avez déjà fait faire vingt fois les mêmes exercices sur le tracé des triangles aux différentes classes que vous avez eues. Le problème, c’est que vous êtes à court d’idées… Ou alors prof débutant de physique-chimie, vous vous demandez comment organiser la séance de travaux pratiques sur l’utilisation de l’oscilloscope transparent, d’autant que votre classe de terminale S est plutôt dissipée. Rassurez-vous : le site CoursDeProfs.fr, lancé avant-hier, est censé vous aider. Il se présente comme la première plateforme d’échanges de cours entre professeurs. Le but : favoriser « le partage de savoirs et d’expériences » et faire ainsi mentir le cliché selon lequel chaque prof travaille dans son coin sans se soucier de ce que font les autres.

Le Parisien : Des cours gratuits en ligne

Une salle des profs virtuelle, géante et ouverte à tous : où les enseignants peuvent se retrouver et s’échanger leurs cours, où les parents peuvent aussi « débouler » pour retrouver la leçon de maths du fiston absent la semaine dernière, et les élèves venir vérifier qu’ils ont bien noté le cours, voire compléter la leçon… Ce lieu de rêve, c’est l’objectif de Coursdeprof.fr, qui a inauguré hier la première plate-forme communautaire du genre, qui puisse rassembler tous les profs de France autour de leur métier : leur permettre de transmettre leurs connaissances, la somme de tous les cours préparés dans la solitude de leurs bureaux, où ils échouent à nouveau après avoir été dispensés en classe.

L’Entreprise.com (L’Express) : Les profs parlent aux profs

C’est sans doute le premier réseau social fait par des enseignants pour des enseignants. A l’origine de CoursDeProfs.fr. quatre associés : Nicolas Duflos, ingénieur en informatique et télécommunications, inspirateur du projet ; Gabriel Tabart, prof d’EPS, Xavière Tallent, conseil en marketing et communication et Christophe Claudel fondateur de la SII Itelios[2].

Elle : Rattraper les cours manqués sur CoursDeProfs.fr

Un excellent complément pour les profs qui peuvent ainsi « confronter leurs idées et leurs façons de faire » (…) Preuve de son succès, à l’heure où nous écrivons, le site est surbooké et nous invite à nous reconnecter ultérieurement.

La Tribune : Le partage d’expérience fait son chemin chez les enseignants

Les concepteurs espèrent obtenir le label de ressource « reconnue d’intérêt pédagogique » (RIP). Ils déposeront un dossier en ce sens auprès du ministère de l’Education nationale avant l’été[3].

J’ai également noté un passage télé (France 2 – Télématin – 16 mars) et un passage radio (France Culture – Rue des écoles – 17 mars), deux fleurons de notre service… public !

Donc si je résume, « le partage d’expérience fait son chemin chez les enseignants » (La Tribune), un « grand bonheur » (Nouvel Obs), un « lieu de rêve » (Le Parisien) que CourdDeProfs.fr, ce « premier réseau social fait par des enseignants pour des enseignants » (L’Express), cette « première plate-forme d’échanges de cours entre professeurs » (Libération).

Or à y regarder de plus près, le rêve cache peut-être un cauchemar. Et désolé si ce qui va suivre est susceptible de venir un peu gâcher la fête.

Des cours aux multiples verrous artificiels

On sait comment cela se passe. La boîte balance son communiqué de presse et les rédactions choisissent ou non de s’en saisir. Mais lorsqu’elles s’en saisissent, on est en droit d’attendre d’elles un minimum d’investigation, de mise à distance et de contextualisation, en bref faire son boulot de journaliste et non du publireportage.

Et c’est d’autant plus coupable que lorsqu’une startup s’insère dans l’éducation « pour le bien de tous », la vigilance devrait être naturellement de mise (cf les beaux discours de Microsoft à l’école souvent évoqués sur ce blog).

Nos grands médias sont-ils vraiment allés sur CoursDeProfs.fr voir un peu comment cela se déroulait concrètement ? Permettez-moi d’en douter, parce que dans le détail, la plate-forme possède de nombreux et criants défauts.

CoursDeProfs - Copie d'écranAfin d’illustrer mon propos par l’exemple, j’ai choisi au hasard un document du site dans ma discipline, à savoir les mathématiques.

Nous sommes en Sixième pour un Cours sur les fractions (cf copie d’écran ci-contre).

Première remarque : ce cours est d’un classicisme absolu. Ouvrez n’importe quel manuel scolaire de ce niveau et ce sera identique mais plus riche et mieux mis en forme et en page. Ici, la valeur pédagogique ajoutée est pour ainsi dire nulle. Cela n’augure rien de bon quant au reste du contenu du site.

Mais regardons surtout comment se présente le document « mis en ligne » afin de mieux comprendre ce qu’on entend par echange, partage et collaboration chez CoursdeProfs.fr.

  • Le cours ne possède aucune licence. Par défaut il est donc placé sous le régime du droit d’auteur le plus classique et donc le plus restrictif, c’est-à-dire qu’il est propriété exclusive de son auteur et que vous ne pouvez rien faire avec tant que vous ne lui avez pas demandé l’autorisation. Les licences de type Creative Commons sont ignorées par les créateurs du site alors qu’elles ont justement été conçues pour favoriser le partage.
  • Le cours est dans une cage. Il est en effet totalement encapsulé au format propriétaire Flash. On peut certes le voir (en un unique endroit) mais pas le « toucher » puisque, conséquence directe du (mauvais) choix du format, on ne peut ni imprimer le document ni l’enregistrer. Quant à vouloir faire du copier/coller (comme l’autoriserait n’importe quelle page Web rédigée au format standard et ouvert HTML), ce n’est même pas la peine d’y penser.
  • Il y a un lien « Version gratuite » en haut à droite. Cliquez dessus et vous obtiendrez un fichier PDF du cours aux caractéristiques un peu particulières puisque entièrement zébré d’un horrible marqueur CoursDeProfs.fr qui recouvre tout le document (cf image ci-dessous) et toujours interdit au copier/coller (alors que tout fichier PDF non vérouillé permet normalement l’opération).
  • Il y a également un gros lien « Télécharger » en haut à droite. Cliquez dessus et l’on vous proposera de télécharger le cours aux formats suivants : PDF (enfin modifiable et permettant le copier/coller), DOC, DOCX, ODT et RTF. Sauf qu’il vous en coûtera 1,20 €, (45% pour l’auteur, le reste pour CoursDeProfs.fr). Comme il n’y a que les enseignants qui éprouvent ce besoin de pouvoir modifier et personnaliser le document, on se retrouve à devoir payer un collègue pour jouir pleinement de son cours ! De plus ceci ne vous donne alors qu’un « droit d’usage et de modification du document à des fins personnelles ». En aucun cas vous ne pouvez le copier, l’éditer et le donner à un tiers ou renvoyer la version modifiée sur le site (toujours à cause de l’absence de licence). Cela s’apparente au modèle fermé de l’iTunes d’Apple (DRM inclus). L’amélioration collective des documents est volontairement rendue impossible dans cet écosystème.

Pour rappel les créateurs du site affirment haut et fort dans tous les coins du site que leur projet n’est là que pour favoriser l’échange, le partage et la collaboration !

Mais de qui se moque-t-on ?

Si l’existence même de CoursDeProfs.fr est révélatrice d’une triste situation française, sa médiatisation béate l’est tout autant. Ce n’est pas ici que l’on trouvera des arguments pour nuancer la « crise de la presse ».

Libre comparaison

CoursDeProfs - Exemple de PDF tatouéOn ne le répètera jamais assez (surtout que les médias ne l’entendent visiblement toujours pas) : il n’est aujourd’hui pas responsable de développer du contenu collaboratif numérique à l’école sans s’inspirer du logiciel libre et prendre en compte sa culture et ses modes opératoires.

Qu’est-ce qu’un logiciel libre ? C’est un logiciel qui possède les quatre libertés fondamentales suivantes : la liberté d’exécuter le programme, la liberté d’étudier le fonctionnement du programme, la liberté de redistribuer des copies, et la liberté d’améliorer le programme et de publier les améliorations. Ce sont des libertés qui sont tournées vers les utilisateurs. La liberté d’étude et d’amélioration nécessite d’avoir accès au code source du programme, c’est-à-dire à son secret de fabrication.

Essayons de transposer cela à la situation en reprenant notre Cours sur les fractions et en l’imaginant donc sous licence libre (par exemple la Creative Commons By dont on a déjà dit le plus grand bien lorsqu’il s’agit d’éducation).

La liberté d’exécuter le programme c’est la liberté de pouvoir lire le cours n’importe où, n’importe quand et sur n’importe quel ordinateur (et non sur un seul site Web). La liberté d’étude correspond à l’accès sans la moindre entrave à la source du document (dans un format ouvert, par exemple ODT, et non sur un PDF bridé), la liberté de copie signifie que vous pouvez copier et distribuer le cours autant de fois que vous le souhaitez à qui vous voulez, enfin la liberté d’amélioration vous autorise à modifier le cours comme bon vous semble et là encore à copier et distribuer cette version modifiée autant de fois que vous le souhaitez à qui vous voulez.

Bien sûr, tout dépend de votre objectif, mais si il s’agit réellement de partager et transmettre du savoir (certains appellent cela l’éducation) alors c’est bien ce dernier modèle qui est le plus pertinent parce qu’il favorise par essence la circulation et la bonification du cours.

Cela figure d’ailleurs noir sur blanc dans la première des douze propositions formulées par l’AFUL (et ignorées par les médias) suite à la publication du rapport Fourgous : « Les logiciels et les ressources numériques acquises, développées ou produites avec participation de fonds publics doivent être placées sous licence libre et disponibles dans un format ouvert afin de permettre leur libre partage : les utiliser, étudier, modifier, redistribuer librement. ».

J’ajoute qu’un tel modèle est centré sur la ressource (qui a un ou plusieurs auteurs) et non sur les auteurs (qui a une ou plusieurs ressources).

On mesure alors l’écart abyssal qui nous sépare de CoursDeProfs.fr puisque, comme nous l’avons vu plus haut, ce dernier ne respecte aucune des quatre libertés.

Ce modèle théorique que nous appelons de nos vœux est-il massivement déployée à l’Éducation nationale ? Non, car nous sommes encore minoritaires. Non car les grands médias nous ignorent encore trop souvent. Mais on y travaille et le temps joue clairement en notre faveur.

Lorsque nous dénonçons les errances de l’Académie en ligne ou les délires juridiques de l’usage des « œuvres protégées » en classe, c’est parce que nous estimons nous en écarter. Lorsque nous mettons en avant des initiatives comme Weblettres ou Sésamath (dont le projet Kidimath s’adresse lui directement et réellement aux élèves soit dit en passant), c’est parce qu’il nous semble nous en approcher.

0/20

En plus d’ignorer superbement la culture libre, la contradiction fondamentale d’un projet comme CoursDeProfs.fr c’est que, ne provenant pas de l’institution mais d’une entreprise privée, il doit nécessairement penser dès le départ son modèle économique. Il y a eu une idée (plutôt bonne du reste), il y a eu dépenses pour la concrétiser et il faut qu’il y ait à plus ou moins court terme retour sur investissement.

Outre le fait que le site affiche déjà de la publicité (Google) et dispose d’un espace annonceurs, ce qui n’est jamais bon lorsque l’on s’adresse à un public scolaire, les créateurs du projet ont imaginé le système complexe et artificiel décrit ci-dessus pour pouvoir tirer quelques subsides de l’aventure.

Un système pervers où les enseignants sont invités à se vendre et s’acheter leurs cours, à faire circuler l’argent entre eux, tout en étant fortement taxés au passage par CoursDeProfs.fr.

C’est indéniable, les enseignant se sont précarisés ces dernières années et les débuts de carrière sont de plus en plus difficiles. Et nombreux sont désormais ceux qui se jettent dans la gueule d’Acadomia et consors pour arrondir les fins de mois. Mais de là à imaginer qu’ils vont se mettre à monnayer leurs cours aux collègues pour que ces derniers puissent les adapter à leurs besoins… Ils ne l’ont jamais fait en salle des profs (qui n’est pas une salle de marché), ils ne vont pas commencer maintenant !

Il faut bien que quelqu’un le dise : CoursDeProfs.fr devrait transformer son projet en, disons, un site de poker en ligne et oublier ses velléités éducatives. J’invite tous les collègues à ne surtout pas y aller. Ce n’est pas à une petite startup de porter sur ses épaules un tel projet qui doit naître et vivre à l’intérieur même du service public qu’est l’Éducation nationale.

Au fait, l’Ardèche, c’est un terreau fertile pour les tomates bios ?

Notes

[1] Crédit photo : Silviadinatale (Creative Commons By)

[2] 1 prof sur 4 parmi les créateurs suffit à leur faire dire que c’est « fait par des enseignants pour des enseignants » !

[3] On saura ainsi si ce label RIP vaut encore quelque chose.




À propos de la formation aux logiciels libres, par Jean-Pierre Archambault

Extra Ketchup - CC by-sa« Le libre est à la fois une réponse concrète à des problèmes concrets et un outil de réflexion pour penser les problématiques générales de l’immatériel et la connaissance », nous dit ici Jean-Pierre Archambault, qui n’en est pas à son premier article sur le Framablog.

C’est pourquoi la question de la formation aux logiciels libres est l’un des enjeux majeurs de l’éducation de demain[1].

Il s’agit bien entendu d’être capable de les utiliser. Mais bien au-delà il s’agit aussi et surtout de comprendre qu’ils s’inscrivent dans une culture. Une culture de la collaboration, de la création, de l’autonomie et du partage qui ne doit plus être absent du cursus scolaire de nos étudiants.

À propos de la formation aux logiciels libres

La question est souvent posée de savoir s’il y a une spécificité de la formation aux logiciels libres. La licence d’un programme n’est pas forcément choisie lors de son écriture. Un traitement de texte reste un traitement de texte. Et une procédure récursive n’est pas intrinsèquement copyleft ou copyright. Nous allons examiner la question du point de vue des logiciels, de la culture informatique, des méthodes organisationnelles de réalisation des logiciels libres, de la portée sociétale du libre et des besoins pédagogiques des enseignants.

Former aux outils logiciels

Qu’il faille former à Linux comme on forme à Unix, Mac OS X ou Vista va de soi. Idem pour OpenOffice, FireFox ou The Gimp. Ce sont des systèmes et des applications qu’il faut connaître pour s’en servir « intelligemment ». Mais un système d’exploitation, un traitement de texte ou un tableur sont des outils conceptuels compliqués et complexes de par les objets qu’ils traitent et la multitude de leurs fonctionnalités. Il faut veiller à ne pas entrer dans le tunnel sans fin de la formation à la version n d’un progiciel, puis n+1, d’un usager « presse-boutons ». On connaît ce genre de pratiques pour des produits propriétaires dont les versions défilent à grande vitesse, enrichies de fonctionnalités dont l’utilisateur lambda n’a pas nécessairement besoin. Mais qui peuvent présenter des avantages financiers et des rentes de situation pour des officines de formation. Il faut donc pouvoir s’appuyer sur une appropriation initiale des concepts généraux des traitements de texte, tableurs et gestionnaires de bases de données.

L’informatique, le numérique étant partout dans la société, la question posée est celle de la culture générale de l’homme, du travailleur et du citoyen du 21è siècle. Il s’agit là des trois missions fondamentales des systèmes éducatifs. Le libre, c’est le code source que l’on connaît. Et pas la « boîte noire » miraculeuse qui fait tout pour vous : curieuse d’ailleurs cette représentation mentale qu’ont certains de la prothèse du cerveau qu’est l’ordinateur, que l’on pourrait utiliser sans la connaître ni la comprendre. De ce point de vue, le libre s’inscrit pleinement dans la vision qui considère que les usagers de l’informatique doivent comprendre et maîtriser les outils conceptuels qu’ils utilisent. Les créateurs d’informatique aussi, bien évidemment.

Maurice Nivat nous invite opportunément à relire André Leroy Gourhan qui nous a appris que l’outil n’est rien sans le geste qui l’accompagne et l’idée que se fait l’utilisateur de l’outil de l’objet à façonner[2]. Et d’ajouter : « Ce qui était vrai de nos lointains ancêtres du Neanderthal, quand ils fabriquaient des lames de rasoir en taillant des silex est toujours vrai : l’apprentissage de l’outil ne peut se faire sans apprentissage du geste qui va avec ni sans compréhension du mode de fonctionnement de l’outil, de son action sur la matière travaillée, ni sans formation d’une idée précise de la puissance de l’outil et de ses limites ».

Enseigner l’informatique pour donner une culture générale

Il faut donc former à l’outil. Il faut donner une culture générale informatique à l’ « honnête homme » de notre époque. Or, si une option d’informatique générale a existé au lycée dans les années quatre-vingt, elle a été supprimée au début des années quatre-vingt-dix. La ligne pédagogique selon laquelle les apprentissages doivent se faire à travers les usages de l’outil informatique dans les différentes disciplines existantes, et cela suffit, l’avait emporté, pour des raisons diverses (elle prendra la forme du Brevet informatique et internet, le B2i). Une longue « traversée du désert » commençait. Pour autant, des voix se faisaient entendre. Elles disaient que l’informatique étant partout (dans les autres disciplines scolaires), elle devait être quelque part en particulier, à un moment donné, sous la forme d’une discipline scolaire en tant que telle car la seule utilisation d’un outil, matériel ou conceptuel, ne suffit pas pour le maîtriser.

Gérard Berry, qui avait intitulé sa leçon inaugurale au Collège de France « Pourquoi et comment le monde devient numérique »[3], déclarait dans une interview au journal Le Monde, le 15 avril 2009 : « Du point de vue de l’enseignement de l’informatique, la France rentre résolument dans le XXe siècle. »[4]. Il regrettait que l’« on confonde la notion de computer literacy avec celle de computer sciences ». Et il ajoutait : « Dans les établissements scolaires, on a fait le choix d’enseigner les usages. C’est très insuffisant. C’est la différence entre apprendre à conduire et comprendre comment marche une voiture. Les jeunes quittent le lycée sans connaissance de la science informatique. C’est une aberration ! » .

L’association EPI (Enseignement Public et Informatique) et le groupe ITIC de l’ASTI ont pris ces dernières années de nombreuses initiatives en faveur d’un enseignement de l’informatique au lycée sous la forme d’une discipline d’enseignement général : audiences auprès des autorités de la République, tables rondes, séminaires, textes divers, propositions de programmes scolaires pour le lycée…[5]. Un tel enseignement doit comporter des apprentissages corrrespondant aux grands domaines de la science informatique, à savoir l’algorithmique et la programmation, la théorie de l’information, les machines et leurs architectures, les réseaux, Internet, les bases de données.

Dans le cadre de la réforme du lycée, un enseignement de spécialité optionnel « Informatique et sciences du numérique » a été créé en Terminale S pour la rentrée 2012. Dans son discours devant le Conseil supérieur de l’Éducation, le 10 décembre 2009, s’exprimant sur cette réforme du lycée, Luc Chatel a notamment déclaré : « A l’heure de la société de l’information et de la connaissance, la France a besoin plus que jamais de compétences scientifiques en informatique. Aujourd’hui l’informatique représente 30 % de la recherche et développement dans le monde. Aujourd’hui l’informatique est partout. Nous ne pouvons pas manquer ce rendez-vous majeur et c’est la raison pour laquelle nous proposons en série S une spécialisation « informatique et sciences du numérique » »[6].

Tous ceux qui se sont prononcés en faveur d’une telle mesure se félicitent. Parmi ceux-ci, et ce n’est pas un hasard, figure l’APRIL (« Promouvoir et défendre le logiciel libre »). Dans un communiqué de presse, le 5 janvier 2010, l’association, rappelant qu’«elle a toujours été favorable à ce que l’informatique soit une composante à part entière de la culture générale scolaire de tous les élèves sous la forme notamment d’un enseignement d’une discipline scientifique et technique », souligne « cette première et importante avancée signe d’une certaine rupture »[7]. Elle mentionne que « l’expérience de ces dernières années a clairement montré que le B2i ne fonctionnait pas. Son échec prévisible tient notamment à des problèmes insolubles d’organisation, de coordination et de cohérence des contributions supposées et spontanées des disciplines enseignées. De plus ne sont pas explicitées les connaissances scientifiques et techniques correspondant aux compétences visées. »

Le rapport de la mission parlementaire de Jean-Michel Fourgous, député des Yvelines, sur la modernisation de l’école par le numérique, « Réussir l’école numérique », remis au Ministre de l’Éducation nationale Luc Chatel le 15 février dernier, va dans le même sens[8]. Il met en évidence la portée de cet enseignement de l’informatique : « En créant une matière Informatique et sciences du numérique en terminale, le gouvernement français ouvre enfin la voie de l’apprentissage du numérique et redonne à l’école son rôle d’éducateur. » Et rappelle qu’en définitive le B2i ne correspond pas aux enjeux car « il ne permet pas d’acquérir une culture informatique, permettant de comprendre les techniques sous-tendant le fonctionnement des divers outils numériques… ne prenant pas en compte les connaissances techniques de base nécessaires ».

Le libre, une science

Si le libre est une composante à part entière de l’informatique, il n’en comporte pas moins des spécificités, qui doivent donner lieu à des enseignements dédiés, notamment dans le Supérieur. Il existe une « science du logiciel libre ». Voir l’article de Roberto Di Cosmo auquel nous nous référons ci-après[9].

Si les collaborations avec des partenaires dispersés géographiquement ne datent pas d’aujourd’hui, avec Internet la situation a radicalement changé. La question est posée de savoir sur quels principes scientifiques se fondent des projets comme Wikipédia ou Linux, exemples extrêmes de travail massivement collaboratif. Et de savoir comment en améliorer la stabilité et la fiabilité. Dans le développement du noyau Linux, chaque erreur, ou chaque fonction manquante ou obsolète, peut entraîner des dysfonctionnements majeurs rendant l’ensemble inutilisable. Malgré tout, le « phénomène Linux » a abouti à des versions de plus en plus complètes, fonctionnelles et stables. En fait, le succès des logiciels libres de qualité reposent sur des approches méthodologiques très structurées. L’organisation modulaire du code source, la sélection sévère des contributions et l’existence d’un noyau central de développeurs s’assurant de la cohérence de l’ensemble jouent un rôle essentiel dans la réussite de Linux. Mais la taille atteinte par Linux est telle que l’on est aux limites de ce qui peut être maîtrisé en s’appuyant sur les capacités organisationnelles des communautés. Les logiciels libres sont donc devenus un champ d’étude à part entière pour les informaticiens. Il faut résoudre des questions scientifiques (par exemple, comment gérer rapidement la modification d’un appel de fonction résultant de l’ajout, du changement ou de la suppression d’un paramètre ?). Le projet Coccinelle a fourni une contribution majeure en introduisant la notion de « patch sémantique ». Le projet Mancoosi vise à développer des algorithmes efficaces pour permettre aux utilisateurs d’exprimer leurs préférences lors de mises à jour et d’obtenir des installations personnalisées.

Toutes ces actions de recherche se traduiront dans des enseignements universitaires, pour le libre mais aussi l’informatique en général.

Penser l’immatériel

Dans leur rapport sur l’économie de l’immatériel, Maurice Lévy et Jean-Pierre Jouyet attirent l’attention sur le fait que, dans cette économie, « l’incapacité à maîtriser les TIC constituera (…) une nouvelle forme d’illettrisme, aussi dommageable que le fait de ne pas savoir lire et écrire ». Ils mettent en évidence les obstacles qui freinent l’adaptation de notre pays à l’économie de l’immatériel, notamment « notre manière de penser », invitant à changer un certain nombre de « nos réflexes collectifs fondés sur une économie essentiellement industrielle »[10]. Il faut former à l’informatique.

John Sulston, prix Nobel de médecine, évoquant en décembre 2002 dans les colonnes du Monde Diplomatique les risques de privatisation du génome humain, disait que « les données de base doivent être accessibles à tous, pour que chacun puisse les interpréter, les modifier et les transmettre, à l’instar du modèle de l’open source pour les logiciels ». Il existe une transférabilité de l’approche du libre à la réalisation et la mise à disposition des biens informationnels en général. On a pu le constater à l’occasion des vifs débats qui ont accompagné la transposition par le Parlement en 2006 de la directive européenne sur les Droits d’auteur et les droits voisins dans la société de l’information (DADVSI), ou plus récemment avec la loi Hadopi. Le libre, ses approches et ses méthodes, ses façons efficaces de produire des biens de connaissance qui relèvent du paradigme de la recherche scientifique, ses modèles économiques et ses réponses en termes de propriété intellectuelle, est omniprésent dans les problématiques de l’immatériel. Il faut former à l’informatique libre. Les élèves et les étudiants, travailleurs et citoyens d’aujourd’hui ou de demain, doivent en avoir entendu parler lors de leur scolarité et de leurs études. Le libre est à la fois une réponse concrète à des problèmes concrets et un outil de réflexion pour penser les problématiques générales de l’immatériel et la connaissance.


Production collaborative de ressources pédagogiques

La création de logiciels libres est un travail collaboratif : cette manière de créer du savoir à plusieurs est particulièrement importante si nous voulons préparer les plus jeunes à entrer dans une société du savoir partagé. Certains d’entre eux seront enseignants. Les enseignants ont besoin de documents, de contenus pédagogiques. Pour se former et pour enseigner. Et ils sont bien placés pour les concevoir et les produire eux-mêmes. L’on sait la transférabilité de l’approche du logiciel libre à la réalisation des contenus pédagogiques. Tout le monde, ou presque, connaît les réalisations remarquables de l’association Sésamath[11], « vaisseau-amiral » de la production collaborative de ressources pédagogiques libres, qui a obtenu un prix spécial de l’UNESCO.

Et il faut attacher une licence à un contenu produit. Les Creative Commons sont de mieux en mieux connues mais il reste du chemin à parcourir. Il faut faire connaître leurs modalités juridiques au service de l’objectif général, clairement exprimé, de favoriser la diffusion et l’accès pour tous aux oeuvres de l’esprit, en conciliant les droits légitimes des auteurs et des usagers. Creative Commons renverse le principe de l’autorisation obligatoire. Il permet à l’auteur d’autoriser par avance, et non au coup par coup, certains usages et d’en informer le public. Il est autorisé d’autoriser. C’est incontournable à l’heure d’Internet et du numérique car, sinon, toute vie intellectuelle serait impossible si l’on ne pouvait parler librement des oeuvres et s’il fallait, pour la moindre citation, demander l’autorisation à l’auteur ou à ses héritiers.

Que de nombreux autres enseignants, à la manière de Sésamath, fabriquent des contenus libres dans des démarches de mutualisation et de coopération est une raison supplémentaire de former au libre.

Jean-Pierre Archambault
CNDP-CRDP de Paris, coordonnateur du pôle de compétences logiciels libres du SCEREN

Notes

[1] Extra Ketchup (Creative Commons By-Sa)

[2] « L’informatique, science de l’outil », Maurice Nivat (à paraître dans EpiNet 124) http://www.epi.asso.fr/

[3] Leçon inaugurale le 17 janvier 2008, Cours Séminaires du Collège de France, par Gérard Berry titulaire de la chaire d’innovation technologique Liliane Bettencourt http://www.college-de-france.fr/default/EN/all/inn_tec2007/

[4] « Gérard Berry : L’informatique est une science », de Christian Bonrepaux dans le Cahier Éducation du Monde daté du 16 avril 2009. http://www.lemonde.fr/societe/article/2009/04/15/gerard-berry-l-informatique-est-une-science_1181041_3224.html

[5] $http://www.epi.asso.fr/blocnote/blocsom.htm#itic On pourra aussi se référer, pour les élèves à partir de l’école primaire, à la version francaise de « Computer Science Unplugged » : http://interstices.info/jcms/c_47072/enseigner-et-apprendre-les-sciences-informatiques-a-l-ecole

[6] http://www.education.gouv.fr/cid49972/reforme-du-lycee-discours-devant-le-conseil-superieur-de-l-education.html

[7] http://www.epi.asso.fr/revue/docu/d1001a.htm

[8] http://www.reussirlecolenumerique.fr/

[9] « La science du logiciel libre », Roberto Di Cosmo, La Recherche n°436, décembre 2009 – Professeur à l’Université Paris 7, Roberto Di Cosmo « porte » le projet de centre de recherche sur le logiciel libre de l’INRIA.

[10] Rapport remis à Thierry Breton en décembre 2006.

[11] http://www.sesamath.net




Inauguration du CF2L – Allocution du président de l’Université Paris Diderot

Le 5 février 2010 était inauguré à l’Université Paris Diderot le premier Centre de Formation Logiciels Libres (ou CF2L) dans le cadre de l’Université numérique Paris Île-de-France (UNPIdF).

Nous en avions annoncé ici-même la création et participé à diffuser le programme.

Cet évènement témoigne de l’intérêt croissant de l’université en général et de celles d’Île-de-France en particulier pour le logiciel libre. J’en veux pour preuve supplémentaire la présence de deux présidents et un vice-président d’université lors de cette inauguration.

Partie prenante de la formation, Framasoft était représenté par Pierre-Yves Gosset et moi-même. D’ordinaire les traditionnels discours officiels ont quelque chose de lisse et de convenu. Or nous avons été très agréablement surpris par l’acuité et la justesse des propos tenus ce soir-là. C’est aussi à cela que l’on mesure le chemin parcouru.

Mention spéciale à Vincent Berger, président de l’Université Paris Diderot et hôte de la manifestation, dont l’intervention m’a tant et si bien marquée que je n’ai pu m’empêcher de l’aborder pour lui demander l’aimable autorisation de la reproduire sur le Framablog.

Qu’il en soit ici chaleureusement remercié. Pour son accord, mais aussi et surtout pour être à la tête d’une université qui fait la part belle à un logiciel libre malicieusement associé ici à un oxymore.

CF2L - Inauguration - Jean-Baptiste Yunes

De gauche à droite sur le photographie ci-dessus[1] :

  • Michel Moreau-Belliard – Chef de projet de l’Université Numérique Paris Île-de-France (UNPÎdF)
  • Vincent Berger – Président de l’Université Paris Diderot
  • Jean-Claude Colliard – Président de l’Université Paris 1 Panthéon-Sorbonne et de l’Université Numérique Paris Île-de-France (UNPÎdF)
  • Arnaud Ducruix – Vice-Président de l’Université Paris Descartes, représentant Axel Kahn, Président de l’Université Paris Descartes

Intervention Président Berger

Inauguration du Centre de Formation aux Logiciels Libres
Vendredi 5 février 2010
Salle des thèses, Université Paris Diderot

Mesdames et Messieurs,
Chers collègues,

Nous le savons tous et vous le savez mieux que quiconque, la société de l’information qui est la nôtre est une société de la circulation : circulation des savoirs, circulation des données, circulation des signes. Qui a accès aux moyens de cette communication peut espérer prendre part à cette société de l’information et en être un acteur.

On sait combien l’économie du partage des savoirs est aujourd’hui un enjeu complexe. On sait aussi combien le large accès aux moyens de l’information est un enjeu politique au sens le plus large et le plus noble du terme. L’accès à ces moyens d’information conditionne la réalité de l’exercice démocratique dans un monde aux cultures et aux pratiques toujours plus intégrées et globalisées.

Dans ce contexte, on sait quel est le rôle charnière de l’université. Sa mission hier comme aujourd’hui est de garantir l’accès du plus grand nombre à des savoirs et à des compétences complexes. Son rôle dans l’économie de la connaissance et de l’information lui enjoint de jouer un rôle ambitieux et volontaire dans la promotion et la diffusion d’une culture du partage.

En cela, la pratique universitaire — qu’elle soit pédagogique ou scientifique, qu’elle se déploie dans une salle de TD ou un laboratoire — participe du même esprit que celle du logiciel libre. La dynamique collégiale, l’énergie collective qui ont rendu le développement du logiciel libre possible relève de la même éthique du partage que celle de la recherche et de l’enseignement.

Les outils numériques ouverts ont connu un essor tel qu’aujourd’hui ils répondent à la quasi intégralité de nos besoins en technologie informatique. Accompagner leur développement, former les utilisateurs et les développeurs à leur utilisation et à leur développement, est désormais aussi la tâche de l’université. Le Centre de Formation aux Logiciels Libres (CF2L) répond à cet impératif.

Dans sa conception et sa gestation, ce Centre est aussi exemplaire d’une autre forme de dynamique collaborative que nous défendons aussi : celle qui doit permettre à des universités de dépasser leur logique propre pour faire advenir des synergies porteuse d’avenir, porteuse de nouveau. C’est le cas de l’Université Numérique Paris Ile de France, pilotée par l’université Paris 1 – Panthéon Sorbonne, dont l’une des actions est d’offrir en mutualisation des formations à destination des personnels, quels qu’ils soient, appartenant aux universités franciliennes. C’est aussi le cas du RTC (Regional Training Center), aujourd’hui hébergé par l’Université Paris Descartes, une initiative de l’Université numérique et d’Apple pour former les personnels des universités de la région parisienne aux usages du numérique. En 2011 devrait ouvrir aussi un centre de formation aux outils Microsoft.

Le Centre de Formation que nous inaugurons aujourd’hui s’inscrit dans ce même esprit. Il témoigne de l’investissement ancien de notre établissement dans l’usage et la défense du logiciel libre. L’UFR d’informatique a eu, dès le début des années 80, une action très volontariste dans l’usage et la promotion du numérique ouvert, avec la pratique d’Unix par exemple. L’Université a, dès les années 90 promu l’usage systématique de systèmes d’exploitation libres au sein du Service Commun de Ressources Informatiques Pédagogiques et Technologiques (le SCRIPT), dirigé aujourd’hui par Olivier Cardoso. De nombreux enseignements s’appuient sur des logiciels libres.

J’ouvre ici une parenthèse, j’aime beaucoup l’expression « logiciel libre » qui a le charme des oxymores, comme « la force tranquille . Je me rappelle que lorsque j’étais étudiant en Maths spé, on employait une technique d’intégration qui répondait au nom épatant de « méthode de la variation de la constante ». Le programme d’une révolution, en somme.

Le « logiciel libre » ressemble à la variation de la constante, parce que justement, le logiciel est une succession d’actions élémentaires qui sont censées s’enchaîner « logiquement », c’est-à-dire tout le contraire de la liberté. Je me rappelle aussi de mon sujet de philosophie au baccalauréat, qui s’intitulait « l’acte libre existe-il ? ». Je ne soupçonnais pas un instant que cette courte question deviendrait, bien au delà du petit tracas d’une dissertation de trois heures, le questionnement de toute une vie. Récemment, dans le cadre des discussions sur l’attribution des primes à l’université, nous avons été amenés à discuter de l’excellence, du mérite. Nous nous sommes vite rendu compte que la complexité de la discussion résidait dans le fait que nous touchions ici foncièrement à la question de la liberté. Si quelqu’un réussit davantage dans ses recherches simplement parce qu’il est plus intelligent, parce que le logiciel de ses gènes l’a programmé à être doué de capacités hors normes, peut-on parler de mérite ? Si c’est au contraire son éducation qui l’a programmé à faire preuve des qualités nécessaires pour atteindre l’excellence, où est le mérite ? Le mérite n’est-il pas lié intimement à la possibilité d’un acte libre ? La vie dans son ensemble est-elle un enchaînement logiciel d’actions complexes mais logiques, où laisse-t-elle place à la libre construction de son destin ? Cette expression, le « logiciel libre », m’évoque donc cet éternel sujet de philosophie.

Mais revenons à notre inauguration. Le Centre de Formation implanté à Paris Diderot constitue la suite logique de cet investissement de longue date dans l’économie du logiciel libre. Développé en partenariat avec Paris Descartes, il est aussi un exemple concret des partenariats lancés entre nos deux établissements afin de renforcer notre action commune dans le paysage universitaire francilien et national.

On le sait la liberté a de nombreux visages. L’économie ouverte du logiciel libre est de celle qui permettront demain, comme aujourd’hui, un plus libre partage des compétences informatiques. Nous ne pouvons que nous féliciter de la création de ce centre et remercier tous les collègues qui ont travaillé à sa mise en place, dont Jean-Baptiste Yunès et Thierry Stoehr qui ont été la cheville ouvrière du projet et qui défendent avec une énergie inlassable le développement des TICE et du logiciel libre dans notre établissement.

L’action citoyenne de notre établissement passe aussi par le soutien à cette action et je souhaite réaffirmer que, parmi les nombreux chantiers qui sont les nôtres, le développement de ces technologies engage notre avenir pédagogique. Il engage aussi notre mission de diffusion des savoirs. De cette diffusion nous sommes aussi comptables avec vous.

Je vous remercie.

Notes

[1] Crédit photo : Université Paris Diderot




Mozilla, le H264 ne doit pas passer par toi !

CBS Fan - CC by-saOn l’a évoqué longuement dans un précédent billet, l’avenir de la vidéo en lecture continue sur le Web est à un tournant de son histoire. Mais plus encore que le logiciel libre, il est fort difficile de sensibiliser le grand public sur ce sujet il est vrai technique et complexe.

L’évènement qui redistribue les cartes est le passage progressif de tous les navigateurs à la nouvelle version 5 du HTML permettant de lire directement une vidéo. C’est une bonne nouvelle parce que nous allons enfin pouvoir nous affranchir du format Flash qui était fermé et nécessitait l’installation d’un plugin propriétaire dédié (et mal supporté sur des OS libres comme GNU/Linux).

Mais si le HTML5 autorise donc les navigateurs à lire directement une vidéo, elle ne dit rien sur le format (ou le codec) dans lequel doit être publiée cette vidéo. Or aujourd’hui deux formats bien différents font acte de candidature : le format Ogg Theora et le format H.264.

Le premier problème c’est que si le Ogg Theora est libre (et gratuit), le H.264 est breveté et demande plusieurs millions par an aux navigateurs qui voudraient l’inclure et le supporter[1].

Le second problème c’est qu’à l’heure actuelle la balance penche nettement en faveur du H.264 qui, avec la future version 9 d’Internet Explorer sera lu par tous les navigateurs sauf Mozilla et Opera.

Il y a alors un double risque. Celui de quitter un format breveté (Flash) pour un autre format breveté (H.264) et celui d’ostraciser les navigateurs Opera et surtout Firefox (qui a déjà fort à faire actuellement avec la concurrence inavouée mais bien réelle de Chrome).

La pression est alors clairement sur les épaules de Mozilla. La fondation va-t-elle persister à refuser le H.264 pour des raisons économiques mais surtout éthiques, en devenant en quelque sorte le porte-drapeau de l’Ogg Theora ? Ou bien va-t-elle abdiquer pour ne pas voir ses parts de marché grignoter par d’autres navigateurs, et c’en sera alors fini des espoirs suscités par le Ogg Theora ?

On sait que l’on peut compter sur Wikimedia (qui a ouvert tout récemment le très opportun site Let’s get video on Wikipedia). Mais qu’adviendra-t-il de Google qui a pour le moment adopté le H.264 pour YouTube alors que la firme peut potentiellement mettre tout le monde d’accord en proposant un troisième format issu d’une récente acquisition ?

Dans l’article traduit ci-dessous, le journaliste Thom Holwerda ne cache pas sa préférence : il souhaite voir Mozilla résister. Mais il nous rappelle fort justement que la décision est également suspendue au choix du format des utilisateurs et développeurs Web lorsqu’ils mettront en ligne leurs futures vidéos.

Au nom du « pragmatisme », certains voudraient privilégier le H.264 ? N’oublions pas que pour les mêmes raisons nous nous enchainâmes à Internet Explorer 6 qui fit stagner pendant de longues années le Web tout entier.

Mozilla : reste fidèle à tes idéaux, tiens-toi à l’écart de H264

Mozilla: Stick to Your Ideals, Shun H264

Thom Holwerda – 19 mars 2010 – OSNews.com
(Traduction Framalang : Antistress, Goofy et Quentin)

A présent que les caractéristiques d’Internet Explorer 9 ont été rendues publiques, nous connaissons mieux la position de Microsoft quant au codec vidéo à associer à la balise video de HTML5. Microsoft a choisi H264, un codec qu’il fournit déjà avec Windows de toute façon. Cela signifie que, Firefox et Opera mis à part, tous les principaux navigateurs prendront en charge le H264. D’aucuns y voient une raison pour que Mozilla abandonne ses idéaux et ajoute le support de H264. Je dis : Mozilla, reste fidèle à tes idéaux. Les dernières personnes à écouter en cette matière sont les développeurs Web.

« Mozilla devrait souscrire une licence d’utilisation de H264 »

Nous connaissons tous la situation de la vidéo via HTML5. Nous avons cette solution merveilleuse – une balise pour la vidéo aussi simple que pour les images – qui permet à chacun d’intégrer facilement des séquences vidéo sur son site Web sans avoir à recourir à la technologie propriétaire Flash. Il y a toutefois un problème.

Le problème est qu’il n’y a pas de codec standard pour HTML5. Les principaux compétiteurs sont H264 et Theora et il semble que ce dernier l’emporte pour le moment du côté des navigateurs. Une vidéo encodée avec Theora peut être vue à la fois des utilisateurs de Firefox, Chrome et Opera alors qu’avec H264 il vous manque les utilisateurs de Firefox et Opera. Si l’on considère que Firefox est, de loin, le plus répandu des navigateurs implémentant HTML5, encoder votre vidéo exclusivement en H264 revient à vous tirer une balle dans le pied.

Il y a une raison simple qui explique que Mozilla soit vent debout contre H264 : le codec est criblé de brevets. Cela signifie que, si vous utilisez le codec dans certaines parties du monde, vous vous exposez à devoir verser une redevance à la MPEG-LA qui gère les brevets de H264 (entre autres). Et, en effet, la MPEG-LA a clairement indiqué fin janvier que les utilisateurs finaux pouvaient eux aussi être la cible de contentieux relatifs aux brevets.

« J’aimerais aussi préciser que, bien que nos licences ne soient pas souscrites par les utilisateurs finaux, toute personne de la chaîne d’utilisation est responsable si un produit est utilisé sans licence » explique Allen Harkness, en charge des licences pour la MPEG-LA. « En conséquence, la redevance acquittée par le fournisseur d’un produit couvre l’utilisateur final, mais, lorsque la redevance n’a pas été acquittée, le produit est utilisé sans autorisation et toute personne de la chaîne (fournisseur ou utilisateur) peut en être tenue pour responsable ».

Étant donné que H264 est clairement incompatible avec les idéaux du logiciel libre, Mozilla a décidé de s’y opposer farouchement. Le refus d’Opera de souscrire une licence pour H264 n’a, de toute évidence, rien à voir avec un quelconque idéal (Opera étant un logiciel propriétaire après tout) mais la société norvégienne considère que le montant de la redevance est simplement trop élevé.

Apple pousse depuis longtemps H264 dans l’ensemble de ses logiciels et produits tandis que, du point de vue de Google, la redevance à acquitter pour avoir le droit d’utiliser H264 représente des clopinettes. Le dernier grand acteur à ne pas s’être prononcé était Microsoft qui, comme on pouvait s’y attendre, vient de choisir H264 simplement parce que la licence et le codec sont déjà inclus dans Windows. Le fait que des processeurs spécialisés dans le décodage de H264 soient disponibles sur les appareils portables constitue un autre atout tandis que Theora (ainsi que tout autre codec libre de brevet comme Dirac) ne peut se permettre ce luxe.

Du coup, des développeurs Web et autres pontes commencent à soutenir que Mozilla devrait rentrer dans le rang et souscrire une licence pour H264 sinon ils risquent de tuer la vidéo via HTML5. « J’ai des raisons de croire que la décision de Mozilla de ne pas prendre en charge les vidéos encodées en H264 dans la balise video de HTML5 à cause des nombreux brevets de ce codec est une mauvaise décision qui, à moins qu’ils ne changent d’avis, détruira tout espoir d’inaugurer une nouvelle ère où la vidéo serait accessible en ligne sans plugin » écrit Brian Crescimanno, un développeur Web qui est dans le métier depuis 1997.

Il explique qu’en campant sur ses positions, Mozilla va obliger les gens à continuer à utiliser Flash pour la vidéo vu que personne ne va encoder la vidéo deux fois uniquement pour qu’elle soit lue aussi par Firefox et Opera ; ils vont juste proposer aux utilisateurs de Firefox et Opera la vidéo encodée en H264 via Flash au lieu de ré-encoder la vidéo en Theora. Il fait remarquer également que Mozilla prenait en charge le format GIF du temps où il était propriétaire.

« Je conteste l’idée que être idéaliste soit votre raison d’être », écrit Crescimanno. « Je crois que votre responsabilité première en tant qu’éditeur d’un navigateur Web est de rendre le Web meilleur. C’est certainement ce que vous pensez sincèrement faire mais honnêtement, soyons réaliste, la seule chose que vous allez réussir c’est rendre la balise video de HTML5 inutilisable ».

Le billet de Crescimanno a été repris par John Gruber qui, rien de surprenant, abonde dans son sens : « par conséquent même ceux qui utilisent la dernière version de Firefox seront traités comme s’ils utilisaient un navigateur antique » explique Gruber. « L’intransigeance au nom de l’ouverture aura pour résultat que les utilisateurs de Firefox se verront proposer de la vidéo au moyen du plugin fermé Flash tandis qu’en coulisses la vidéo sera de toutes façons encodée en H264 ».

Gruber et Crescimanno soutiennent en fait que Mozilla devrait laisser son idéal de côté et se montrer pragmatique en implémentant le H264.

Au nom du pragmatisme

Petit retour en arrière. Il y dix ans de cela, le Web n’était pas encore la formidable source d’informations et de divertissements que nous connaissons aujourd’hui, il était à peine en train d’émerger. C’est ce moment qu’ont choisi les développeurs Web pour prendre au nom du « pragmatisme » une série de décisions d’une stupidité monumentale, décisions dont nous payons encore le prix une décennie plus tard.

Quand les développeurs Web se sont retrouvés face aux gigantesques parts de marché d’Internet Explorer 6, ils ne sont soucié de rien d’autre que de rendre les sites visibles pour cette triste version du navigateur, en faisant fi des standards au nom du « pragmatisme ». À cause de cette attitude, les autres navigateurs ont éprouvé les pires difficultés à concurrencer IE6, simplement parce que leurs utilisateurs ne pouvaient consulter leurs sites préférés optimisés pour IE6.

Dix ans plus tard, nous en voulons encore à Microsoft pour son Internet Explorer 6 qui aura rendu le Web dépendant à son égard (le nombre de sites spécifiques à IE est aujourd’hui devenu très faible mais pas nul) alors que la véritable raison pour laquelle IE est devenu si dominant et difficile à renverser est que les développeurs ne se sont pas donnés la peine de penser au delà du « pragmatisme » et de coder pour autre chose qu’IE.

Puis il y a eu Flash. Est-ce Microsoft qui nous a imposé Flash ? Est-ce Adobe qui nous a mis un revolver sur la tempe pour nous forcer à télécharger le plugin ? Non. Là encore ce sont les développeurs Web qui l’ont déployé partout sur le Web au nom du pragmatisme. Nous, les utilisateurs, ne décidons pas de télécharger Flash : nous y sommes forcés parce que les développeurs Web utilisent Flash pour tout et n’importe quoi, depuis les boutons jusqu’au lettres capitales illustrées.

Dix ans plus tard, Flash est devenu lui aussi un boulet qui entrave le Web. Les plateformes minoritaires comme Linux et Mac OS X n’ont pas suffisamment d’importance aux yeux d’Adobe pour l’inciter à développer correctement Flash dessus, sans parler de plateformes plus confidentielles encore, comme Syllable ou Haiku, qui n’ont pas du tout accès à Flash, rendant ainsi des sites aussi populaires que YouTube complètement inutilisables.

Qui allons-nous blâmer cette fois ? Je vois des développeurs Web et des blogueurs de renom comme Gruber s’en prendre à Adobe alors qu’en réalité ce sont les développeurs Web qui ont choisi Flash et l’ont rendu omniprésent sur le Web.

Et nous voilà à nouveau devant un problème similaire. Nous avons le choix pour le codec vidéo de HTML5 : l’un est libre, gratuit et n’est pas soumis à brevet, l’autre est breveté jusqu’à l’os et est tout sauf libre ou gratuit. Il y beaucoup de discussions pour savoir lequel des deux est de meilleure qualité, et vous trouverez des gens intelligents détaillant tests et arguments en faveur de l’un ou l’autre des deux codecs. Le seul avantage du H264 est, de toute évidence, le support matériel.

Et tandis que nous nous tenons à la croisée des chemins, ce sont encore les développeurs Web qui veulent faire le mauvais choix simplement parce qu’ils sont incapables de voir plus loin que le bout de leur nez. Ils se fichent de savoir à quoi ressemblera le Web dans dix ou même seulement cinq ans (quand la période d’essai gratuite sur le Web de H264 aura expiré), ils ne sont intéressés que par le présent. Ils ont fait des choix plus désastreux les uns que les autres, des choix qui ont gravement nuit au Web, et, pourtant, il faudrait que nous les écoutions encore ?

Cher Mozilla, contemple l’histoire du Web et vois l’impact désastreux d’Internet Explorer et de Flash. Regarde bien ensuite qui a fait en sorte que ces technologies nous soient imposées. Alors, et seulement alors, prends en compte à leur juste valeur leur opinion sur cette question.

A défaut, je prédis de quoi nous discuterons dans cinq ou dix ans : les développeurs Web et les pontes comme Gruber se lamenteront en se demandant comment le Web a pu embrasser sans restriction H264 à présent que la MPEG-LA a décidé de faire respecter ses brevets. Ils trouveront quelqu’un à blâmer : Microsoft, Adobe ou la lune, et, encore une fois, ils refuseront d’assumer leurs responsabilités.

L’heure du bain

Parfois il faut se jeter à l’eau. Bien sûr la transition vers un codec libre et gratuit sera difficile, mais les bénéfices escomptés le justifient amplement. Je préfère avoir affaire à une situation compliquée maintenant plutôt que de devoir faire face dans cinq ou dix ans à une situation aussi inextricable que celle engendrée par IE6 et Flash.

Notes

[1] Crédit photo : CBS Fan (Creative Commons By-Sa)




Logiciel libre et économie de la contribution : le temps de la déprolétarisation

Le 6 mars dernier Philippe Aigrain et Jérémie Zimmermann étaient invités par Alain Giffard et Bernard Stiegler dans le cadre des rencontres du Théâtre de la Colline de l’association Ars Industrialis.

Le titre était alléchant : Logiciel libre et économie de la contribution : le temps de la déprolétarisation.

Et la présentation tout autant :

Nous y accueillerons Philippe Aigrain et Jeremie Zimmermann, avec lesquels nous débattrons des enjeux du logiciel libre du point de vue d’une économie de la contribution, dans un contexte industriel marqué par une extraordinaire croissance des technologies numériques, qui pénètrent désormais pratiquement tous les aspects de la vie quotidienne. Mais nous examinerons aussi cette question dans le souci de réfléchir aux possibilités et aux spécificités du modèle contributif dans d’autres secteurs que l’économie numérique elle-même.

Plus généralement, nous mettrons à l’épreuve l’hypothèse selon laquelle le mouvement culturel, social et professionnel du logiciel libre et des creative commons constituent un précédent historique avec lequel, pour la première fois dans l’histoire industrielle, une tendance qui conduisait à ce que les processus de prolétarisation, c’est à dire de pertes de savoirs, affectant progressivement tous les acteurs de la société industrielle (producteurs, consommateurs, concepteurs, mais aussi investisseurs devenus spéculateurs), semble se renverser en une tendance contraire, où la technologie industrielle est mise au service de la reconstitution de communautés de savoirs.

C’est comme extension de ce mouvement et des nouvelles caractéristiques organisationnelles sur lesquelles il repose que le modèle du logiciel libre, qui constitue la matrice de l’économie de la contribution, annoncerait le dépassement des modèles industriels productivistes et consuméristes.

Quelle frustration de ne pouvoir en être !

Mais merci à Christian Fauré d’avoir enregistré ce débat de haute volée (ce dernier précise : « la discussion qui a suivi a été vraiment exceptionnelle, par exemple lors de l’intervention d’Alain Pierrot, vous la retrouverez bientôt sur le site d’Ars Industrialis »).

Bernard Stiegler

—> La vidéo au format webm

Philippe Aigrain

—> La vidéo au format webm

Jérémie Zimmermann

—> La vidéo au format webm

Alain Giffard

—> La vidéo au format webm