Geektionnerd : Google +

A moins d’être parti en congés dans une autre galaxie ces derniers jours, difficile d’échapper au buzz du nouveau service du tentaculaire Google : “Google Plus”. Concurrent direct de Facebook, Google Plus repose sur le même business model : vous mettre entre les mains un service efficace et agréable à utiliser[1], sur lequel vous laisserez (volontairement !) des informations personnelles qui permettra à Google de vendre votre profil publicitaire au plus offrant.

Google Plus fera-t-il plus de vagues que les précédentes tentatives orientées “réseau social” de la firme de Mountain View ? Rien n’est moins sûr, car changer les habitudes de 700 millions de personnes réclamera des ressources conséquentes[2].

Geektionnerd - Simon Gee Giraudot - CC by-sa Geektionnerd - Simon Gee Giraudot - CC by-sa Geektionnerd - Simon Gee Giraudot - CC by-sa

Crédit : Simon Gee Giraudot (Creative Commons By-Sa)

Notes

[1] attention, efficace et agréable à utiliser ne signifie par pour autant utile !

[2] D’un autre côté, quand on voit que MySpace, coqueluche du web social il y a encore 5 ans, vient d’être racheté pour 35 malheureux millions de dollars, on se dit que les employés de Facebook font peut être bien de vendre leurs actions




Petite chronique de l’e-G8, retour sur une tempête médiatique

G8 vs Internet - CC by-saLes 24 et 25 mai derniers se tenait à Paris le « Forum e-G8 », en prélude au G8 de Deauville. Ce forum participatif consacré à Internet fut résolument orienté “business” : organisé par le groupe publicitaire Publicis, les invités étaient principalement les dirigeants des plus grosses sociétés de communication (Google, Facebook, eBay, Fox, Bertelsmann, Vivendi, etc.).

Si le commerce fait évidemment partie intégrante des possibilités ouvertes par Internet, cela ne constitue qu’une petite partie de l’utilisation qui est faite du réseau aujourd’hui. Or, la sélection très orientée des intervenants ne portait par conséquent qu’un seul point de vue : « Comment utiliser Internet pour doper la croissance économique ? » et sa question sous-jacente « Comment contraindre et réguler Internet pour s’assurer que les profits continueront d’augmenter ? ».

La société civile était donc complètement marginalisée dans le programme du e-G8, laissant le champ libre à un discours de « civilisation », de « moralisation », voire de contrôle de l’Internet. C’était sans compter sur des interventions de John Perry Barlow (EFF) ou Lawrence Lessig (Creative Commons), et surtout sans la culture du « hacking » (au sens de « bidouillage », « détournement ») d’associations comme la Quadrature du Net qui ont pu faire entendre la voix des principaux concernés : les internautes.

Petite chronique de l’e-G8, retour sur une tempête médiatique

Neurone364 – 24/06/2011 – Framablog

Cette petite rétrospective se propose de parcourir les principaux évènements du « forum e-G8 » tels qu’ils furent présentés par la presse écrite sur Internet. À l’origine de cette initiative, une constatation simple : la revue de presse que tient la Quadrature du Net est passée, lors de ces deux journées pittoresques, d’un rythme de croisière d’environ 5 articles signalés par semaine, à plus de 50 par jour ! La petite équipe bénévole dédiée à la tâche a donc suivi le mouvement imprimé par le porte-parole, les co-fondateurs, les accampagnants[1], les bénévoles et tous les citoyens qui agissent et réagissent en conscience aux attaques contre Internet signalées par la Quadrature, pour finir la semaine sur les rotules, avec un sourire serein et des cernes sous les yeux.

Tout a commencé calmement, le 18 mai 2011, avec la publication par la Quadrature du Net d’un communiqué intitulé « Forum eG8 » : un écran de fumée pour le contrôle gouvernemental du Net. Dans ce communiqué, nous dénoncions l’organisation par le gouvernement d’un processus pseudo-consultatif, mis en place autour d’un show à l’américaine, avec les stars du web commercial réunies à Paris. En parallèle, accompagnée de plusieurs organisations d’artistes et citoyennes, la Quadrature invitait toutes les créativités à s’exprimer contre les tentatives de transformer Internet en un outil de répression et de contrôle en ouvrant le site web http://g8internet.com à l’expression publique.

D’un côté, il y avait donc ce simple espace de liberté, ouvert pour l’occasion par quelques gus dans un garage, et de l’autre, Publicis, un géant mondial à qui l’on confie des budgets d’état pour faire son métier : de la publicité. De la communication pour ceux qui ont, à vendre, la vision d’un Internet restreint aux intérêts de leurs activités…

Vous vous demandiez ce qu’est la Quadrature du Net ? C’est ça : un village d’irréductibles amoureux de la liberté d’expression, celle offerte à tous par l’Internet neutre que nous avons encore entre les mains, et qui s’échappe comme une poignée de sable sur laquelle soufflent de puissants intérêts privés et commerciaux.

Heureusement, cette histoire n’est pas encore écrite, et nous avons avec nous bien mieux qu’une potion magique : un réseau planétaire reliant sans discrimination toutes les bonnes volontés du monde. Il ne tient qu’à chacun de tendre la main (vers son clavier, et son prochain) pour se dresser en rempart de ce droit fondamental qu’est l’accès à Internet, l’accès aux autres.

Ce 18 mai 2011, la presse commençait à frémir devant l’évènement en préparation, LePoint.fr titrait par exemple : « Le forum e-G8 suscite doutes et attentes » notant que si « beaucoup espéraient une mise à plat des politiques de gouvernance du Net, de respect de la vie privée ou de développement des libertés d’expression et d’information, il se pouvait que l’orientation de ce e-G8 soit avant tout économique et tournée vers les grands acteurs privés plutôt que vers les internautes. »

Le 19, c’est Médiapart qui se faisait l’écho d’une société civile oubliée à cette grand messe, dans un article intitulé : « Avant le G8 du Net, les citoyens tentent de garder la parole ». Et ce « tentent » n’était rien moins que défaitiste.

Le 20 mai, la Quadrature du Net annonçait une analyse à paraître dans l’hebdomadaire Marianne et sur le site du journal détaillant la spectaculaire opération de rattrapage tentée par Nicolas Sarkozy auprès des électeurs internautes, après avoir lui-même empêché la tenue d’une conférence mondiale consacrée à la liberté d’expression sur internet, pourtant proposée par Bernard Kouchner. Après avoir menacé de passer les banlieues au karsher, le conquistador de l’Élysée voulait cette fois se donner pour mission de « civiliser » l’internet.

L’Élysée ne veut pas entendre parler de cyberdissidence, ni de liberté d’expression, il veut du “contrôle”. Frédéric Martel, Marianne, 21-27 mai 2011

Cet article de Marianne, repris dans le Figaro sous le titre : « Sarkozy préfère “l’internet civilisé” aux cyberdissidents » sera lu plus de 30 000 fois en une semaine, première goutte de pluie annonçant la fin du calme avant la tempête médiatique.

D’ailleurs des gouttes tombaient déjà au delà de nos frontières, comme en atteste cet article du New York Times paru le même jour, sous le titre narquois « Chaos of internet Will Meet French Sense of Order » ou « Le chaos d’Internet va rencontrer le sens de l’ordre français ».

La pluie s’est mise à crépiter le 23 mai, à la veille du forum, le lundi de cette fameuse semaine. Les premières éclaboussures vinrent du site PublicSénat.fr reconnaissant que l’évènement annoncé est « Pour le chef de l’Etat, l’occasion de renouer avec le monde du Web, un peu malmené avec la loi Hadopi. Nicolas Sarkozy n’est pas un grand amateur des questions numériques. », et relayant l’analyse de la Quadrature quant au contenu des « débats », voire plutôt du déballage prévu pour les jours suivants. De son côté, l’Express publiait dans un article « Ce qu’il faut savoir sur l’eG8 » confiant que

L’impression générale donnée par le forum est celle d’un grand fourre-tout, dont on imagine qu’il servira de grand rendez-vous de networking. Dans ces conditions, difficile de déboucher sur des annonces concrètes. D’autant que les chefs d’Etat du G8 ne prévoient de consacrer qu’une heure à ces questions lors du sommet de Deauville.

En Europe, le site RTL.be titrait sans illusions et avec le franc-parler que l’on ne trouve plus dans l’hexagone concernant les affaires gouvernementales : « eG8 Forum : politiques et stars du Web à Paris ».

Le mardi 24 mai la Quadrature du Net rappelait dans un communiqué, pour lancement de l’opération, que :

L’eG8 est une mise en scène où un gouvernement déconnecté de la civilisation Internet espère apparaître en phase avec celle-ci en se montrant en compagnie de quelques leaders économiques du secteur. »

Et la pluie se fit alors battante. Elle ruisselait sur nos écrans en ondées numériques défilant comme les vagues vert-phosphorescent des moniteurs de la matrice… Libération parlait ainsi de « L’illustration parfaite d’une collusion malsaine » Europe1 des « “People” et paillettes pour le G8 du web » et Le Monde relevait que l’e-G8 n’allait que « de “Internet civilisé” à l’Internet “facteur de croissance” », se faisant l’écho des analyses de la Quadrature ou de l’IGC[2] pour qui il est anormal que le forum soit « organisé par le secteur privé et que l’accès soit donné aux seuls acteurs des entreprises privées et des gouvernements. »

20Minutes.fr notait également de son côté qu’à l’e-G8 il semblait se confronter « deux visions du Net irréconciliables » tandis que Challenges.fr reprenait le glissement sémantique opéré par le Président qui ne parla plus alors dans ses discours de civiliser l’espace numérique, mais désormais de moraliser l’internet.

SudOuest.fr titra sur la sensationnelle déclaration de Nova Spivack, invité à l’événement :

Internet va balayer les gouvernements

En début d’après midi, la CNIL tapait du poing sur la table dans une spectaculaire sortie intitulée « La protection de la vie privée absente de l’e-G8 : oubli ou rejet ? » et se terminant par plusieurs remarques dont la plus cinglante est sûrement :

Lors de cet événement où tout s’achète, combien coûte la protection de la vie privée ? Apparemment pas grand-chose !

Une petite phrase qui en dit long sur la considération du gouvernement à l’égard de cet indispensable organe de l’état, et qui se répandit sur les blogs et micro-blogs cet après-midi là, alors que le déjeuner des canotiers imaginés par Publicis subissait un orage imprévu.

En milieu d’après midi, la Quadrature publiait, avec une trentaine d’organisations et associations attachées aux libertés sur Internet une « Déclaration de la Société Civile au G8 et e-G8 » rappelant en quatre points essentiels leur attachement à l’accès Internet pour tous, à la liberté d’expression et à la neutralité du réseau.

Déclaration entendue par France24 qui constata en fin de journée que l’e-G8 « ne dissipait pas la crainte de la censure » et le pire était encore à venir.

Le lendemain ce fut le déluge. Des journaux allemands, anglais, italiens, suisses, belges, canadiens ou américains se firent l’écho de l’actualité de la veille, à l’image d’FT.com titrant «? Tech titans’ optimism fades under Paris sun ?» ou « L’optimisme des titans de la technologie s’estompe sous le soleil de Paris » ou encore de V3.co.uk avec son « Rights groups revolt as Sarkozy reveals plans to stamp out Internet freedoms », « les défenseurs des droits sur internet se révoltent face aux plans dévoilés par Sarkozy d’éradiquer les libertés sur Internet ». Pour Cyberpresse.ca « Sarkozy souffle le chaud et le froid » :

Évoquant le rôle qu’a joué Internet dans les soulèvements observés en Tunisie ou en Égypte, il a déclaré que le web est devenu “le vecteur d’une puissance inédite pour la liberté d’expression dans le monde”. Mais, du même souffle, il a soutenu que le réseau mondial ne doit pas être “un univers parallèle affranchi des règles du droit ” Le discours de Nicolas Sarkozy ne risque guère d’apaiser les organisations de défense des usagers de l’internet, qui l’accusent de vouloir “censurer” le réseau.

Analyse on ne peut plus juste, car pendant ce temps là, la société civile se mobilisait pour faire entendre ses voix au cours d’une conférence de presse improvisée tournant au contre-sommet de l’e-G8. Une soixantaine de journalistes vinrent en effet y entendre Lawrence Lessig (fondateur des Creative Commons), Jean-François Julliard (secrétaire général de RSF), le journaliste américain Jeff Jarvis, Susan Crawford (membre de l’ICANN et ex-conseillère de Bill Clinton) ou encore Jérémie Zimmermann (porte parole de la Quadrature du Net). Parmi ces journalistes, ceux de ZDNet devait titrer dans l’après midi « Un “contre eG8” dénonce la mise en scène du forum Internet du gouvernement » rappelant que pour la Quadrature du Net, le « forum » e-G8 n’était qu’un pas de plus vers la régulation des réseaux, les modèles économiques de ces « géants » du web étant basés sur des restrictions aux libertés fondamentales des citoyens[3].

En fin de journée, le Figaro se fit l’écho des « Déceptions à l’e-G8 » tandis que le Monde rappelait l’une des premières revendications de la Quadrature du Net, dans un article nommé : « L’accès à Internet doit devenir un droit fondamental ».

Les jours suivants, et jusqu’à la tenue du G8 lui même, la pluie ne s’arrêta pas comme une simple averse. Le 26 mai, Ouest-France tint à résumer « G8 de l’Internet : que faut-il en retenir ? » notant « que le G8 à venir dans les jours suivant veut réguler Internet. Et cette éventualité fait des remous chez les acteurs du web. »

La France paraît assez mal placée pour donner des leçons et pourtant, quel discours le président français a-t-il tenu au gotha mondial des créateurs d’avenir ? Il leur a dit qu’il fallait réguler Internet, le moraliser

Indiquait quant à elle France24 dans un article intitulé : « Sarkozy et Internet : le grand malentendu »

Dans une interview vidéo parue le lendemain sur ITEspresso Tristan Nitot (fondateur et président de l’association Mozilla Europe) indiquait qu’à l’ « e-G8 : il y a un manque de représentativité, on a l’impression de servir d’alibi »

LeMonde concèdait le 28 mai que l’e-G8 restera « un sommet à l’impact limité » alors que Télérama ne mâchait pas ses mots, indiquant plus prosaïquement « L’e-G8 à Paris : game over ! ».

On a surtout assisté, à Paris, pendant les deux jours de ce premier “G8 d’Internet”, à des démonstrations de force et des discours de “winners” du Web en quelques minutes chrono. On n’en ressort pas franchement bouleversés…

Le porte-parole de la Quadrature du Net, Jérémie Zimmermann, qui ne dormit que 10h en trois jours, fut sollicité pour de nombreuses entrevues. Parmi ces interviews, la plus insolite fut sûrement celle accordée à LCI, qui permet aujourd’hui de lire, sur TF1.fr qu’à l’« e-G8 : Nicolas Sarkozy a voulu se racheter une conduite » alors qu’il « s’était adressé mardi exclusivement à un parterre de chefs d’entreprises et d’acteurs “business”. Or, ce n’est qu’une toute petite partie de ce qu’est réellement Internet.»…

Épuisés mais ravis, c’est globalement dans cet état que se trouvaient la plupart des neurones de la Quadrature du Net à la fin de cette intense semaine. Les trois modérateurs du site http://g8internet.com n’ayant par exemple guère profité de plus sommeil, vu l’activité débordante du site. Morceaux choisis :

Mais ces efforts ne furent pas vains, loin s’en faut. On pouvait en effet lire sur Slate.fr le 29 mai, « G8 et internet: un rendez-vous manqué » :

Difficile d’oublier que le eG8 était organisé par la France, le pays qui a introduit l’approche de la riposte graduée et un filtrage administratif du Web . Ce qui lui a valu de faire son entrée dans la liste des pays « sous surveillance » dans le rapport 2011 de Reporters sans frontières sur « Les Ennemis d’Internet ». Des dizaines d’organisations militent pour la liberté d’expression – notamment en ligne – et le respect de la vie privée, or seules deux d’entre elles ont été invitées à s’exprimer dans le cadre du eG8 

Une façon de constater, une fois de plus qu’en usant simplement, mais avec conviction, des recours démocratiques à disposition des citoyens en France, la société civile a vraiment le pouvoir de prendre part à la vie politique du pays, de participer des décisions et d’éviter le plus souvent le pire d’être voté[4]. Or la Quadrature du Net ne se présente à vous que comme une boîte à outil technique et politique, informant sur les enjeux et donnant les clés à chacun pour qu’il construise son intervention citoyenne. Ce n’est pas plus compliqué qu’un courriel, ou qu’un coup de fil, mais c’est ce quelque chose qui change la donne, alors indignez vous ! D’ailleurs, vous avez entendu parler d’ACTA ?

Notes

[1] Néologisme pour : campaigners

[2] Internet Governance Caucus

[3] L’intégralité des interventions de cette conférence de presse est disponible depuis en vidéo sur le Médiakit de la Quadrature du Net

[4] En terme de lois inapplicables ou se révélant contraire à la constitution par exemple…




Longue vie au Web, par Tim Berners-Lee

Neal Fowler - CC By « Sir » Tim Berners-Lee, le père du Web, a livré ce week-end au magazine Scientific American, une analyse complète lucide et accessible des menaces qui pèsent aujourd’hui sur ce curieux phénomène qui depuis vingt ans a changé la face du monde : Internet.

En termes simples, Berners-Lee revient sur l’universalité de ce réseau, qui n’a pu se développer que grâces à des conditions initiales propices :

  • Une technique simple et libre, donc bidouillable par chacun dans son coin;
  • Une conception décentralisée, permettant une croissance tous azimuts;
  • Le principe de neutralité du réseau, qui permet à tous de proposer du contenu.

Or, force est de constater que ces conditions, qui ont démarqué ce que nous appelons aujourd’hui « Internet » des autres tentatives de mise en réseau à grande échelle d’ordinateurs de par le monde, sont attaquées et mises en péril par de grandes entreprises, et, presque comme une conséquence par de nombreux gouvernements. [1]

À la lecture de ce texte, on peut également se rendre compte que la France est malheureusement en bonne position parmi les gouvernements les plus hostiles au réseau, et que la HADOPI, comme un pavé jeté dans la mare, éclabousse effectivement de honte le pays des droits de l’Homme face à ses voisins. Contrastant par exemple clairement avec le droit au haut débit pour tous mis en place par la Finlande et lui aussi mentionné par Berners-Lee.

Toutefois, la principale qualité de cette riche synthèse est son ton résolument grand public, qui a mobilisé l’équipe Framalang tout un week-end pour venir à bout de la traduction des 6 pages de l’article original en moins de 48h.

Longue vie au Web ! Un appel pour le maintien des standards ouverts et de la neutralité

Long Live the Web, A Call for Continued Open Standards and Neutrality

Tim Berners-Lee – lundi 22 novembre – ScientificAmerican.com
Traduction Framalang : Goofy, Pablo, Seb seb, Misc, Siltaar

Le Web est un enjeu crucial non seulement pour la révolution numérique mais aussi pour notre prospérité — et même pour notre liberté. Comme la démocratie elle-même, il doit être défendu.

Le world wide web est venu au monde, concrètement, sur mon ordinateur de bureau à Genève en Suisse en décembre 1990. Il était composé d’un site Web et d’un navigateur, qui d’ailleurs se trouvaient sur la même machine. Ce dispositif très simple faisait la démonstration d’une idée fondamentale : n’importe qui pouvait partager des informations avec n’importe qui d’autre, n’importe où. Dans cet esprit, le Web s’est étendu rapidement à partir de ces fondations. Aujourd’hui, à son 20ème anniversaire, le Web est intimement mêlé à notre vie de tous les jours. Nous considérons qu’il va de soi, nous nous attendons à ce qu’il soit disponible à chaque instant, comme l’électricité.

Le Web est devenu un outil puissant et omniprésent parce qu’il a été conçu suivant des principes égalitaires et parce que des milliers d’individus, d’universités et d’entreprises ont travaillé, à la fois indépendamment et ensemble en tant que membres du World Wide Web Consortium, pour étendre ses possibilités en se fondant sur ces principes.

Le Web tel que nous le connaissons, cependant, est menacé de diverses façons. Certains de ses plus fameux locataires ont commencé à rogner sur ses principes. D’énormes sites de réseaux sociaux retiennent captives les informations postées par leurs utilisateurs, à l’écart du reste du Web. Les fournisseurs d’accés à Internet sans fil sont tentés de ralentir le trafic des sites avec lesquels ils n’ont pas d’accords commerciaux. Les gouvernements — qu’ils soient totalitaires ou démocratiques — surveillent les habitudes en ligne des citoyens, mettant en danger d’importants droits de l’Homme.

Si nous, les utilisateurs du Web, nous permettons à ces tendances et à d’autres encore de se développer sans les contrôler, le Web pourrait bien se retrouver fragmenté en archipel. Nous pourrions perdre la liberté de nous connecter aux sites Web de notre choix. Les effets néfastes pourraient s’étendre aux smartphones et aux tablettes, qui sont aussi des portails vers les nombreuses informations fournies par le Web.

Pourquoi est-ce votre affaire ? Parce que le Web est à vous. C’est une ressource publique dont vous, vos affaires, votre communauté et votre gouvernement dépendent. Le Web est également vital pour la démocratie, en tant que canal de communication qui rend possible une conversation globale permanente. Le Web est désormais plus crucial pour la liberté d’expression que tout autre média. Il transpose à l’âge numérique les principes établis dans la constitution des États-Unis, dans la Magna Carta britannique et d’autres textes fondateurs : la liberté de ne pas être surveillée, filtrée, censurée ni déconnectée.

Pourtant les gens semblent penser que le Web est en quelque sorte un élément naturel, et que s’il commence à dépérir, eh bien, c’est une de ces choses malheureuses contre lesquelles on ne peut rien faire. Or il n’en est rien. Nous créons le Web, en concevant les protocoles pour les ordinateurs et les logiciels. Ce processus est entièrement entre nos mains. C’est nous qui choisissons quelles caractéristiques nous voulons qu’il ait ou non. Il n’est absolument pas achevé (et certainement pas mort). Si nous voulons contrôler ce que fait le gouvernement, ce que font les entreprises, comprendre dans quel état exact se trouve la planète, trouver un traitement à la maladie d’Alzheimer, sans parler de partager nos photos avec nos amis, nous le public, la communauté scientifique et la presse, nous devons nous assurer que les principes du Web demeurent intacts — pas seulement pour préserver ce que nous avons acquis mais aussi pour tirer profit des grandes avancées qui sont encore à venir.

L’universalité est le principe fondateur

Il existe des principes-clés pour s’assurer que le Web devienne toujours plus précieux. Le premier principe de conception qui sous-tend l’utilité du Web et son développement, c’est l’universalité. Lorsque vous créez un lien, vous pouvez le diriger vers n’importe quoi. Cela signifie que chacun doit être capable de mettre tout ce qu’il veut sur le Web, quel que soit l’ordinateur, le logiciel utilisé ou la langue parlée, peu importe qu’on ait une connexion avec ou sans wifi. Le Web devrait être utilisable par des personnes handicapées. Il doit fonctionner avec n’importe quelle information, que ce soit un document ou un fragment de données, quelle que soit la qualité de l’information — du tweet crétin à la thèse universitaire. Et il devrait être accessible avec n’importe quel type de matériel connectable à Internet : ordinateur fixe ou appareil mobile, petit ou grand écran.

Ces caractéristiques peuvent paraître évidentes, allant de soi ou simplement sans importance, mais ce sont grâce à elles que vous pourrez voir apparaître sur le Web, sans aucune difficulté, le site du prochain film à succès ou la nouvelle page d’accueil de l’équipe locale de foot de votre gamin. L’universalité est une exigence gigantesque pour tout système.

La décentralisation est un autre principe important de conception. Vous n’avez nul besoin de l’approbation d’une quelconque autorité centrale pour ajouter une page ou faire un lien. Il vous suffit d’utiliser trois protocoles simples et standards : écrire une page en HTML (langage de balisage hypertextuel), de la nommer selon une norme d’URI (identifiant uniforme de ressource), et de la publier sur Internet en utilisant le protocole HTTP (protocole de transfert hypertexte). La décentralisation a rendu possible l’innovation à grande échelle et continuera de le faire à l’avenir.

L’URI est la clé de l’universalité (à l’origine j’ai appelé le procédé de nommage URI, Universal Resource Identifier – Identifiant Universel de Ressource ; par la suite il est devenu URL, Uniform Resource Locator – Localisateur Uniforme de Ressource). L’URI vous permet de suivre n’importe quel lien, indépendamment du contenu vers lequel il pointe ou de qui publie ce contenu. Les liens transforment le contenu du Web en quelque chose de plus grande valeur : un espace d’information inter-connecté.

Plusieurs menaces à l’encontre de l’universalité du Web sont apparues récemment. Les compagnies de télévision par câble qui vendent l’accès à Internet se demandent s’il faut pour leurs clients limiter le téléchargement à leurs seuls contenus de divertissement. Les sites de réseaux sociaux présentent un problème différent. Facebook, LinkedIn, Friendster et d’autres apportent essentiellement une valeur en s’emparant des informations quand vous les saisissez : votre date de naissance, votre adresse de courriel, vos centres d’intérêts, et les liens qui indiquent qui est ami avec qui et qui est sur quelle photo. Les sites rassemblent ces données éparses dans d’ingénieuses bases de données et réutilisent les informations pour fournir un service à valeur ajoutée — mais uniquement sur leurs sites. Une fois que vous avez saisi vos données sur un de ces services, vous ne pouvez pas facilement les utiliser sur un autre site. Chaque site est un silo, séparé des autres par une cloison hermétique. Oui, vos pages sur ces sites sont sur le Web, mais vos données n’y sont pas. Vous pouvez accéder à une page Web contenant une liste de gens que vous avez rassemblée au même endroit, mais vous ne pouvez pas envoyer tout ou partie de cette liste vers un autre site.

Cette compartimentation se produit parce que chaque élément d’information est dépourvu d’URI. L’interconnexion des données existe uniquement à l’intérieur d’un même site. Ce qui signifie que plus vous entrez de données, et plus vous vous enfermez dans une impasse. Votre site de réseau social devient une plateforme centrale — un silo de données fermé, qui ne vous donne pas le plein contrôle sur les informations qu’il contient. Plus ce genre d’architecture se répand, plus le Web se fragmente, et moins nous profitons d’un unique espace d’information universel.

Un effet pervers possible est qu’un site de réseau social — ou un moteur de recherche, ou un navigateur — prenne une telle ampleur qu’il devienne hégémonique, ce qui a tendance à limiter l’innovation. Comme cela s’est produit plusieurs fois depuis les débuts du Web, l’innovation permanente du plus grand nombre peut être la meilleure réponse pour contrer une entreprise ou un gouvernement quelconque qui voudrait saper le principe d’universalité. GnuSocial et Diaspora sont des projets sur le Web qui permettront à chacun de créer son propre réseau social sur son propre serveur, et de se connecter à d’autres sur leur site. Le projet Status.net, qui fait tourner des sites comme Identi.ca, vous permet de monter votre propre réseau de micro-blogage à la manière de Twitter mais sans la centralisation induite par Twitter.

Les standards ouverts sont le moteur de l’innovation

Permettre à chaque site d’être lié à n’importe quel autre est nécessaire mais pas suffisant pour que le Web ait une armature solide. Les technologies de base du Web, dont les particuliers et les entreprises ont besoin pour développer des services avancés, doivent être gratuites et sans redevance. Amazon.com, par exemple, est devenu une gigantesque librairie en ligne, puis un disquaire, puis un immense entrepôt de toutes sortes de produits, parce que l’entreprise avait un accès libre et gratuit aux standards techniques qui sous-tendent le Web. Amazon, comme tout usager du Web, a pu utiliser le HTML, l’URI et le HTTP sans avoir à en demander l’autorisation à quiconque et sans avoir à payer pour cela. La firme a pu également bénéficier des améliorations de ces standards développées par le World Wide Web Consortium, qui permettent aux clients de remplir un bon de commande virtuel, de payer en ligne, d’évaluer les marchandises achetées et ainsi de suite.

Par « standards ouverts » je veux dire des standards à l’élaboration desquels peuvent participer tous les spécialistes, pourvu que leur contribution soit largement reconnue et validée comme acceptable, qu’elle soit librement disponible sur le Web et qu’elle soit gratuite (sans droits à payer) pour les développeurs et les utilisateurs. Des standards ouverts, libres de droits et faciles à utiliser génèrent l’extraordinaire diversité des sites Web, depuis les grands noms tels qu’Amazon, Craigslist et Wikipédia jusqu’aux blogs obscurs maintenus par des passionnés, en passant par les vidéos bricolées à la maison et postées par des ados.

La transparence signifie aussi que vous pouvez créer votre site Web ou votre entreprise sans l’accord de qui que ce soit. Au début du Web, je ne devais pas demander de permission ni payer de droits d’auteur pour utiliser les standards ouverts propres à Internet, tels que le célèbre protocole de contrôle de transmission (TCP) et le protocole Internet (IP). De même, la politique de brevets libres de droits du W3C (World Wide Web Consortium) dit que les entreprises, les universités et les individus qui contribuent au développement d’un standard doivent convenir qu’ils ne feront pas payer de droits d’auteur aux personnes qui pourraient l’utiliser.

Les standards libres de droits et ouverts ne signifient pas qu’une entreprise ou un individu ne peut pas concevoir un blog ou un programme de partage de photos et vous faire payer son utilisation. Ils le peuvent. Et vous pourriez avoir envie de payer pour ça, si vous pensez que c’est « mieux » que le reste. L’important est que les standards ouverts permettent un grand nombre d’options, gratuites ou non.

En effet, de nombreuses entreprises dépensent de l’argent pour mettre au point des applications extraordinaires précisément parce qu’elles sont sûres que ces applications vont fonctionner pour tout le monde, sans considération pour le matériel, le système d’exploitation ou le fournisseur d’accés internet (FAI) que les gens utilisent — tout ceci est rendu possible par les standards ouverts du Web. La même confiance encourage les scientifiques à passer des centaines d’heures à créer des bases de données incroyables sur lesquelles ils pourront partager des informations sur, par exemple, des protéines en vue de mettre au point des remèdes contre certaines maladies. Cette confiance encourage les gouvernements des USA ou du Royaume-Uni à mettre de plus en plus de données sur le réseau pour que les citoyens puissent les inspecter, rendant le gouvernement de plus en plus transparent. Les standards ouverts favorisent les découvertes fortuites : quelqu’un peut les utiliser d’une façon que personne n’a imaginée avant. Nous le voyons tous les jours sur le Web.

Au contraire, ne pas utiliser les standards ouverts crée des univers fermés. Par exemple, le systéme iTunes d’Apple identifie les chansons et les vidéos par des URI que l’on ouvre. Mais au lieu d’« http: », les adresses commencent par « itunes: » qui est propriétaire. Vous ne pouvez accéder à un lien « itunes: » qu’en utilisant le logiciel propriétaire iTunes d’Apple. Vous ne pouvez pas faire un lien vers une information dans l’univers iTunes, comme une chanson ou une information sur un groupe. L’univers iTunes est centralisé et emmuré. Vous êtes piégés dans un seul magasin, au lieu d’être sur une place ouverte. Malgré toutes les fonctionnalités merveilleuses du magasin, leurs évolutions sont limitées par ce qu’une seule entreprise décide.

D’autres entreprises créent aussi des univers fermés. La tendance des magazines, par exemple, de produire des « applis » pour smartphone plutôt que des applications Web est inquiétante, parce que ce contenu ne fait pas partie du Web. Vous ne pouvez pas le mettre dans vos signets, ni envoyer par email un lien vers une page pointant dessus. Vous ne pouvez pas le « tweeter ». Il est préférable de créer une application Web qui fonctionnera aussi sur les navigateurs des smartphones et les techniques permettant de le faire s’améliorent en permanence.

Certaines personnes pourraient penser que les univers fermés ne sont pas un problème. Ces univers sont faciles à utiliser et peuvent donner l’impression de leur apporter tout ce dont elles ont besoin. Mais comme on l’a vu dans les années 1990 avec le système informatique bas débit d’AOL, qui vous donnait un accès restreint à un sous-ensemble du Web, ces « jardins emmurés », qu’importe qu’ils soient agréables, ne peuvent rivaliser en diversité, en profusion et en innovation avec l’agitation démente du Web à l’extérieur de leurs portes. Toutefois, si un « clôt » a une emprise trop importante sur un marché cela peut différer sa croissance extérieure.

Garder la séparation entre le Web et l’Internet

Conserver l’universalité du Web et garder ses standards ouverts aide tout le monde à inventer de nouveaux services. Mais un troisième principe — la séparation des couches — distingue la conception du Web de celle de l’Internet.

Cette séparation est fondamentale. Le Web est une application tournant sur Internet, qui n’est autre qu’un réseau électronique transmettant des paquets d’information entre des millions d’ordinateurs en suivant quelques protocoles ouverts. Pour faire une analogie, le Web est comme un appareil électroménager qui fonctionne grâce au réseau électrique. Un réfrigérateur ou une imprimante peut fonctionner tant qu’il utilise quelques protocoles standards — aux États-Unis, on fonctionne sur du 120 volts à 60 hertz. De la même façon, chaque application — parmi lesquelles le Web, les courriels ou la messagerie instantanée — peut fonctionner sur Internet tant qu’elle suit quelques protocoles standards d’Internet, tels que le TCP et l’IP.

Les fabricants peuvent améliorer les réfrigérateurs et les imprimantes sans transformer le fonctionnement de l’électricité, et les services publics peuvent améliorer le réseau électrique sans modifier le fonctionnement des appareils électriques. Les deux couches de technologie fonctionnent en même temps mais peuvent évoluer indépendamment. C’est aussi valable pour le Web et Internet. La séparation des couches est cruciale pour l’innovation. En 1990 le Web se déploie sur Internet sans le modifier, tout comme toutes les améliorations qui ont été faites depuis. À cette période, les connexions Internet se sont accélérées de 300 bits par seconde à 300 millions de bits par seconde (Mbps) sans qu’il ait été nécessaire de repenser la conception du Web pour tirer profit de ces améliorations.

Les droits de l’homme à l’âge électronique

Bien qu’Internet et les principes du Web soient distincts, un utilisateur du Web est aussi un utilisateur d’Internet et par conséquent il compte sur un réseau dépourvu d’interférences. Dans les temps héroïques du Web, il était techniquement trop difficile pour une entreprise ou un pays de manipuler le Web pour interférer avec un utilisateur individuel. La technologie nécessaire a fait des bonds énormes, depuis. En 2007, BitTorrent, une entreprise dont le protocole de réseau « peer to peer » permet de partager les musiques, les vidéos et d’autres fichiers directement sur Internet, a déposé une plainte auprès de la FCC (commission fédérale des communications) contre le géant des fournisseurs d’accès Comcast qui bloquait ou ralentissait le trafic de ceux qui utilisaient l’application BitTorrent. La FCC a demandé à Comcast de cesser ces pratiques, mais en avril 2010 la cour fédérale a décidé que la FCC n’avait pas le droit de contraindre Comcast. Un bon FAI (Fournisseur d’Accès Internet) qui manque de bande passante s’arrangera souvent pour délester son trafic de moindre importance de façon transparente, de sorte que les utilisateurs soient au courant. Il existe une différence importante entre cette disposition et l’usage du même moyen pour faire une discrimination.

Cette différence met en lumière le principe de la neutralité du réseau. La neutralité du réseau garantit que si j’ai payé pour une connexion d’une certaine qualité, mettons 300 Mbps, et que vous aussi vous avez payé autant, alors nos communications doivent s’établir à ce niveau de qualité. Défendre ce principe empêcherait un gros FAI de vous transmettre à 300 Mbps une vidéo venant d’une société de média qu’il posséderait, tandis qu’il ne vous enverrait la vidéo d’une société concurrente qu’à une vitesse réduite. Cela revient à pratiquer une discrimination commerciale. D’autres situations complexes peuvent survenir. Que se passe-t-il si votre FAI vous rend plus facile l’accès à une certaine boutique en ligne de chaussures et plus difficile l’accès à d’autres ? Ce serait un moyen de contrôle puissant. Et que se passerait-il si votre FAI vous rendait difficile l’accès à des sites Web de certains partis politiques, de groupes à caractère religieux, à des sites parlant de l’évolution ?

Hélas, en août Google et Verizon ont suggéré pour diverses raisons que la neutralité ne doit pas s’appliquer aux connexions des téléphones portables. De nombreuses personnes dans des zones rurales aussi bien dans l’Utah qu’en Ouganda n’ont accés à l’Internet que par leur téléphone mobile. Exclure les accès sans fil du principe de neutralité laisserait ces utilisateurs à la merci de discriminations de service. Il est également bizarre d’imaginer que mon droit fondamental d’accés à la source d’information de mon choix s’applique quand je suis sur mon ordinateur en WiFi à la maison, mais pas quand j’utilise mon téléphone mobile.

Un moyen de communication neutre est la base d’une économie de marché juste et compétitive, de la démocratie et de la science. La polémique est revenue à l’ordre du jour l’année dernière pour savoir s’il est nécessaire qu’une législation gouvernementale protège la neutralité du réseau. C’est bien le cas. Même si généralement Internet et le Web se développent grâce à une absence de régulation, quelques principes fondamentaux doivent être protégés légalement.

Halte à l’espionnage

D’autres menaces envers le web résultent d’indiscrétions touchant Internet, ce qui inclut l’espionnage. En 2008, une entreprise du nom de Phorm a mis au point un moyen pour un FAI de fouiner dans les paquets d’informations qu’il envoie. Le fournisseur peut alors déterminer chaque URI sur laquelle un de ses clients a surfé, et ensuite créer un profil des sites que l’utilisateur a visités afin de produire des publicités ciblées.

Accéder à l’information contenue dans un paquet Internet est équivalent à mettre un téléphone sur écoute ou ouvrir le courrier postal. Les URI que les gens utilisent révèlent beaucoup de choses sur eux. Une entreprise ayant acheté les profils URI de demandeurs d’emploi pourrait les utiliser pour faire de la discrimination à l’embauche sur les idées politiques des candidats par exemple. Les compagnies d’assurance-vie pourraient faire de la discrimination contre les personnes qui ont fait des recherches concernant des symptômes cardiaques sur le Web. Des personnes mal intentionnées pourraient utiliser les profils pour traquer des individus. Nous utiliserions tous le Web de façon très différente si nous savions que nos clics pouvaient être surveillés et les données ainsi obtenues partagées avec des tierces personnes.

La liberté d’expression devrait être elle aussi protégée. Le Web devrait être semblable à une feuille de papier blanche : disponible pour y écrire, sans qu’on puisse contrôler ce qui y est écrit. Au début de cette année Google a accusé le gouvernement chinois d’avoir piraté ses bases de données pour récupérer les courriels des dissidents. Ces intrusions supposées ont fait suite au refus de Google d’obéir aux exigences du gouvernement, qui demandait à l’entreprise de censurer certains documents sur son moteur de recherche en langue chinoise.

Les régimes totalitaires ne sont pas les seuls qui violent les droits du réseau de leurs citoyens. En France une loi créée en 2009, appelée HADOPI, autorise une administration du même nom à déconnecter un foyer pendant un an si quelqu’un dans la maison est accusé par une compagnie de distribution de médias d’avoir téléchargé de la musique ou des vidéos. Suite à une forte opposition, en octobre le Conseil constitutionnel français a demandé qu’un juge soit saisi du dossier avant que l’accès à Internet ne soit coupé, mais si le juge l’accepte, le foyer familial pourra être déconnecté sans procédure légale digne de ce nom. Au Royaume-Uni, le Digital Economy Act, hâtivement voté en avril, autorise le gouvernement à demander à un FAI (Fournisseur d’Accès Internet) d’interrompre la connexion de quiconque figure dans une liste d’individus soupçonnés de violation de copyright. En septembre, le Sénat des États-Unis a introduit le Combating Online Infringement and Counterfeits Act (loi pour lutter contre la délinquance en ligne et la contrefaçon), qui devrait permettre au gouvernement de créer une liste noire de sites Web — qu’ils soient ou non hébergés aux USA — accusés d’enfreindre la loi, et d’obliger tous les FAI à bloquer l’accès des-dits sites.

Dans de tels cas de figure, aucune procédure légale digne de ce nom ne protège les gens avant qu’ils ne soient déconnectés ou que leurs sites soient bloqués. Compte-tenu des multiples façons dont le Web s’avère essentiel pour notre vie privée et notre travail, la déconnexion est une forme de privation de notre liberté. En s’inspirant de la Magna Carta, nous pourrions maintenant proclamer :

« Aucun individu ni organisation ne pourra être privé de la possibilité de se connecter aux autres sans une procédure légale en bonne et due forme qui tienne compte de la présomption d’innocence. »

Lorsque nos droits d’accès au réseau sont violés, un tollé général est déterminant. Les citoyens du monde entier se sont opposés aux exigences de la Chine envers Google, à tel point que la Secrétaire d’état Hillary Clinton a déclaré que le gouvernement des États-Unis soutenait la résistance de Google et que la liberté de l’Internet — et avec elle celle du Web — allait devenir une pièce maîtresse de la politique étrangère américaine. En octobre, la Finlande a fait une loi qui donne le droit à chaque citoyen d’avoir une connexion à haut débit de 1 Mbps.

Connexion vers l’avenir

Tant que les principes fondamentaux du Web seront maintenus, son évolution ultérieure ne dépendra d’aucun individu ni d’aucune organisation particulière — ni de moi, ni de personne d’autre. Si nous pouvons en préserver les principes, le Web est promis à un avenir extraordinaire.

La dernière version du HTML par exemple, intitulée HTML5, n’est pas simplement un langage de balisage mais une plateforme de programmation qui va rendre les applications Web encore plus puissantes qu’elles ne le sont aujourd’hui. La prolifération des smartphones va mettre le Web encore plus au cœur de nos vies. L’accès sans fil donnera un avantage précieux aux pays en développement, où beaucoup de gens n’ont aucune connexion filaire ou par câble mais peuvent en avoir sans fil. Il reste encore beaucoup à faire, bien sûr, y compris en termes d’accessibilité pour les personnes handicapées, et pour concevoir des pages qui s’afficheront aussi bien sur tous les écrans, depuis le mur d’images géantes en 3D jusqu’à la taille d’un cadran de montre.

Un excellent exemple de futur prometteur, qui exploite la puissance conjuguée de tous ces principes, c’est l’interconnexion des données. Le Web d’aujourd’hui est relativement efficace pour aider les gens à publier et découvrir des documents, mais nos programmes informatiques ne savent pas lire ni manipuler les données elles-mêmes au sein de ces documents. Quand le problème sera résolu, le Web sera bien plus utile, parce que les données concernant presque chaque aspect de nos vies sont générées à une vitesse stupéfiante. Enfermées au sein de toutes ces données se trouvent les connaissances qui permettent de guérir des maladies, de développer les richesses d’un pays et de gouverner le monde de façon plus efficace.

Les scientifiques sont véritablement aux avants-postes et font des efforts considérables pour inter-connecter les données sur le Web. Les chercheurs, par exemple, ont pris conscience que dans de nombreux cas un unique laboratoire ou un seul dépôt de données en ligne s’avèrent insuffisants pour découvrir de nouveaux traitements. Les informations nécessaires pour comprendre les interactions complexes entre les pathologies, les processus biologiques à l’œuvre dans le corps humain, et la gamme étendue des agents chimiques sont dispersées dans le monde entier à travers une myriade de bases de données, de feuilles de calcul et autres documents.

Un expérience réussie est liée à la recherche d’un traitement contre la maladie d’Alzheimer. Un grand nombre de laboratoires privés ou d’état ont renoncé à leur habitude de garder secrètes leurs données et ont créé le projet Alzheimer’s Disease Neuroimaging. Ils ont mis en ligne une quantité phénoménale d’informations inter-connectées sur les patients, ainsi que des scanners cérébraux, une base dans laquelle ils ont puisé à maintes reprises pour faire progresser leurs recherches. Au cours d’une démonstration dont j’ai été témoin, un scientifique a demandé : « quelles protéines sont impliquées dans la transduction des signaux et sont liées aux neurones pyramidaux ? ». En posant la question avec Google, on obtenait 233 000 résultats — mais pas une seule réponse. En demandant aux bases de données inter-connectées du monde entier pourtant, on obtenait un petit nombre de protéines qui répondaient à ces critères.

Les secteurs de l’investissement et de la finance peuvent bénéficier eux aussi des données inter-connectées. Les profits sont générés, pour une grande part, par la découverte de modèles de recherche dans des sources d’informations incroyablement diversifiées. Les données sont également toutes liées à notre vie personnelle. Lorsque vous allez sur le site de votre réseau social et que vous indiquez qu’un nouveau venu est votre ami, vous établissez une relation. Et cette relation est une donnée.

Les données inter-connectées suscitent un certains nombre de difficultés que nous devrons affronter. Les nouvelles possibilités d’intégration des données, par exemple, pourraient poser des problèmes de respect de la vie privée qui ne sont pratiquement pas abordés par les lois existantes sur le sujet. Nous devrions examiner les possibilités légales, culturelles et techniques qui préserveront le mieux la vie privée sans nuire aux possibilités de bénéfices que procure le partage de données.

Nous sommes aujourd’hui dans une période enthousiasmante. Les développeurs Web, les entreprises, les gouvernements et les citoyens devraient travailler ensemble de façon collaborative et ouverte, comme nous l’avons fait jusqu’ici, pour préserver les principes fondamentaux du Web tout comme ceux de l’Internet, en nous assurant que les processus techniques et les conventions sociales que nous avons élaborés respectent les valeurs humaines fondamentales. Le but du Web est de servir l’humanité. Nous le bâtissons aujourd’hui pour que ceux qui le découvriront plus tard puissent créer des choses que nous ne pouvons pas même imaginer.

Notes

[1] Crédit photo : Neal Fowler – Creative Commons By




L’académie en ligne ou la fausse modernité de l’Éducation nationale

Dustpuppy - CC byUne formidable occasion manquée pour notre cher ministère de l’Éducation nationale de se rapprocher de la culture des biens communs ? C’est l’hypothèse développée dans ce billet. Et c’est d’autant plus dommage et frustrant que tout semblait réuni pour que la rencontre ait bel et bien lieu.

Cet épisode révélateur vient clore une nouvelle année plus que fade pour le logiciel libre et son état d’esprit à l’école, puisque, à notre connaissance, pas une mesure sérieuse d’envergure a été officiellement prise en sa faveur, au cours de l’exercice 2008/2009 (on aura ainsi attendu en vain l’équivalent d’un rapport Becta de chez nous).

Logiciels, formats, et surtout, comme nous le verrons plus bas, ressources devront encore patienter pour s’engager pleinement sur le chemin de la liberté. Malgré les efforts de nombreuses personnes, la rue de Grenelle a tranché : c’est une fois de plus le redoublement !

Un projet ambitieux : l’académie en ligne

Comme souvent, il y a au départ une louable intention répondant à un réel besoin avec ce projet d’académie en ligne, inauguré officiellement le 19 juin dernier par l’ex-ministre Xavier Darcos.

L’académie en ligne est un site de ressources gratuites proposés par le CNED pour aider les jeunes dans leur scolarité et permettre aux parents de mieux les accompagner sur la voie de la réussite.

L’académie en ligne doit mettre à la disposition de tous l’intégralité des contenus d’enseignement des programmes de la scolarité obligatoire. Les cours d’école primaire seront en ligne à partir du 15 septembre et ceux de collège et lycée à partir de fin octobre.

Dès à présent, il propose des cours d’été, aux élèves du C.P. à la terminale, pour réviser les notions essentielles de l’année écoulée et préparer la rentrée.

De nombreuses séquences s’appuient sur des documents audio, iconographiques ou des activités interactives. On peut y accéder par matière, par classe ou par mot-clé grâce à un moteur de recherche.

Excellente et exaltante idée que de vouloir ainsi « mettre à la disposition de tous l’intégralité des contenus d’enseignement ».

Voilà qui sera d’une grande utilité non seulement aux élèves mais aussi à tous ceux qui sont un peu curieux de que l’on apprend à l’école (et parmi les effets secondaires positifs, on en profitera au passage pour réduire l’influence croissante et lucrative du parascolaire privé sur le temps non scolaire).

Visite surprise du site : le fond

Intrigué, je me suis donc rendu sur le site en question. Mon propos n’est pas ici d’en évaluer dans le détail la qualité et la pertinence pédagogique. Mais permettez-moi néanmoins au passage de donner un rapide et humble avis sur ce que je connais un peu, à savoir les mathématiques du secondaire.

Pour le collège on a visiblement découpé en rondelles PDF une sorte de cahiers d’activités (toujours sur le même moule : « je me souviens, je retiens, je m’exerce, je relève un défi »). La correction des exercices est à télécharger séparément.

Pour le lycée, c’est plus solide mais c’est un peu comme si on avait saucissonné, toujours uniquement en PDF, un semblant de manuel scolaire cette fois. On a le cours et des exercices d’application corrigés. Pas très moderne, didactiquement parlant. Si l’élève[1] a eu la bonne idée de conserver son propre manuel de l’année écoulée, autant travailler sur ce dernier, ces documents en ligne n’apportant a priori pas grand chose de plus (il économisera de l’encre et du papier qui plus est).

J’ai jeté également un œil (non avisé) sur les mathématiques du primaire. Ce n’est plus du PDF mais des animations au format Flash qui sont proposées. Ça bouge, ça parle et il y a de jolies couleurs, mais c’est toujours la même et lancinante structure : une première partie où l’on écoute passivement une petite explication et une seconde partie avec des exercices pseudo-interactifs où a la première erreur on nous dit systématiquement : « tu t’es trompé, recommence ! » et à la deuxième : « tu t’es trompé regarde bien la solution ! ».

Au final, tout ceci a le mérite d’exister mais c’est tout de même « un poil » décevant (mettez-vous à la place d’un élève qui débarque sur le site en souhaitant réviser en toute autonomie). C’est comme si le CNED avait mis en ligne des documents préexistants qu’il distribue j’imagine pendant l’année à ses élèves. Il n’y a visiblement pas eu de réflexion sur le spécificité des cours d’été, cette période particulière où l’on se trouve entre deux niveaux.

Visite surprise du site : la forme

J’ai balayé quelques pages du reste du contenu. Il m’a semblé que l’on retrouvait peu ou prou le même modèle pour les autres disciplines.

La seule nouveauté repérée concernait la présence de ressources audios pour les langues (anglais et espagnol), qui étaient elles-aussi mises à disposition au format Flash. Du format audio (le mp3 en l’occurrence) encapsulé dans du format Flash, impossible donc de télécharger ces séquences sonores (« Hello my name is John, repeat after me ») pour les écouter sur la plage dans son iPod.

Nous n’avons donc que deux formats, le PDF et le Flash. Le premier est un format ouvert quand l’autre ne l’est pas, mais ce que l’on peut surtout faire remarquer c’est que ce sont des formats qui ne permettent généralement pas les modifications. En effet, si vous voulez mettre à jour un fichier PDF, vous devez disposer du format natif qui a généré votre PDF (par exemple le traitement de texte Word de MS Office ou, mieux, Writer d’OpenOffice.org). Par analogie avec les logiciels, on pourrait dire que le fichier traitement de texte est le fichier source tandis que le fichier PDF est le fichier compilé (idem avec le Flash dont tout changement demande la présence des sources au format .fla). Sur l’académie en ligne ces fichiers d’origine sont absents. Les ressources mises à disposition sont pour ainsi dire « figées dans la vitrine ».

Dernière remarque. Les pages du site sont au format ASPX caractéristiques de la technologie Web de Microsoft. Ce ne sont pourtant pas les solutions libres qui manquent aujourd’hui pour construire des sites de qualité. Je ne pense pas que ce soit lié mais on peut aussi faire observer en passant que l’ergonomie générale du site laisse lui aussi pour le moment à désirer.

Visite surprise du site : la législation en vigueur

Il n’est techniquement pas possible de modifier les fichiers proposés ou d’embarquer les sons sur son baladeur. Mais, ceci expliquant sûrement cela, il est surtout juridiquement impossible de le faire.

Les mentions légales (et plus particulièrement son paragraphe 3 « Propriété intellectuelle ») sont en effet très contraignantes, et malheureusement révélatrices du climat ambiant.

D’ailleurs je viens déjà de me mettre en infraction à cause du lien ci-dessus ne pointant pas sur la page d’accueil du site !

Premier extrait (c’est moi qui souligne) :

Le site autorise, sans autorisation préalable, la mise en place de liens hypertextes pointant vers la page d’accueil du site Internet.

Tout lien vers une page autre que la page d’accueil du site Internet est strictement interdit sans l’accord préalable du Cned. Même en cas d’accord du Cned, Il est strictement interdit d’imbriquer les pages du site à l’intérieur des pages d’un autre site. Les pages du site doivent être visibles par l’ouverture d’une fenêtre indépendante.

Les sites qui font le choix de pointer vers ce site engagent leur responsabilité dès lors qu’ils porteraient atteinte à l’image du site public ou de la marque Cned.

Thierry Stoehr et Benoit Sibaud apprécieront cette interdiction de liaison (pourtant ontologiquement indissociable du Web).

Mais, plus fort encore, deuxième extrait concernant les cours proprement dits :

L’ensemble des cours figurant sur ce site sont la propriété du Cned.

Les images et textes intégrés à ces cours sont la propriété de leurs auteurs et/ou ayants-droits respectifs.

Tous ces éléments font l’objet d’une protection par les dispositions du code français de la propriété intellectuelle ainsi que par les conventions internationales en vigueur.

La consultation et le téléchargement des cours n’opèrent aucun transfert de droit de propriété intellectuelle sur ceux-ci. Ils ne sont permis que dans le strict respect des conditions suivantes :

Vous ne pouvez utiliser ces contenus qu’a des fins strictement personnelles. Toute reproduction, utilisation collective à quelque titre que ce soit, tout usage commercial, ou toute mise à disposition de tiers d’un cours ou d’une œuvre intégrée à ceux-ci sont strictement interdits.

Il est interdit de supprimer ou de tenter de supprimer les procédés techniques de protection des cours et des contenus intégrés (filigranes, blocages de sélections notamment).

Il est interdit d’extraire ou de tenter d’extraire une œuvre reproduite dans un cours et de l’utiliser à d’autres fins que celle d’illustration du cours auxquels elle est intégrée.

Le non respect de ces conditions vous expose à des poursuites judiciaires pour contrefaçon conformément aux articles L 335-2 et suivi du code de la propriété intellectuelle. Ces actes sont punis de 3 ans de prison et 300 000 euros d’amende.

Vous avez bien lu. Pour rappel nous sommes sur un service public d’éducation.

Si je partage je m’expose donc alors à des sanctions pour le moins disproportionnées. Cela ne vous rappelle rien ? Hadopi bien sûr, à la différence prêt que l’école est le lieu même de la transmission et que les auteurs des ressources sont des fonctionnaires de l’état français qui ne sont généralement pas payés (plusieurs fois) sur leurs droits d’auteur mais (une fois) sur leur salaire provenant de nos impôts.

Je suis enseignant et je souhaite distribuer ces ressources à mes élèves ? Interdiction. Je souhaite les adapter à mes besoins et (re)déposer ce travail dans le pot commun ? Interdiction. Je suis animateur dans un Espace public numérique ou dans un réseau d’éducation populaire et souhaite en faire profiter collectivement mon public ? Interdiction. Je suis un élève et souhaite distribuer les ressources à mes camarades qui n’ont pas accès à Internet ? Interdiction. La liste est longue et non exhaustive…

Ces mentions légales étaient-elles forcément les plus adaptées à la situation et à l’objectif fièrement affiché ? Rien n’est moins sûr. N’y aurait-il pas une certaine légitimité à les remettre en question, ou tout du moins à se poser quelques questions ?

Quelques ombres planent : 1. L’alternative Sésamath et les associations d’enseignants

Il est dès lors difficile d’évoquer ce projet sans penser en arrière-plan à l’association de professeurs Sésamath (que les lecteurs du Framablog connaissent bien désormais). Quand bien même elle ne concerne que le champ des mathématiques, la comparaison est en effet riche d’enseignements.

Sur la forme, les ressources mises à disposition par Sésamath sont elles aussi principalement proposées au format PDF et Flash, à ceci près que les sources sont également présentes. Et c’est loin d’être un détail parce que c’est la conséquence directe de la plus grande différence de départ entre cette académie en ligne et les travaux de l’association : la licence des ressources.

Fermée pour l’académie mais ouverte pour Sésamath, qu’il s’agisse de la GNU FDL (pour les manuels et les cahiers) ou de la GPL pour les logiciels (dont le fameux Mathenpoche). Avec un tel choix de licences libres, toutes les interdictions mentionnées précédemment sont levées !

Mais peut-être plus important encore,le fond, c’est-à-dire la qualité des documents. Ce n’est pas parce qu’une structure accole du jour au lendemain une licence libre à ses travaux que ces derniers vont, tel un coup de baguette magique, gagner en qualité. Il y a bien entendu des facteurs autrement plus importants qui entrent en ligne de compte. Il n’empêche que cela participe à la création d’un terreau fertile à l’épanouissement des ressources. La licence libre donne confiance, induit la circulation, la collaboration et donc a priori l’amélioration (je peux copier, modifier et reverser en toute liberté dans le pot commun sans que quiconque puisse un jour refermer le couvercle). Le projet peut échouer bien entendu, mais on lui aura ainsi facilité en amont ses chances de réussite. Réussite qui a bien eu lieu ici avec Sésamath, où qualité, mais aussi quantité, réalisées à plusieurs mains sont au rendez-vous.

Je souhaite cet été que mon gamin, futur lycéen, révise le théorème de Thalès vu en troisième ? Sur l’académie en ligne vous avez droit à votre unique fiche d’activité PDF à imprimer (Internet ne sert donc à rien d’autre ici qu’à stocker la ressource). Sur Sésamath par contre c’est un autre son de cloche. Vous avez plus d’une centaine de questions interactives via Mathenpoche, accompagnées si vous le désirez par les exercices du cahier correspondant (exemple), ainsi que le chapitre complet du manuel libre du niveau considéré. Mais il y a mieux, avec leur nouveau projet Kidimath, tout (et plus encore : rappels de quatrième, annales du Brevet, QCM…) est regroupé dans une seule et même interface spécialement conçue pour le travail de l’élève hors du temps scolaire ! Allez-y, cliquez sur 3ème puis Thalès, et vous serez bluffé par la qualité et la quantité du contenu proposé (et optimisé pour Internet). Et il en va de ce chapitre particulier comme de tous les autres chapitres de tous les niveaux du collège !

D’où évidemment la question suivante : mais pourquoi diable le ministère n’a-t-il pas fait appel à Sésamath pour collaborer sur la partie mathématique de l’académie en ligne ? Quel intérêt de laisser le CNED proposer seul dans son coin ces maigres ressources alors que l’on possède en son sein des enseignants aussi productifs ayant une solide expérience du « travailler ensemble » ?

Je n’ai pas la réponse à ce qui, vu de l’extérieur, est un pur mystère, voire un beau gaspillage d’énergie (cf le syndrome Not Invented Here). Tout au plus peut-on supputer que c’est lié à une question de gouvernance : une décision qui se prend seule en haut en désignant un unique interlocuteur bien identifié en bas pour exécuter la tâche (en l’occurrence le CNED). Peut-être aussi que l’absence de volonté de mettre en avant le logiciel libre à l’école ne favorise pas chez nos élites l’appropriation de sa culture, ses valeurs… dont la collaboration est l’un des piliers. L’Éducation nationale est une cathédrale et non un réseau social (et encore moins une communauté).

Toujours est-il qu’il y a tout de même un élément de réponse simple à la question. Tant que les mentions légales du projet d’académie en ligne resteront en l’état, il ne sera pas possible à un Sésamath de s’impliquer, pour la bonne raison que les licences sont totalement incompatibles.

Et n’allez pas croire que Sésamath est seul à bord du navire. Il en est certes à la proue mais derrière lui d’autres associations d’enseignants sont elles-aussi très actives et productives. Je pense notamment à Weblettres ou les Clionautes, qui respectivement en français et en histoire et géographie, font référence parmi les collègues. D’ailleurs ces trois association sont en partenariat autour du projet CapBrevet et on fait l’objet d’une sérieuse étude dans le n° 65 des Dossiers de l’ingénierie éducative consacré justement au travail collaboratif. Lecture chaudement recommandée, quand bien même on occulte un peu la question pourtant primordiale des licences, qui différencie, mais pour combien de temps encore, Sésamath de ses deux partenaires.

En tout cas, cela fait déjà pas mal de monde qui aurait pu participer au projet en le bonifiant de son savoir-faire. Ne nous privons pas de nos talents, conjuguons-les pour le plus grand bénéfices de nos élèves !

Quelques ombres planent : 2. Les éditeurs scolaires

Une autre éventuelle piste de réponse à la question précédente peut être recherchée du côté des éditeurs scolaires. J’avoue humblement être très peu au fait des relations entre ces éditeurs et le ministère, mais il y a fort à parier qu’on a voulu un tant soit peu les ménager ici.

Imaginez en effet la mise à disposition sous licence libre de ressources pédagogiques en collaboration réelle avec les enseignants et leurs associations, ouvertement accessibles sur des forges spécialement dédiées, pour toutes les disciplines et pour tous les niveaux ! Nul doute que cela finirait par impacter fortement le marché de l’édition scolaire (en fait cela irait beaucoup plus loin en impactant directement et durablement la manière même dont les enseignants, et même les élèves, travaillent).

Une telle éventualité signifierait à terme ni plus ni moins que la mort lente mais annoncée du système actuel. L’industrie du disque et leurs CD pressés ont, semble-t-il, aujourd’hui quelques « menus problèmes » avec l’avènement du numérique. Les éditeurs scolaires et leurs manuels scolaires imprimés auront à n’en pas douter des difficultés similaires demain. On connait l’histoire : soit on se rétracte en défendant le plus longtemps possible des positions et habitudes hérités du siècle dernier, soit on s’adapte en créant de nouveaux modèles et en associant étroitement ici les fans de musique et là les enseignants.

Mais ne prenons aucun risque et épargnons-nous cette crise potentielle. D’abord parce que ces ressources sont donc sous licence non libre (on pourrait dire « propriétaires » dans le langage des logiciels) mais aussi parce que, autant appeler un chat un chat, elles sont en l’état de piètre qualité. C’est à prendre tel quel ou à laisser, nous dit la licence. Et la piètre qualité achève notre choix. Le privé conserve son avantage, l’été sera chaud mais non incandescent.

On notera cependant qu’il n’y a pas que les éditeurs privés qui soient concernés. Une structure comme le CNDP dont le budget dépend pour beaucoup des ventes de son catalogue pédagogique (où à ma connaissance rien ou presque n’a encore été mis sous licence libre) peut également se voir contrariée voire contestée dans sa manière de fonctionner. Idem pour les traditionnels partenaires culturels de l’Éducation nationale. Pour le moment feignons de croire que le copyleft n’existe pas et qu’il n’y a de ressources que les ressources fermées soumises aux droits d’auteur d’avant l’Internet. Et rassurons les partenaires en payant plusieurs fois et pour des durées limitées l’accès à ces ressources.

Quelques ombres planent : 3. Le boum des ressources éducatives libres

Licences fermées, professeurs peu impliqués et éditeurs confortés dans leur immobilisme… tout ceci ne devrait pas tenir longtemps parce que par delà nos frontières c’est la pleine effervescence autour de ce que l’on appelle les ressources éducatives libres. Et c’est bien plus qu’une ombre qui plane, c’est une véritable mutation qui s’annonce.

De quoi s’agit-il exactement ? En creux (académie en ligne) ou en plein (Sésamath), nous en parlons en fait implicitement depuis le début de cet article. Difficile pour l’heure d’en donner une définition précise, tant le concept est nouveau et en mouvement, mais on peut voir ces ressources éducatives libres comme une tentative de transposition des principes fondamentaux du logiciel libre. Usage, copie, modification et distribution (sans entrave et sans discrimination), ces principes garantissent un certain nombre de libertés aux utilisateurs tout en favorisant l’échange, le partage et l’amélioration collective du logiciel. Cela présuppose que le logiciel soit placé sous une licence libre qui légitime et explicite ces droits. Et c’est pourquoi nous insistons tant sur le choix ou non d’une telle licence.

À partir de là, voici la définition qu’en donne actuellement Wikipédia : « l’expression Ressources Éducatives Libres (REL) désigne un mouvement mondial initié par des fondations, universités, enseignants et pédagogues visant à créer et distribuer via internet des ressources éducatives (cours, manuels, logiciels éducatifs, etc.) libres et gratuites ».

Pour aller plus loin je vous invite à lire la Déclaration de Dakar sur les Ressources Educatives Libres adoptée le 5 mars 2009 au cours du Campus numérique francophone de Dakar, évènement organisé à l’initiative du Bureau Régional pour l’Education en Afrique de UNESCO, de l’Organisation Internationale de la Francophonie (OIF), et de l’Agence universitaire de la Francophonie (AUF). On pourra également parcourir la traduction française de ce document de l’UNESCO : Open Educational Resources: the Way Forward.

Mais dans ce domaine ce sont clairement les anglophones qui ont une bonne longueur d’avance, l’expression ressources éducatives libres n’étant d’ailleurs à la base qu’une traduction de Open Educational Ressources (ou OER). Chez eux la réflexion est menée depuis longtemps et les initiatives se multiplient : les pionniers de l’OpenCourseWare au MIT, OER Commons, OpenCourseWare Consortium, Teachers without Borders, The Cape Town Open Education Declaration, Open Education and Mozilla, WikiEducator (auteur de l’OER Handbook for Educators que l’on ne désespère pas de traduire un jour), les projets de manuels scolaires libres dans le secondaire comme en Californie, et Wikiversity (dont le fort intéressant cours Composing free and open online educational resources) pour ne citer que ceux-là.

Mesurons-nous en effet pleinement les conséquences de l’accessibilité complète sur Internet de telle ressources, comme par exemple ce cours de Programming Methodology dans la cadre d’un cursus informatique donné à la prestigieuse université de Standford ? Et, attention, on parle bien ici d’accessibilité complète. Pour chaque séquence vous avez la vidéo (sous différents formats : YouTube, iTunes, format natif mp4 distribué en torrent via le réseau… P2P !) et sa transcription (au format PDF mais aussi html), des exercices et des annales (et leurs corrections), ainsi que des logiciels à télécharger, des notes et des références bibliographiques. C’est très impressionnant et le tout est proposé sous la licence libre Creative Commons By (cf Les licences Creative Commons expliquées aux élèves), signifiant par là-même que du moment que vous conservez et respectez la paternité du travail, vous pouvez, de n’importe quel point du globe, utiliser, télécharger, copier, modifier, distribuer et même en faire commerce !

À comparer avec ce que propose l’académie en ligne, qui à peine née semble déjà quelque part obsolète ! Avec ce projet, le ministère avait une occasion rêvée de s’inscrire enfin dans cette dynamique. Force est de constater qu’il ne l’a pas saisie. La France institutionnelle prend un retard qu’il lui sera difficile par la suite de combler.

Un discours qui se voulait moderne

À la lumière de ce que nous venons d’exposer, je vous laisse apprécier le discours de presse du ministre prononcé lors du lancement du projet (et dont la lecture a motivé ce billet).

Morceaux choisis.

Pourquoi cette décision ? Parce que dans une société qui s’enorgueillit à juste raison d’avoir bâti une école gratuite, laïque et obligatoire, je ne me résous pas à ce que l’accès au savoir et la réussite scolaire puissent devenir peu à peu une affaire de moyens, de relations ou de circonstances.

Pour ma part, je ne me résous pas à ce que cet accès au savoir se fasse dans ces conditions. Et j’ai parfois l’impression que la situation du Libre à l’école est un peu « affaire de moyens, de relations ou de circonstances ».

Je connais des enfants qui occupent leurs vacances comme ils le peuvent, tandis que d’autres, du même âge, passent de livrets de révision en stages de soutien payants, accentuant ainsi l’écart avec les autres élèves.

Ces situations, ces besoins, nous les connaissons tous et pourtant nous laissons à d’autres le soin d’y répondre. À l’heure où les technologies de l’information et de la communication mettent le savoir à la portée de tous, tout le temps et partout, l’école a pourtant une opportunité extraordinaire de rappeler sa capacité à transmettre des connaissances à partir de ressources précises, fiables, hiérarchisées selon une logique cohérente.

L’opportunité est en effet extraordinaire de « mettre le savoir à la portée de tous, tout le temps et partout ». Mais pourquoi ne pas être allé au bout de la démarche ? Est-ce que le CNED est la seule entité capable de produire « des connaissances à partir de ressources précises, fiables, hiérarchisées selon une logique cohérente » ?

Pour autant cette académie en ligne est bien plus qu’un service supplémentaire offert aux élèves et à leurs familles. Car si nous parlons de 31e académie, c’est bien qu’il s’agit d’une véritable mutation dans notre ministère.

L’Éducation nationale est divisée en académies. Affirmer que l’on jette ainsi la première pierre à une 31e académie donne la mesure de l’ambition. Mais la véritable mutation aura-t-elle lieu ?

Cette académie en ligne est une aide non seulement pour les élèves, mais aussi pour les parents qui veulent accompagner leurs enfants, pour les professeurs désireux de trouver des ressources pédagogiques, et même pour les adultes qui souhaitent reprendre des études. Plus largement, je souhaite que cet outil contribue au rayonnement de la langue française et à la diffusion de nos contenus éducatifs dans les pays francophones, notamment dans certains pays d’Afrique, où les enseignants qui le désirent pourront trouver gratuitement des ressources de qualité pour leurs élèves.

Quand le paradoxe frise la contradiction. Au risque de nous répéter, comment voulez-vous que les professeurs s’y retrouvent si on leur interdit la moindre modification ? Quant aux pays d’Afrique, ils apprécieront de ne pouvoir distribuer les ressources en direction des populations non connectées à Internet. Impliquons-les! Qu’ils soient avec nous acteurs du contenu plutôt que simples spectateurs bridés, le « rayonnement de la langue française » ne s’en portera que mieux.

Le mot « gratuit » est prononcé cinq fois dans le discours. Il est tant de d’affirmer clairement (et péremptoirement) notre position : l’académie en ligne ne doit pas être gratuite, elle doit être libre. Il se trouve qu’en étant libre elle sera effectivement disponible gratuitement, mais ça n’en sera qu’une conséquence. Et n’oublions pas d’ailleurs, comme cela a déjà été dit, que derrière ces ressources il y a ici des enseignants du CNED payés sur leur temps de travail pour les produire (aux frais du contribuable, ce qui n’est pas gratuit).

Les libertés d’utiliser, de copier, de modifier et de distribuer des ressources éducatives, sur des formats ouverts et lisibles par des logiciels libres, ne sont-elles pas ici plus fondamentales que la gratuité, a fortiori dans le domaine éducatif ?

Et le ministre de surenchérir, dans sa lettre aux parents cette fois (qui fait également l’objet d’une vidéo) :

Naturellement, ces ressources seront accessibles gratuitement, conformément aux principes fondamentaux de l’école républicaine.

Substituons « librement » à « gratuitement », et c’est d’un coup l’horizon des possibles qui s’élargit, tout en étant certainement plus proche de ces fameux principes républicains. Le jour où un ministre de l’Éducation Nationale dira que « naturellement, ces ressources seront accessibles librement » alors les lignes auront bougé.

Avec ses 55 000 écoles primaires, ses 5 000 collèges et ses 2 600 lycées, l’Éducation nationale constitue le premier réseau physique d’accès au savoir en France. Je veux faire en sorte qu’elle devienne aussi le premier réseau numérique de diffusion des connaissances.

A l’heure où de grands moteurs de recherche scannent et mettent à la disposition du public des fonds entiers de bibliothèques, il me semble que la diffusion d’une offre complète et gratuite de contenus d’enseignement est de nature à faire du service public d’éducation un acteur puissant du monde de l’Internet.

On a raison de s’inquiéter de l’emprise de Google. Mais est-ce ainsi que l’on construit « le premier réseau numérique de diffusion des connaissances » capable lui faire concurrence ?

La suite du discours est du même acabit, si ce n’est qu’elle est révélatrice d’une certaine confusion vis-à-vis de la modernité.

Renforcer la présence du ministère de l’Éducation nationale sur Internet, c’est aussi repenser totalement nos modes de communication sur ce média. (…) Nous avons donc voulu à la fois rénover nos sites institutionnels et diversifier nos formats de communication, en donnant une part plus importante aux nouveaux médias présents sur Internet : Dailymotion, Twitter, Facebook sont de nouveaux outils qui permettent de toucher des publics qui ne fréquentaient pas spontanément nos sites institutionnels, notamment des publics plus jeunes et moins spécialisés dans les questions éducatives. (…) Nous avons aussi ouvert le compte Twitter Education France, qui informe les abonnés des sujets d’actualité immédiate du ministère. Je veux que l’Éducation nationale soit partie prenante de ce qu’on appelle le « web 2.0 », le web participatif.

Les expressions marketing sont lâchées… On met les guillemets au web 2.0 mais pas au web participatif. Comme si nous étions tous d’accord sur le sens accordé.

Je ne vois pas en quoi placer quelques vidéos sur Dailymotion (avec commentaires désactivés !) et communiquer via ces nouveaux canaux que sont Facebook et Twitter procèdent de la participation (ce sont tous en outre des services privés reposant sur des logiciels propriétaires susceptibles de poser quelques problèmes vis-à-vis de la protection des données personnelles). De ce point de vue là, l’actuelle Consultation publique sur l’Internet du futur, avec son bon vieux formulaire à remplir, est bien plus participative à mes yeux (si, contrairement au forum de la mission E-educ, on prend réellement en compte les contributions).

Ce qui est sûr c’est qu’en plus de ses ressources « verrouillées », l’académie en ligne version juin 2009 n’est en rien participative. Aucun espace pour y laisser la moindre trace, pas même une page de contact !

Ce ministère a trop souvent été raillé pour son conservatisme, je veux à présent faire en sorte qu’il soit loué pour sa modernité.

Nous attendrons encore un peu.

N’ayez pas peur

La conclusion du discours ouvre cependant une fenêtre d’espoir.

Mesdames et messieurs les journalistes (…) vous pouvez constater que c’est une stratégie globale que nous mettons en place pour faire participer le ministère de l’Éducation nationale aux évolutions de son temps.

A travers ces nouveaux outils, dont l’académie en ligne est un exemple, je veux permettre au plus grand nombre d’accéder librement et dans les délais les plus courts à la totalité de l’offre et de l’actualité éducative. Ce n’est que le début d’un chantier immense, que je veux poursuivre avec de nouveaux services que nous proposerons aux enseignants et qui seront à l’étude à partir de la rentrée prochaine.

Pour la première fois en effet on a troqué la gratuité pour la liberté. Ayant conscience de l’ampleur de la tâche, on nous dit aussi que l’on souhaite proposer de « nouveaux services » aux enseignants.

Il est encore temps de rectifier le tir (la présence d’un nouveau ministre étant d’ailleurs un facteur favorable). Le diagnostic est bon, le remède beaucoup moins. Oublions les Facebook, Twitter, Dailymotion et autres gadgets de communication légèrement hors-sujet par rapport aux réels enjeux. Et osons faire passer l’académie en ligne du mode « lecture seul » au mode « lecture / écriture ensemble ». Car le plus grand service que l’on puisse rendre présentement aux enseignants est d’inscrire ce projet dans le cadre des ressources éducatives libres.

Il s’agirait alors bien sûr d’une véritable petite « révolution culturelle » au sein du ministère, nécessitant de repenser, parfois en profondeur, les relations entre l’institution et les différents acteurs du monde éducatif. Mais pourquoi attendre (puisque c’est inéluctable) ? Sauf à vouloir aller contre les objectifs même de ce projet, cette décision, certes courageuse mais pleine de bon sens, serait alors réellement à même de faire « participer le ministère de l’Éducation nationale aux évolutions de son temps ».

Dans le cas contraire, regarder passer le train des ressources éducatives libres constituerait selon nous une triple erreur : historique, politique et par dessus tout pédagogique.

Notes

[1] Crédit photo : Dustpuppy (Creative Commons By)




Le piège JavaScript par Richard Stallman

Wlappe - CC byVu le developpement croissant du cloud computing, il fallait bien que l’on se pose un jour quelques questions.

Le mois dernier Richard Stallman publiait un article autour des applications en ligne en général et du JavaScript en particulier, qui fit couler pas mal de bits dans la blogosphère.

Parce que des logiciels tels que Gmail ou Google Documents exportent non seulement nos données sur les serveurs qui hébergent les applications (ici les serveurs Google) mais exécutent au passage dans nos navigateurs du code qui ne donne pas, loin de là, les signes d’une totale liberté[1].

La débat est donc ouvert, avec en toile de fond la faible représentation actuelle des applications web véritablement libres.

Le piège JavaScript

The JavaScript Trap

Copyright © 2009 Richard Stallman – Licence Creative Commons By-Nd
(Traduction : Cédric Corazza – URL d’origine de la traduction)

Vous exécutez peut-être des programmes non-libres sur votre ordinateur chaque jour sans même vous en apercevoir — par l’intermédiaire de votre navigateur Web.

Dans la communauté du logiciel libre, l’idée que les programmes non-libres maltraitent leurs utilisateurs est familière. Certains d’entre-nous refusent totalement d’installer des logiciels propriétaires, et beaucoup d’autres considèrent que la non-liberté est une attaque contre le programme. Beaucoup d’utilisateurs sont conscients que ce problème s’applique aussi aux plugins que les navigateurs proposent d’installer, car ils peuvent être libres ou non-libres.

Mais les navigateurs exécutent d’autres programmes non-libres pour lesquels ils ne demandent pas votre avis — des programmes que contiennent des pages Web ou vers lesquels elles pointent. Ces programmes sont très souvent écrit en JavaScript, bien que d’autres langages puissent être utilisés.

JavaScript (dont le nom officiel est ECMAscript, mais peu de gens utilisent ce nom) était autrefois utilisé pour faire des effets frivoles, certes jolis mais non-essentiels à la navigation et aux fonctionnalités d’affichage. Il était acceptable de les considérer comme de pures extensions du langage de balises HTML, plutôt que comme de vrais logiciels ; ils ne représentaient pas un problème significatif.

Beaucoup de sites utilisent encore JavaScript de cette façon, mais certains l’utilisent pour des programmes conséquents réalisant des travaux importants. Par exemple, Google Docs télécharge sur votre machine un programme JavaScript qui pèse un demi megaoctet, dans une forme compactée que nous pourrions appeler Obscurscript car il n’y a aucun commentaire et très peu d’espaces, et les noms de méthode ne font qu’une lettre. Le code source d’un programme est la forme préférée pour le modifier ; le code compacté n’est pas du code source, et le vrai code source n’est pas disponible pour l’utilisateur.

Normalement, les navigateurs ne vous disent pas quand ils chargent des programmes JavaScript. La plupart des navigateurs ont un moyen de désactiver JavaScript totalement, mais aucun d’eux ne peut vérifier des programmes JavaScript qui ne sont pas triviaux et non-libres. Même si vous en êtes conscient, cela vous serait difficile d’identifier et bloquer ces programmes. Cependant, même au sein de la communauté du logiciel libre, la plupart des utilisateurs ne sont pas conscients de ce problème ; le silence des navigateurs tend à le dissimuler.

Il est possible de publier un programme JavaScript en tant que logiciel libre, en distribuant le code source sous une licence de logiciel libre. Mais même si le code source du programme est disponible, il n’existe pas de moyen facile d’exécuter votre version modifiée à la place de l’original. Les navigateurs libres actuels ne proposent pas de fonctionnalité permettant d’exécuter votre version modifiée à la place de celle délivrée par la page. L’effet est comparable à la Tivoisation bien que moins difficile à outrepasser.

JavaScript n’est pas le seul langage que les sites Web utilisent pour les programmes envoyés aux utilisateurs. Flash supporte la programmation par l’intermédiaire d’une variante étendue de JavaScript. Nous aurons besoin d’étudier le problème de Flash pour faire des recommandations appropriées. Silverlight semble créer un problème similaire à Flash, excepté qu’il est pire, car Microsoft l’utilise comme plateforme pour des codecs non-libres. Un remplacement libre de Silverlight ne ferait pas l’affaire pour le monde du libre, à moins qu’il ne propose des codecs de remplacement libres.

Les applets Java s’exécutent aussi dans le navigateur et soulèvent des problèmes similaires. En général, toute sorte d’applet système pose ce genre de problème. Avoir un environnement d’exécution libre pour une applet ne fait que repousser d’un cran le problème.

Un fort mouvement s’est développé qui appelle les sites Web à ne communiquer qu’avec des formats et des protocoles libres (certains disent « ouverts ») ; c’est-à-dire, dont la documentation est publiée et que chacun est libre de mettre en œuvre. Avec la présence de programmes dans les pages Web, ce critère est nécessaire mais pas suffisant. JavaScript lui-même, en tant que format, est libre et l’utilisation de JavaScript dans un site Web n’est pas nécessairement mauvaise. Cependant, comme nous l’avons vu plus tôt, ce n’est pas nécessairement bon. Quand le site transmet un programme à l’utilisateur, il n’est pas suffisant pour le programme d’être écrit dans un langage documenté et libre d’entraves ; ce programme doit être libre aussi. « Seule l’utilisation de programmes libres transmis aux utilisateurs » doit faire partie des critères satisfaisants pour un comportement correct des sites Web.

Le chargement et l’exécution silencieux de programmes non-libres est un des nombreux problèmes soulevés par les « applications Web ». Le terme « application Web » a été conçu pour ne pas tenir compte de la distinction fondamentale entre un logiciel délivré aux utilisateurs et un logiciel s’exécutant sur un serveur. Il peut faire référence à un programme client spécialisé qui s’exécute dans un navigateur ; il peut faire référence à un logiciel serveur spécialisé ; il peut faire référence à un programme client spécialisé qui travaille main dans la main avec un logiciel serveur spécialisé. Les côtés client et serveur soulèvent des problèmes éthiques différents, même s’ils sont si intimement intégrés que l’on pourrait dire qu’ils font partie d’un seul programme. Cet article ne traite que du problème logiciel côté client. Nous traiterons le problème du côté serveur séparément.

Pratiquement, comment pouvons-nous traiter le problème des programmes JavaScript non-libres dans les sites Web ? Voici un plan d’action.

D’abord, nous avons besoin d’un critère pratique pour les programmes JavaScript non-triviaux. Puisque « non-trivial » est une question d’interprétation, il s’agit de concevoir un critère simple qui donne de bons résultats, plutôt que de déterminer la réponse correcte.

Notre proposition est de considérer qu’un programme JavaScript est non-trivial s’il définit des méthodes et s’il charge un script externe ou s’il est chargé en tant que script externe, ou encore s’il fait une requête AJAX.

À la fin de cet article, nous proposons une convention par laquelle un programme JavaScript non-trivial dans une page Web, peut déclarer l’URL de l’emplacement de son code source ainsi que sa licence, en utilisant des commentaires stylés.

Enfin, nous avons besoin de modifier les navigateurs libres pour qu’ils supportent la liberté des utilisateurs de pages avec JavaScript. Tout d’abord, les navigateurs doivent être en mesure de prévenir les utilisateurs au sujet des programmes JavaScript non-libres plutôt que de les exécuter. Peut-être que NoScript pourrait être adapté pour faire cela.

Les utilisateurs de navigateur ont aussi besoin d’une fonctionnalité pratique pour indiquer le code JavaScript à utiliser à la place du JavaScript dans une page donnée. (Le code spécifié pourrait être un remplacement total, ou une version modifiée du programme JavaScript libre dans cette page). Greasemonkey est très proche d’arriver à réaliser cela, mais pas tout à fait, car il ne permet pas la modification du code JavaScript dans une page avant que le programme ne s’exécute. Utiliser un proxy local fonctionne, mais c’est trop peu pratique actuellement pour être une réelle solution. Nous avons besoin de construire une solution fiable et pratique, comme les changements dans les sites de partage. Le Projet GNU aimerait recommander les sites dédiés aux changements libres seulement.

Ces fonctionnalités permettront à un programme JavaScript inclus dans une page Web d’être réellement libre. JavaScript ne sera plus un obstacle particulier à notre liberté — pas plus que C et Java ne le sont maintenant. Nous serons capables de rejeter et même de remplacer les programmes JavaScript non-triviaux non-libres, tout comme nous avons rejeté et remplacé les paquetages non-libres pour les installations classiques. Notre campagne pour libérer le code JavaScript des sites Web peut alors commencer.

Merci à Matt Lee et John Resig pour leur aide pour la définition de notre proposition de critère.

Appendice : une convention pour publier des programmes JavaScript libres

Pour des références au code source correspondant, nous recommandons

 // @source: 

suivi de l’URL

Pour indiquer la licence du code JavaScript intégré dans la page, nous recommandons de mettre la notice de licence entre deux notes de cette forme :

 @licstart  The following is the entire license notice for the JavaScript code in this page. ... @licend  The above is the entire license notice for the JavaScript code in this page. Traduction : @licstart  Ce qui suit est la totalité de la notice de licence pour le code JavaScript de cette page. ... @licend  Ce qui précède est la totalité de la notice de licence pour le code JavaScript de cette page. 

Bien sûr, tout ceci doit être contenu dans un commentaire multiligne.

La GNU GPL, comme beaucoup de licences de logiciels libres, nécessite la distribution d’une copie de la licence avec les formes binaire et source du programme. Cependant, la GNU GPL est longue et l’inclure dans une page avec un programme JavaScript n’est pas pratique. Vous pouvez oublier ce prérequis, pour du code dont vous êtes le détenteur des droits d’auteur, avec une notice de licence comme ceci :

 Copyright (C) YYYY  Developer The JavaScript code in this page is free software: you can redistribute it and/or modify it under the terms of the GNU General Public License (GNU GPL) as published by the Free Software Foundation, either version 3 of the License, or (at your option) any later version.  The code is distributed WITHOUT ANY WARRANTY; without even the implied warranty of MERCHANTABILITY or FITNESS FOR A PARTICULAR PURPOSE.  See the GNU GPL for more details. As additional permission under GNU GPL version 3 section 7, you may distribute non-source (e.g., minimized or compacted) forms of that code without the copy of the GNU GPL normally required by section 4, provided you include this license notice and a URL through which recipients can access the Corresponding Source. Traduction : Copyright (C) YYYY  Développeur Le code JavaScript de cette page est un logiciel libre : vous pouvez le redistribuer et/ou le modifier selon les termes de la licence GNU General Public License (GNU GPL) telle que publiée par la Free Software Foundation, en version 3 de la licence, ou (à votre discrétion) toute version suivante. Le code est distribué SANS AUCUNE GARANTIE ; sans même la garantie implicite de MARCHANDABILITÉ ou d'ADÉQUATION À UN BUT PARTICULIER.  Consulter la GNU GPL pour plus de détails. En tant que permission supplémentaire selon les termes de la GNU GPL version 3 section 7, vous pouvez distribuer des formes « non-source  (par ex., minimisées ou compactées) de ce code sans la copie de la GNU GPL normalement requise par la section 4, attendu que vous incluez cette notice de licence et une URL par laquelle les destinataires peuvent accéder au code source correspondant. 

Notes

[1] Crédit photo : Wlappe (Creative Commons By)




Le YouTube Symphony Orchestra : c’est pas de l’Hadopi, c’est de la musique !

Vincent Boiteau - CC byArrêtons-nous le temps d’une journée de se montrer critique vis-à-vis du YouTube et sa maison-mère Google, pour évoquer, voire célébrer, l’initiative unique au monde que constitue le projet musical du YouTube Symphony Orchestra.

De quoi s’agit-il exactement ?

Il serait carrément abusif d’affirmer que le YouTube Symphony Orchestra est à la musique classique, ce que Linux est à l’informatique, mais il y a un peu de cela dans la mesure où nous avons affaire à un projet collaboratif d’envergure qui n’aurait pu être imaginé avant l’avènement d’Internet.

Petite présentation : « Nous avons contacté des musiciens professionnels, amateurs, de tous âges et tous lieux pour participer au YouTube Symphony Orchestra[1]. Pour auditionner, ils ont envoyé une vidéo dans laquelle ils interprétaient une composition musicale créée spécialement par le célèbre compositeur Tan Dun. Les finalistes sont sélectionnés par un panel composé de représentants des orchestres les plus célèbres au monde et de la communauté YouTube. Les gagnants seront invités à New York en avril 2009 pour participer au sommet du YouTube Symphony Orchestra et jouer au Carnegie Hall sous la direction de Michael Tilson Thomas. »

Nous sommes aujourd’hui à la veille de ce point d’orgue puisque la fameuse représentation aura lieu ce mercredi 15 avril.

Pourquoi avoir choisi d’en parler sur le Framablog, en traduisant ci-dessous un article dédié du Time, alors que certains y voient déjà un projet gadget où l’âme de la musique classique se dissout dans le marketing ?

Parce que comme le dit l’un des protagonistes « le sens de la musique, et peut-être même de la vie, est de créer et de tisser des liens entre les gens ». Nous voici d’un coup d’un seul assez loin du projet de loi Hadopi, non ?

Comment êtes-vous arrivés à Carnegie Hall ?

How Do You Get To Carnegie Hall?

Vivien Schweitzer – 9 avril 2009 – Time
(Traduction Framalang : Balzane)

Hannah Pauline Tarley, violoniste de 17 ans, arbore queue de cheval et sourire face à l’objectif. Elle joue l’ouverture d’un extrait de la Symphonie n°4 de Brahms, dodeline dans une chambre décorée d’autocollants et de posters des Beatles et du San Francisco Symphony Youth Orchestra.

Tarley s’est filmée elle-même dans sa chambre de Cupertino, Californie, à l’aide d’un ordinateur posé en équilibre sur une pile de volumes de l’Encyclopaedia Britannica. Elle est l’une des 3 000 musiciens amateurs et professionnels, originaires de pays allant des Bermudes à l’Azerbaïdjan, qui, en décembre et janvier, ont passé une audition vidéo pour intégrer le YouTube Symphony Orchestra. Cet ensemble singulier, le seul a avoir sélectionné ses membres exclusivement par Internet, fera sa première apparition le 15 avril au Carnegie Hall de New York lors d’un concert dirigé par Michael Tilson Thomas, directeur musical de l’Orchestre symphonique de San Francisco.

Le projet constitue une idée originale de Google. Il ambitionne à la fois d’encourager les communautés en ligne de la musique classique et d’asseoir la réputation de YouTube comme hébergeur de contenus de qualité. Après avoir imaginé le projet fin 2007, Google a contacté des musiciens et des ensembles de premier plan, comme l’Orchestre symphonique de Londres et Tilson Thomas, un pionnier des nouveaux médias dans son travail avec l’Orchestre de San Franscisco et du Nouveau Monde.

« La musique classique est souvent perçue comme un domaine conservateur et parfois même un peu élitiste, » déclare Ed Sanders, directeur marketing chez YouTube. Mais, à l’écouter, la réponse des professionnels du secteur fut résolument positive. Google prend en charge l’ensemble des frais, pour un montant que Sanders ne révèlera pas, y compris les visas et les dépenses de voyage pour les musiciens, originaires de 30 pays.

Les vidéos soumises par les musiciens les montraient en train de jouer des incontournables du répertoire, mais aussi un nouveau morceau composé pour l’occasion : The Internet Symphony No. 1 – « Eroica », de Tan Dun, compositeur de la bande originale du film Tigre et dragon.

Les musiciens des orchestres symphoniques de Londres, Berlin et New-York, entre autres ensembles, ont évalué les clips et sélectionné les 200 finalistes. Les vidéos ont ensuite été diffusées dans une section dédiée de YouTube en février. Les utilisateurs de YouTube pouvaient alors voter pour leurs favoris un peu comme pour la Nouvelle Star. Selon les organisateurs, depuis le lancement de YouTube.com/Symphony en décembre 2008, le site a enregistré selon les organisateurs plus de 14 millions de visites.

Composition d’un orchestre virtuel

Tilson Thomas, qui a validé la sélection finale pour le concert du 15 avril, affirme que le projet est « une façon d’élargir notre propre conception de la musique classique », un point qu’il souligne par un programme éclectique, composé d’œuvres de Bach, Mozart, Brahms, Villa-Lobos, John Cage, Tan Dun et du DJ Mason Bates. Tilson Thomas attend du projet qu’il montre à quel point le classique est essentiel pour des personnes de différents âges, nationalités, expériences et professions. Il espère aussi que les artistes apprendront à utiliser Internet et YouTube pour mieux se mettre en valeur, à l’exemple des écrivains en herbe qui se font connaître par leurs blogs.

Eric Moe, un trompettiste de 35 ans de Spokane dans l’État de Washington, a passé avec succès la sélection. Selon lui, ils est essentiel pour un musicien d’être à l’aise avec la technologie. Moe a filmé son audition dans une église ; il a effectué plusieurs essais avec différents PC portables et webcams avant d’obtenir une vidéo qui le satisfasse. Il compare le processus d’audition de YouTube avec une rencontre en ligne : vous ne savez pas si vous allez effectivement rencontrer la personne, ni comment elle est réellement.

Les gagnants ont déjà eu la chance de faire connaissance… virtuellement ! En plus de son audition, chaque gagnant postait une vidéo de présentation. Vêtue d’un kimono, Maki Takafuji, habitante de Kyoto, joue un court solo de marimba et parle de son éducation musicale. Jim Moffat, joue du cor et travaille en Angleterre dans le marketing technologique ; il se présente sur fond de London Bridge. Nina Perlove, une flûtiste de Cincinnati dans l’Ohio, commence sa vidéo en jouant un « New York, New York » inspiré. David France, violoniste et professeur à l’école de musique des Bermudes, salue ses spectateurs depuis une plage sableuse.

Rachel Hsieh, violoncelliste de 24 ans en master au conservatoire de Peabody, a filmé son audition dans son appartement de Baltimore. Elle considère le YouTube Symphony comme un moyen de toucher une audience plus large que les seuls amateurs de musique : « Beaucoup de personnes visitent YouTube, et ils y vont pour s’amuser. C’est vraiment facile pour eux de cliquer et de voir quelque chose de nouveau ».

Des Beethovens invisibles derrière YouTube

Nos musiciens YouTube vont eux aussi voir leur horizon élargi. Ils vont jouer avec des solistes de premier plan, comme le violoniste Gil Shaham. Le violoncelliste Yo-Yo Ma et le pianiste Lang Lang feront une apparition vidéo. Les musiciens vont répéter leur programme lors d’une rencontre de la musique classique à Carnegie Hall du 12 au 15 avril. Ils ont déjà eu la chance d’étudier le répertoire lors de master-classes en ligne organisées par des professionnels. Maxine Kwok-Adams, violoniste de l’orchestre symphonique de Londres, a ainsi donné quelques précieux conseils pour le morceau de Tan Dun.

Toutes les vidéos soumises dans le cadre de ce travail, objet d’un rare engouement des participants, seront assemblées en un montage diffusé le 15 avril, en parallèle avec le concert. Et le public sera autorisé à filmer le concert à Carnegie Hall. Où retrouver ces clips ? Sur YouTube ! Dans une interview sur le site du YouTube Symphony, Tan s’enthousiasme sur les possibilités offertes par Internet. « Il y a tant de Beethovens invisibles derrière YouTube », affirme-t-il.

Moe pense que « les orchestres doivent être attractifs et gagner de nouvelles audiences ». Pour lui, l’aspect le plus fascinant de l’orchestre YouTube est sa vision de la communauté. « Le sens de la musique, et peut-être même de la vie, est de créer et de tisser des liens entre les gens », dit-il. Chacun se demande si cela va marcher musicalement, mais cela constitue sans aucun doute, comme le relève Moe, « une expérience vraiment amusante ». Et pour les artistes, il n’y a rien à perdre. « Je suis content que quelqu’un règle la facture ! », concède Moe.

Pour les autres participants, certains bénéfices vont bien au-delà de la chance de pouvoir augmenter l’audience de la musique classique. Il y a sept ans, Hannah Tarley, l’adolescente californienne, avait demandé à avoir les oreilles percées. Sa mère lui avait répondu qu’elle lui autoriserait un piercing le jour où elle jouerait au Carnegie Hall. Le chemin passait alors par d’innombrables répétitions, mais le monde est un peu différent aujourd’hui. Hannah a joué, puis envoyé sa vidéo… et la voici au Carnegie Hall.

Notes

[1] Crédit photo : Vincent Boiteau (Creative Commons By)




GroundOS : et si l’Hadopi faisait émerger le web 3.0 ?

Josef Grunig - CC by-saComme vous le savez, la loi Création et Internet a été votée en catimini par 16 gus dans un hémicycle. Je ne reviens pas sur le fait que cette loi pose de nombreux problèmes (démocratiques) et paradoxes (techniques). D’autres s’en sont déjà chargés.

Parmi les des effets de bord, il parait évident que cette loi va pousser l’internaute moyen vers des solutions de sécurisation de ses communications toujours plus poussées. On va voir se multiplier les réseaux chiffrés (bien), sans compter probablement les mails avec des groooosses pièces jointes (pas bien, mais inévitable).

Reste que tant qu’on reste sur du Minitel 2.0, on participe à un système où l’on ne contrôle pas ses propres données. Si je dépose une video sur Youtube, Youtube saura dire qui l’a déposée (adresse IP, email, date et heure précise). Et si je télécharge une vidéo depuis ce même site, non seulement Youtube, mais aussi mon fournisseur d’accès internet, et bientôt la Haute Autorité bidule[1] pourront me tomber sur le dos : « Ha, mon bon Monsieur, vous avez écouté une reprise de Petit Papa Noël par une enfant de 15 ans, ce qui lui aura couté 300 000€ d’amende. Mais vous, passez directement par la case courrier recommandé[2] avant qu’on ne vous coupe votre accès internet. Cela vous met au chômage technique ? Tant pis, fallait pas encourager la subversion et la contrefaçon. ». Bienvenue en Chine à Pionyang au Brésil.

Par contre, si j’héberge moi-même mes données, et si je les partage en les chiffrant, je reprends le contrôle de mes données.

Le problème, c’est que c’est quand même un « truc d’informaticien » de s’héberger soi-même. Si, si. Moi dont c’est le métier, quand je dis aux gens qui veulent quitter Gmail, Hotmail & co : « Prends-toi donc un hébergement à l’APINC ou chez Gandi, pour 15€ par an, tu seras tranquille ». Ce n’est pas le prix qui les arrête, mais le jargon, le nombre de pages de contrat, le fait de saisir un numéro de CB sur le web, etc.

Mais cela pourrait changer[3].

Prenez le buzz du moment : GroundOS.
Pour le dire rapidement, GroundOS est une application web qui vous permet de partager facilement votre musique, vos films, vos photos, vos documents (déposés dans groundOS ou rédigés directement dans groundOS, sur le principe de Google Docs).
En tant que tel, rien de bien nouveau, si ce n’est que ça a l’air particulièrement bien intégré (alors que pour arriver au même résultat aujourd’hui, il faut de nombreuses applications différentes). Et d’ailleurs, GroundOS n’est peut être qu’un « fake », on sera fixé le premier mai, mais peu importe.

En utilisant GroundOS (ou autre application similaire), j’héberge moi même mes données, je les partage avec qui je veux, et je les chiffre si je veux. Et je souhaite bien du courage à l’Hadopi pour savoir si ce qui transite dans mes tuyaux c’est le dernier album de Johnny, ou la vidéo de l’anniversaire de mon petit neveu.

Maintenant, il reste encore un problème : comment Tata Jeannine va-t-elle pouvoir utiliser GroundOS ? Certes, elle pourrait utiliser la version installée par son entreprise, par l’école de sa fille, ou par l’association du coin. Mais c’est remettre de la centralisation là où l’on veut décentraliser.
Elle pourrait aussi l’utiliser sous forme d’une WebApp ( de préférence made by Framasoft). Mais à l’extinction de son ordinateur, ce serait fermer le partage de données.

Reste une voie intéressante : celle des boxes internet.
Par exemple, on estime le nombre d’abonnés ADSL de Free à 3 500 000. Une grande partie d’entre eux ont une Freebox équipée d’un disque dur (qui sert notamment de magnétoscope). Imaginons que Free livre ses Freebox prééquipées d’un GroundOS (qu’on ne me dise pas qu’installer un serveur web sur des box internet est impossible). Pour le même prix, Tata Jeannine aurait : (Internet+téléphone+TV) + « son petit coin d’internet à elle ». Accessible facilement (tatajeannine.free.fr) 24h/24, 365 jours par an.

Évidemment, cela soulève des questions, notamment en terme de sécurité. Se faire hacker sa connexion internet, ce serait potentiellement donner accès à toute votre vie numérique. En terme technique, le premier geek poilu venu me rétorquera « en terme de QOS on a vu mieux », que le « MTBF des HDD des boxes c’est pas top », que « Free sapusaipalibre », que « le A de ADSL limite les usages », voire qu’il fait ça (de l’autohébergement) « depuis 6 ans avec un vieux 486 sous Debian planqué sous l’évier ».

Mais quand même. Là il s’agit de Tata Jeannine ! Et juste d’activer une fonctionnalité qui lui permettrait de partager facilement ses photos, d’écouter sa musique (achetée légalement) d’où qu’elle soit, de pouvoir blogguer sans pub sans craindre le dépôt de bilan de l’hébergeur, de pouvoir regarder la fin du film qu’elle a enregistré sur sa box à Lyon depuis sa maison de campagne à Sainte-Ménehould, de pouvoir stocker tout ou partie de son courrier sur sa MachinBox internet (plutôt qu’on ne sait où sur le web). Bref, d’avoir un petit bout d’internet comme on a un petit bout de jardin, plutôt que d’aller systématiquement au parc du coin. Et tout ça depuis son Firefox préféré.

Après l’ère de la diffusion de l’information, après celle de la participation, peut être allons nous vers celle de la décentralisation ?

Ou, autrement formulé, « et si on redonnait internet aux internautes ? »

Notes

[1] C’est à dire Vivendi & co – qui nous aura plus ou moins forcé à installer leur logiciel espion puisque si je refuse d’être observé en permanence, c’est donc que je suis coupable !

[2] Ben oui, je ne lis pas les mails de mon FAI.

[3] Crédit photo : Josef Grunig (Creative Commons By-Sa)




Cloud computing, logiciel libre et service public

Per Ola Wiberg - CC byEn ce début d’investiture Obama, de nombreux internautes expriment souhaits et desiderata à la nouvelle administration.

Le vœu de William Hurley a retenu notre attention. « Je suggère que vous créiez un cloud computing financé par l’État, mis à la disposition des facultés et des universités », nous dit-il. Nous n’en saurons pas vraiment plus car il n’est pas entré dans les détails mais nous avons néanmoins saisi la perche pour en faire un billet où nous pourrions nous interroger ensemble sur les relations entre l‘informatique dans les nuages, le logiciel libre et un éventuel rôle de la puissance publique.

Placer nos données personnelles, nos fichiers, nos liens, etc. sur le Grand Internet présente en effet de nombreux avantages pratiques à l’heure où l’on peut « quasiment » se connecter partout tout le temps. Mais ce n’est pas sans poser quelques questions pour ne pas dire quelques problèmes. Je pense par exemple à la mésaventure récente de ce pauvre Marc L***[1] que l’on pouvait suivre au jour le jour à la trace via Facebook et consorts. Je pense également à notre récent billet La tête dans les nuages mais les pieds sur terre. Je pense enfin à la toile tissée méthodiquement par Google avec tous ses services en ligne (Gmail, Reader, Maps, Earth, Picasa, Calendar, Docs, YouTube…) que nous sommes nombreux à utiliser au quotidien.

Et puisqu’il est question d’éducation supérieure et d’université[2], je dois bien vous avouer que, l’année dernière, lorsqu’il a été question de créer en deux-trois coups de cuillère à pot des adresses de messagerie (avec ou sans chat) pour tous les enseignants et étudiants de mon établissement scolaire, de se doter d’agendas partagés et d’une suite bureautique en ligne (fichiers tableurs et traitements de texte potentiellement accessibles en lecture écriture, selon les droits, à toute la communauté, et disponibles au format ODF), je me suis tourné vers… Google Apps Education sans avoir « malheureusement » à le regretter.

En tant que responsable TICE de mon lycée J’ai donc osé confier les données de mes élèves à Google ! Est-ce grave docteur ? Oui ça l’est ! J’en ai bien conscience et je compte bien un jour me soigner (quand bien même Google n’affiche bien entendu pas de publicités pour ce service spécifique au monde éducatif). Il faut tout de même dire, à ma décharge, que par rapport à ma problématique et à mes besoins (temps limité, budget nul et situation particulière d’un lycée à l’étranger) je ne pouvais raisonnablement pas m’appuyer sur un quelconque Espace Numérique de Travail (ENT) dont je doute de plus en plus de leur pertinence et efficience à mesure que le temps passe (surtout si l’on continue à s’obstiner à les développer académie par académie).

Les partisans du logiciel libre peuvent sensibiliser sur les risques encourus à confier nos documents et informations numériques à des services en ligne « gratuits » proposés par des sociétés commerciales « web 2.0 » qui n’offrent pas de garanties sur l’avenir et sont souvent opaques au niveau de nos droits et des formats. Ils peuvent pousser à ce que des licences plus adaptées et plus transparentes soient adoptées (telle la licence AGPL). Mais, contrairement à un Microsoft où il « suffisait » de proposer des alternatives logicielles libres, ils ne peuvent absolument pas concurrencer un Google sur son terrain, c’est-à-dire justement le cloud computing, qui nécessite des investissements très très lourds ne serait-ce que pour pour installer et maintenir les batteries de serveurs disséminés un peu partout sur le réseau. Et alors je crois effectivement que le politique et le secteur public (national ou supra-national) peuvent nous être d’un grand secours pour modifier la donne (si tant est que l’on juge que la donne mérite modification).

C’est certainement l’alliance « logiciel libre + secteur public » qui pourra faire en sorte de ne pas laisser le champ libre aux seules sociétés privées. Ne privatisons pas la totalité du cloud computing (surtout dans le domaine éducatif), voilà par extrapolation, le sujet du billet du jour. Un peu comme ce qu’a voulu faire le projet de bibliothèque numérique européenne Europeana pour contrarier Google Books avec pour le moment le succès que l’on sait

L’enseignement supérieur a besoin d’un nuage informatique national

Higher education needs a national computing cloud

William Hurley – 26 janvier 2009 – InfoWorld
(Traduction Framalang : Don Rico)

Le cloud computing (ou informatique dématérialisée ou informatique dans les nuages), est vital pour l’avenir de l’enseignement supérieur aux États-Unis, et j’invite le Président Obama à agir

Le 26 janvier 2009
M. le Président Barack Obama
La Maison Blanche
Washington, DC 20500-0001

M. le Président,

Je tiens à vous adresser mes plus sincères félicitations, Monsieur, pour votre récente investiture à la fonction de 44ème Président des États-Unis d’Amérique. Votre victoire est la preuve de la grandeur de notre démocratie, mais aussi de la capacité de transformation de cette même démocratie. Comme des millions de mes semblables du monde entier, j’ai regardé avec une grande fierté votre prestation de serment, lors de laquelle vous êtes devenu un exemple vivant de l’impact que peut avoir un seul citoyen américain.

Vous avez déclaré « Le monde change, et nous devons changer avec lui ». Je suis on ne peut plus d’accord, M. le Président, et je crois que la politique que mènera votre administration sera une fontaine d’innovation. Je sais que le vice-président et vous êtes profondément favorables au développement des initiatives de recherche dans les instituts d’enseignement supérieur qui sont au cœur de l’innovation américaine. Pour ces instituts, l’avenir est déjà là. Mais, comme l’a écrit William Gibson « il n’est pas encore tout à fait équitablement réparti ».

Nous avons laissé le coût de la technologie entraver notre capacité à innover. Les chercheurs ne sont plus limités par le manque d’idées ou de connaissances, mais plutôt par les moyens informatiques nécessaires pour conduire des expériences et en analyser les résultats.

Je suggère donc que vous créiez un cloud computing financé par l’État, mis à la disposition des facultés et des universités. Une telle ressource aurait le mérite de niveler le terrain universitaire. Les chercheurs qui travaillent d’arrache-pied dans des milliers d’instituts de taille modeste auraient alors accès à une puissance informatique qui n’est pour l’instant accessible qu’à une poignée de privilégiés. Il nous est impossible de prédire d’où viendra la prochaine grande innovation, mais des ressources informatiques dématérialisées publiques amélioreraient de façon extraordinaire nos moyens de coopérer et d’innover au niveau national.

Les grandes avancées technologiques et sociales peuvent se produire presque simultanément. En septembre 1962, un jeune chercheur publiait ce qui donnerait naissance aux plus grandes avancées technologiques de notre temps, et au même moment, un autre jeune homme originaire de Kosciusko, dans le Missouri, amorçait un itinéraire personnel qui aboutirait à un moment charnière dans la lutte pour les droits civiques. D’aucuns peuvent y voir une coïncidence, mais en ce qui me concerne j’y vois la providence. Les recommandations de Paul Baran en faveur d’une structure nationale publique destinée à transporter des données informatiques et l’entrée de James Meredith à l’université du Mississipi ont, du point de vue technologique et social, changé les États-Unis en profondeur.

Votre administration, par sa connaissance des nouvelles technologies, tient l’occasion d’accomplir un autre grand bond en avant. On ne peut comparer ma lettre à l’article de Baran, mais j’espère suggérer cette idée au moment opportun. Une idée trop en avance sur son temps a aussi peu de valeur qu’une idée avancée après que des engagements ont déjà été pris. J’espère donc attirer votre attention maintenant, avant que vos projets de réformes pour l’éducation aient été élaborés, et tant qu’il reste du temps pour prévoir le financement d’un cloud computing ayant le potentiel de transformer des chercheurs dispersés et inégaux en une locomotive d’innovation la plus puissante du monde.

Encore une fois, M. le Président, je tiens à vous féliciter, votre équipe et vous, pour votre victoire grandiose acquise grâce aux nouvelles technologies, ainsi que pour votre investiture inattendue, exaltante et triomphante.

Notes

[1] J’en profite pour saluer ici le très libre curieux magazine curieux Le Tigre.

[2] Crédit photo : Per Ola Wiberg (Creative Commons By)