George Clooney a une sale gueule ou la question des images dans Wikipédia

George Clooney - Bad Dog - Public DomainÀ moins d’être aussi bien le photographe que le sujet photographié (et encore il faut faire attention au décor environnant), impliquant alors soit d’avoir le don d’ubiquité soit d’avoir un pied ou le bras assez long, c’est en théorie un pur casse-tête que de mettre en ligne des photographies sur Internet.

Il y a donc pour commencer le droit de l’auteur, le photographe. Mais quand bien même il aurait fait le choix de l’ouverture pour ses images, avec par exemple une licence Creative Commons, il reste la question épineuse du droit du sujet photographié (qui peut être une personne, un monument architectural…). Et pour corser le tout, n’oublions pas le fait que la législation est différente selon les pays.

Et c’est ainsi que le Framablog se met quasi systématiquement dans l’illégalité lorsqu’il illustre ses billets par une photographie où apparaissent des gens certes photogéniques mais non identifiés. Parce que si il prend bien le soin d’aller puiser ses photos parmi le stock d’images sous Creative Commons d’un site comme Flickr, il ne respecte que le droit du photographe et non celui du ou des photographié(s), dont il n’a jamais eu la moindre autorisation.

C’est peut-être moins grave (avec un bon avocat) que ces millions de photos que l’écrasante majorité de la jeune génération partage et échange sans aucune précaution d’usage sur les blogs, MySpace ou Facebook, mais nous ne sommes clairement qu’à la moitié du chemin.

Le chemin complet du respect des licences et du droit à l’image, c’est ce que tente d’observer au quotidien l’encyclopédie libre Wikipédia. Et c’est un véritable… sacerdoce !

Vous voulez mettre en ligne une photo sur Wikipédia ? Bon courage ! L’avantage c’est que vous allez gagner rapidement et gratuitement une formation accélérée en droit à l’image 😉

Pour l’anecdote on cherche toujours à illustrer le paragraphe Framakey de notre article Framasoft de l’encyclopédie et on n’y arrive pas. Une fois c’est le logo de Firefox (apparaissant au microscope sur une copie d’écran de l’interface de la Framakey) qui ne convient pas, parce que la marque Firefox est propriété exclusive de Mozilla. Une fois c’est notre propre logo (la grenouille Framanouille réalisée par Ayo) qui est refusé parce qu’on ne peut justifier en bonne et due forme que sa licence est l’Art Libre.

Toujours est-il donc que si vous souhaitez déposer une image dans la médiathèque de Wikipédia (Wikimédia Commons) alors le parcours est semé d’embûches. L’enseignant que je suis est plutôt content parce que l’encyclopédie participe ainsi à éduquer et sensibiliser les utilisateurs à toutes ces questions de droit d’auteurs, de propriété intellectuelle… avec moultes explications sur l’intérêt d’opter (et de respecter) les licences libres. Mais il n’empêche que l’une des conséquences de ces drastiques conditions d’entrée, c’est que pour le moment Wikipédia manque globalement de photographies de qualité (comparativement à son contenu textuel).

C’est particulièrement criant lorsqu’il s’agit d’illustrer les articles sur des personnalités contemporaines[1] (les plus anciennes échappant a priori au problème avec le domaine public, sauf quand ces personnalités ont vécu avant… l’invention de la photographie !). Et c’est cette carence iconographique que le New York Times a récemment prise pour cible dans une chronique acide dont le traduction ci-dessous nous a servi de prétexte pour aborder cette problématique (chronique qui aborde au passage la question complexe du photographe professionnel qui, craignant pour son gagne-pain, peut hésiter à participer).

La situation est-elle réellement aussi noire que veut bien nous le dire le vénérable journal ?

Peut-être pas. Il y a ainsi de plus en plus de photographes de qualité, tel Luc Viatour, qui participent au projet . Il y a de plus en plus d’institutions qui, contrairement au National Portrait Gallery, collaborent avec Wikipédia en ouvrant leurs fonds et archives, comme en témoigne l‘exemple allemand. Même le Forum économique mondial de Davos s’y met (dépôt dans Flickr, utilisation dans Wikipédia). Sans oublier les promenades locales et festives où, appareil photo en bandoulière, on se donne pour objectif d’enrichir ensemble l’encyclopédie.

Du coup mon jugement péremptoire précédent, à propos de la prétendue absence globale de qualité des images de Wikipédia, est à nuancer. Il suffit pour s’en convaincre de parcourir les pages « images de qualité » ou l’« image du jour ».

L’encyclopédie est en constante évolution, pour ne pas dire en constante amélioration, et bien heureusement la photographie n’échappe pas à la règle. Même si il est vrai que le processus est plus lent parce qu’on lui demande de s’adapter à Wikipédia et non l’inverse.

Wikipédia, terre fertile pour les articles, mais désert aride pour les photos

Wikipedia May Be a Font of Facts, but It’s a Desert for Photos

Noam Cohen – 19 juillet 2009 – New York Times
(Traduction Framalang : Olivier et Goofy)

Une question de la plus haute importance : existe-t-il de mauvaises photos de Halle Berry ou de George Clooney ?

Halle Berry - Nancy Smelser - Public DomainFacile, allez sur Wikipédia ! Vous y trouverez une photo floue de Mlle Berry, datant du milieu des années quatre-vingt, lors de la tournée U.S.O. avec d’autres candidates au titre de miss USA. La mise au point est mauvaise, elle porte une casquette rouge et blanche, un short, c’est à peine si on la reconnait. L’article de Wikipédia sur M. Clooney est, quant à lui, illustré par une photo le montrant au Tchad, portant une veste kaki est une casquette des Nations Unies. Avec son grand sourire et ses traits anguleux il est toujours aussi beau, en compagnie de deux femmes travaillant pour les Nations Unies, mais on est loin d’un portait glamour.

Certains personnages éminemment célèbres, comme Howard Stern ou Julius Erving, n’ont même pas la chance d’avoir leur photo sur Wikipédia.

George Clooney - Nando65 - Public DomainAlors que de nos jours les célébrités s’offrent couramment les services d’une équipe de professionnels pour contrôler leur image, sur Wikipédia c’est la loi du chaos. Très peu de photographies de bonne qualité, particulièrement de célébrités, viennent enrichir ce site. Tout cela tient au fait que le site n’accepte que les images protégées par la plus permissive des licences Creative Commons, afin qu’elles puissent être ré-utilisées par n’importe qui, pour en tirer profit ou pas, tant que l’auteur de la photo est cité.

« Des représentants ou des agents publicitaires nous contactent, horrifiés par les photos qu’on trouve sur le site », confie Jay Walsh, porte-parole de la Wikimedia Foundation, l’organisme qui gère Wikipédia, l’encyclopédie en plus de 200 langues. « Ils nous disent : J’ai cette image, je voudrais l’utiliser. Mais ça n’est pas aussi simple que de mettre en ligne la photo qu’on nous envoie en pièce jointe. »

Il poursuit : « En général, nous leur faisons comprendre que de nous envoyer une photo prise par la photographe Annie Leibovitz ne servira à rien si nous n’avons pas son accord. »

Les photos sont l’un des défauts les plus flagrants de Wikipédia. À la différence des articles du site, qui, en théorie, sont vérifiés, détaillés à l’aide de notes, et qui se bonifient avec le temps, les photos sont l’œuvre d’une seule personne et elles sont figées. Si un mauvais article peut être amélioré, une mauvaise photo reste une mauvaise photo.

Les wikipédiens tentent de corriger ce défaut, ils organisent des événements ou des groupes de contributeurs vont prendre des clichés de bonne qualité de bâtiments ou d’objets. De même, Wikipédia s’efforce d’obtenir la permission d’utiliser d’importantes collections de photographies.

L’hiver dernier, les archives fédérales allemandes ont placé cent mille photos basse résolution sous une licence permettant leur usage dans Wikipédia. Récemment, un utilisateur de Wikipédia, Derrick Coetzee, a téléchargé plus de trois mille photos haute résolution d’œuvres de la National Portrait Gallery de Londres, pour qu’elles soient utilisées, essentiellement, pour illustrer les articles se rapportant à des personnes historiques célèbres comme Charlotte Brontë ou Charles Darwin.

La galerie a menacé de porter plainte contre M. Coetzee, affirmant que même si les portraits, de par leur ancienneté, ne tombent plus sous la protection du droit d’auteur, les photographies elles sont récentes et du coup protégées. La galerie exige une réponse de M. Coetzee pour lundi. Il est représenté par l’Electronic Frontier Foundation. S’exprimant par e-mail vendredi, une porte-parole de la galerie, Eleanor Macnair, écrit qu’un « contact a été établi » avec la Wikimedia Foundation et que « nous espérons toujours que le dialogue est possible ».

On reste pourtant bien loin du compte et le problème des photographies sur Wikipédia est tout sauf réglé. Dans la galerie des horreurs, l’ancienne star de la NBA, George Gervin, aurait une place de choix. Debout, droit comme un I dans son costard, sur une photo aux dimensions pour le moins étranges, même pour un joueur de basket-ball. La photo, recadrée et libre de droit, provient du bureau du sénateur du Texas, John Cornyn.

Barack Obama - Pete Souza - CC byL’exemple de M. Gervin illustre un fait établi : le gouvernement alimente le domaine public de nombreuses photographies. Celle illustrant l’article du président Obama, par exemple, est un portrait officiel tout ce qu’il y a de posé et sérieux.

Mais les collections de photographies du gouvernement servent aussi aux contributeurs de Wikipédia. Ils espèrent y dénicher des images de rencontres entre célébrités et personnages politiques, qu’ils massacrent ensuite pour illustrer un article.

L’ancien roi du baseball, Hank Aaron, a l’honneur d’être illustré par une photo prise hors contexte, bizarrement découpée, prise en 1978 à la Maison Blanche. De même, l’illustration principale de l’article sur Michael Jackson a été réalisée en 1984 à l’occasion de sa visite à Ronald et Nancy Reagan.

Natalie Dessay - Alixkovich - CC by-saLes photos récentes sur Wikipédia sont, pour une large majorité, l’œuvre d’amateurs qui partagent volontiers leur travail. Amateur étant même un terme flatteur puisque ce sont plutôt des photos prises par des fans qui par chance avaient un appareil photo sous la main. La page de la cantatrice Natalie Dessay la montre en train de signer un autographe, fuyant l’objectif, l’actrice Allison Janney est masquée par des lunettes de soleil au Toronto Film Festival. Les frères Coen, Joel et Ethan, sont pris à distance moyenne à Cannes en 2001 et Ethan se couvre la bouche, certainement parce qu’il était en train de tousser. Et il y a aussi les photos prises depuis les tribunes où on distingue à peine le sujet. D’après sa photo, on pourrait croire que la star du baseball Barry Bonds est un joueur de champ extérieur. David Beckham, quant à lui, apparait les deux mains sur les hanches lors d’un match de football en 1999.

Placido Domingo- Sheila Rock - Copyright (with permission)Certaines personnes célèbres, comme Plácido Domingo et Oliver Stone, ont cependant eu la bonne idée de fournir elles-mêmes une photographie placée sous licence libre. Quand on pense à tout l’argent que les stars dépensent pour protéger leur image, il est étonnant de voir que si peu d’entre elles ont investi dans des photos de haute qualité, sous licence libre, pour Wikipédia ou d’autres sites. Peut-être ne se rendent-elles pas compte de la popularité de Wikipédia ? Rien que pour le mois de juin, par exemple, la page de Mlle Berry a reçu plus de 180 000 visites.

D’après Jerry Avenaim, photographe spécialisé dans les portraits de célébrités, il faut encore réussir à persuader les photographes, car placer une photo sous licence libre pourrait faire de l’ombre à toutes les autres. Il se démarque par le fait qu’il a déjà enrichi Wikipédia d’une douzaine de clichés en basse résolution, parmi lesquels un superbe portrait de Mark Harmon pris à l’origine pour un magazine télé.

Dans un interview, M. Avenaim semblait toujours indécis quant à l’idée de partager son travail. Sa démarche poursuit un double but : « D’abord, je voulais vraiment aider les célébrités que j’apprécie à apparaitre sous leur meilleur jour », dit-il, « Ensuite, c’est une stratégie marketing intéressante pour moi ».

Mark Harmon - Jerry Avenaim - CC by-saSa visibilité en ligne a largement augmenté grâce à la publication de ses œuvres sur Wikipédia, comme le montrent les résultats des moteurs de recherche ou la fréquentation de son site Web. Mais c’est une publicité qui peut aussi lui coûter très cher. « C’est mon gagne-pain », dit-il, rappelant que les photographes sont parfois très peu payés par les magazines pour leurs images de célébrités. L’essentiel de leurs revenus provient de la revente des images. Même si les images qu’il a mises gratuitement à disposition, par exemple le portrait de Dr. Phil, sont en basse résolution, elles deviennent les photographies par défaut sur Internet. Pourquoi payer alors pour une autre de ses photos ?

Et c’est bien là que la bât blesse pour les photographes qui voudraient mettre leurs œuvres à disposition sur Wikipédia, et seulement sur Wikipédia, pas sur tout Internet. « Wikipédia force à libérer le contenu déposé sur le site, c’est là que réside le problème à mes yeux », explique M. Avenaim. « S’ils veulent vraiment que la qualité des photos sur le site s’améliore, ils devrait permettre aux photographes de conserver leurs droits d’auteur. »

Notes

[1] Crédits photos : 1. George Clooney, par Bad Dog (domaine public) / 2. Halle Berry, par Nancy Smelser (domaine public) / 3. George Clooney, par Nando65 (domaine public)/ 4. Barack Obama, par Pete Souza (creative commons by) / 5. Natalie Dessay, par Alixkovich (creative commons by-sa) / 6. Placido Domingo, par Sheila Rock (copyright avec permission) / 7. Mark Harmon, par Jerry Avenaim (creative commons by-sa)




Si rien ne bouge en France dans les cinq ans je demande ma mutation à Genève

Broma - CC byCe billet souhaite avant tout saluer l’action du SEM qui, dans le cadre des MITIC, favorise les SOLL au sein du DIP. Gageons cependant que si vous n’êtes pas familier avec le système éducatif genevois, cette introduction risque de vous apparaitre bien énigmatique !

Le DIP, c’est le Département de l’Instruction Publique du Canton de Génève et le SEM, le Service Écoles-Médias chargé de la mise en œuvre de la politique du Département dans le domaine des Médias, de l’Image et des Technologies de l’Information et de la Communication, autrement dit les MITIC.

Mais l’acronyme le plus intéressant est sans conteste les SOLL puisqu’il s’agit rien moins que des Standards Ouverts et des Logiciels Libres.

En mars dernier en effet le SEM a élaboré un plan de déploiement 2009-2013 sur cinq ans des postes de travail pédagogiques (autrement dit les ordinateurs des élèves[1]) qui présente la particularité d’être peu ou prou… exactement ce qu’il nous faudrait à nous aussi en France ! Lecture chaudement recommandée.

L’objectif du présent plan de déploiement est de parvenir d’ici la rentrée 2013 à doter les écoles d’un poste de travail fonctionnant uniquement sous GNU/Linux, dans sa distribution Ubuntu.

Impressionnant non ! Proposez aujourd’hui la même chose de l’autres côté de la frontière et c’est le tremblement de terre (assorti d’une belle panique du côté des « enseignants innovants » de Projetice, du Café pédagogique et de Microsoft) !

Mais ainsi exposé, il y a un petit côté radical à nuancer :

Le solde constitue les exceptions pour lesquelles il n’aura pas été possible de trouver une solution ou pour lesquelles les systèmes propriétaires restent manifestement mieux adaptés au métier.

Et comment ne pas souscrire à ce qui suit (que je m’en vais de ce pas imprimer et encadrer dans ma chambre) :

Il s’agit en fait d’opérer un changement de paradigme : aujourd’hui, le standard est Windows, l’exception MacOS. Demain, le standard sera GNU/Linux, les exceptions MacOS et Windows.

Tout est dit ou presque. Ce n’est ni un désir, ni une prédiction, c’est à n’en pas douter le choix technologique d’avenir de nos écoles. Et plus tôt on prendra le train en marche, mieux ça vaudra.

Je n’ai pu résister à vous recopier intégralement la première page du plan tant elle est pertinente et pourrait se décliner partout où l’on analyse sérieusement la situation.

Depuis 2004, l’État de Genève a annoncé son intention d’orienter progressivement son informatique vers les standards ouverts et les logiciels libres (SOLL).

Cette décision est motivée par la prise de conscience que « l’information gérée par l’État est une ressource stratégique dont l’accessibilité par l’administration et les citoyens, la pérennité et la sécurité ne peuvent être garanties que par l’utilisation de standards ouverts et de logiciels dont le code source est public ».

Un intérêt économique est aussi présent : diminution des dépenses de licences bien sûr, mais également en favorisant les compétences et les services offerts par des sociétés locales plutôt que de financer de grands comptes internationaux.

Dans le domaine de l’informatique pédagogique, l’intérêt pour les SOLL est bien antérieur. En effet, les logiciels libres offrent pour l’éducation des avantages spécifiques, en plus des avantages communs à tous les secteurs de l’État. Ces logiciels permettent de donner gratuitement aux élèves les outils utilisés en classe et donc de favoriser le lien entre l’école et la maison ; ils offrent un apprentissage affranchi de la volonté des grands éditeurs de créer des utilisateurs captifs ; et la large communauté qui s’est développée autour des SOLL produit des solutions de qualité adaptées aux besoins de l’éducation.

La question des ressources pédagogiques est également au centre de cette problématique. S’appuyant sur le fonctionnement collaboratif propre au logiciel libre, il s’agit de mettre à disposition des enseignants et des élèves des environnements numériques technologiques performants à même de valoriser les contenus créés par les enseignants, de leur offrir la possibilité de les partager et de les échanger tout en protégeant les auteurs.

Conscient de ces enjeux, le DIP a validé en juin 2008 une directive formalisant sa décision « d’orienter résolument son informatique tant administrative que pédagogique vers des solutions libres et ouvertes ». La responsabilité de cette démarche a été confiée au SEM.

On peut toujours qualifier la Suisse de « neutre » et « conservatrice » mais certainement pas pour ce qui concerne les TICE du côté de Genève !

L’excellente directive dont il est question à la fin de l’extrait, nous en avions longuement parlé dans un billet dédié du Framablog. On notera qu’il est également questions des ressources pédagogiques, évoquées (malheureusement en creux) lors du billet L’académie en ligne ou la fausse modernité de l’Éducation nationale.

Vous me direz peut-être que cette belle intention ne se décrète pas. Et vous aurez raison ! Mais on en a pleinement conscience et c’est aussi pour cela qu’on se donne du temps, cinq ans, en commençant progressivement par quelques écoles pilotes.

Comme lors de tout changement, la transition vers un poste de travail logiciels libres va susciter des oppositions importantes, liées à des critères objectifs ou à des craintes non fondées. Pour assurer la réussite du projet, il conviendra donc d’identifier les risques et de mettre en œuvre les moyens de les réduire.

Les principaux risques identifiables dès maintenant sont les suivants :

– résistance au changement des utilisateurs parce que celui-ci demande un effort d’apprentissage et d’adaptation ;

– habitudes acquises lors de la formation (notamment universitaire) d’utiliser certains produits propriétaires, même si ceux-ci sont onéreux et parfois moins performants ou pratiques ;

– difficultés à récupérer les contenus déjà réalisés avec les nouveaux logiciels proposés ;

– difficultés à échanger les documents entre l’environnement mis à disposition par le DIP et les divers environnement acquis dans le domaine privé (même si les logiciels libres peuvent gratuitement être installés à domicile) ;

– ressources insuffisantes pour accompagner le changement et assurer une aide locale aux utilisateurs ;

– manque de clarté des objectifs de l’Etat dans le domaine des SOLL et impression que le DIP fait cavalier seul (ou, plus grave, renoncement de l’Etat à ses objectifs) ;

Et pour se donner le maximum de chances de franchir l’obstacle :

Dans la plupart des cas, la réponse aux préoccupations décrites passe par un effort d’information et de formation. Il faudra en particulier :

– rendre très clairement lisibles les objectifs de l’Etat et du DIP ;

– assurer lors de chaque migration une réelle plus-value pour les utilisateurs, soit pour la couverture des besoins, soit dans la mise à jour et la maintenance du poste, soit pour le support et la maintenance ou encore l’autoformation en ligne ;

– être en mesure d’apporter une aide spécifique, personnalisée, locale, efficace et rapide pour résoudre les problématiques soulevées.

Le plan décrit dans ce document est évolutif. Il pourra être adapté en fonction des opportunités ou difficultés rencontrées au sein du périmètre concerné, ou en fonction de l’évolution du contexte (politique des éditeurs de logiciels, modification des orientations globales de l’Etat, etc.).

Face à ce types d’initiatives, vous pouvez être certain que la politique de certains éditeurs, que l’on ne nommera pas, va évoluer, et évoluer dans le bon sens (ce n’est pas autrement que s’y prend le Becta en Angleterre).

Et pour conclure :

Le but visé par la transition vers les standards ouverts et les logiciels libres consiste en premier lieu à améliorer la qualité et la pérennité des outils informatiques mis à la disposition de l’enseignement.

Les avantages sont évidents dans une perspective globale. Vue du terrain, la réalité est nettement plus nuancée étant donné l’effort personnel que demande le changement d’habitudes et de moyens.

C’est la raison pour laquelle la compréhension par chacun des enjeux est essentielle, de même que la qualité de l’accompagnement qui devra soutenir la démarche.

Voilà une démarche que nous allons suivre de près.

Si vous voulez mon humble avis, on serait bien inspiré d’inviter nos amis du SEM au prochain Salon de l’Éducation à Paris, avec le secret espoir d’être remarqués par notre ministre et ses experts conseillers.

PS : La source de ce billet provient de l’article Écoles : l’informatique en logiciels libres du quotidien suisse indépendant Le Courrier, qui cite souvent le directeur du SEM Manuel Grandjean : « On ne va pas changer une Ferrari pour une 2CV juste parce qu’elle est open source » ou encore « Le travail d’enseignant intègre largement la collaboration et la mise en commun de ressources (…) On est véritablement dans une défense du bien commun ».

Notes

[1] Crédit photo : Broma (Creative Commons By)




Le socialisme nouveau est arrivé

Copyleft FlagLe socialisme est mort, vive le socialisme ? À l’instar de Is Google making us stupid? c’est une nouvelle traduction de poids que nous vous proposons aujourd’hui.

Un socialisme nouveau, revu et corrigé, est en train de prendre forme sur Internet. Telle est l’hypothèse de Kevin Kelly, célèbre éditorialiste du célèbre magazine Wired. Et l’on ne s’étonnera guère d’y voir le logiciel libre associé aux nombreux arguments qui étayent son propos.

Vous reconnaissez-vous dans ce « socialisme 2.0 » tel qu’il est présenté ici ? Peut-être oui, peut-être non. Mais il n’est jamais inutile de prendre un peu de recul et tenter de s’interroger sur ce monde qui s’accélère et va parfois plus vite que notre propre capacité à lui donner du sens.

Le nouveau Socialisme : La société collectiviste globale se met en ligne

The New Socialism: Global Collectivist Society Is Coming Online

Kevin Kelly – 22 mai 2009 – Wired
(Traduction Framalang : Poupoul2, Daria et Don Rico)

Bill Gates s’est un jour moqué des partisans de l’Open Source avec le pire épithète qu’un capitaliste puisse employer. Ces gens-là, a-t-il dit, sont « une nouvelle race de communistes », une force maléfique décidée à détruire l’incitation monopolistique qui soutient le Rêve Américain. Gates avait tort : les fanatiques de l’Open Source sont plus proches des libertariens que des communistes. Il y a pourtant une part de vérité dans son propos. La course effrénée à laquelle on se livre partout sur la planète pour connecter tout le monde avec tout le monde dessine doucement les contours d’une version revue et corrigée du socialisme.

Les aspects communautaires de la culture numérique ont des racines profondes et étendues. Wikipédia n’est qu’un remarquable exemple de collectivisme émergeant parmi d’autres, et pas seulement Wikipédia mais aussi toute le système des wikis. Ward Cunningham, qui inventa la première page web collaborative en 1994, a recensé récemment plus de cent cinquante moteurs de wiki différents, chacun d’entre eux équipant une myriade de sites. Wetpaint, lancé il y a tout juste trois ans, héberge aujourd’hui plus d’un million de pages qui sont autant de fruits d’un effort commun. L’adoption massive des licences de partage Creative Commons et l’ascension de l’omniprésent partage de fichiers sont deux pas de plus dans cette direction. Les sites collaboratifs tels que Digg, Stumbleupon, the Hype Machine ou Twine poussent comme des champignons et ajoutent encore du poids à ce fantastique bouleversement. Chaque jour nous arrive une nouvelle start-up annonçant une nouvelle méthode pour exploiter l’action communautaire. Ces changements sont le signe que l’on se dirige lentement mais sûrement vers une sorte de socialisme uniquement tourné vers le monde en réseau.

Mais on ne parle pas là du socialisme de votre grand-père. En fait, il existe une longue liste d’anciens mouvements qui n’ont rien à voir avec ce nouveau socialisme. Il ne s’agit pas de lutte des classes. Il ne s’agit pas d’anti-américanisme. Le socialisme numérique pourrait même être l’innovation américaine la plus récente. Alors que le socialisme du passé était une arme d’État, le socialisme numérique propose un socialisme sans État. Cette nouvelle variété de socialisme agit dans le monde de la culture et de l’économie, plutôt que dans celui de la politique… pour le moment.

Le communisme avec lequel Gates espérait salir les créateurs de Linux est né dans une période où les frontières étaient rigides, la communication centralisée, et l’industrie lourde et omniprésente. Ces contraintes ont donné naissance à une appropriation collective de la richesse qui remplaçait l’éclatant chaos du libre marché par des plans quinquennaux imposés par un politburo tout puissant.

Ce système d’exploitation politique a échoué, c’est le moins que l’on puisse dire. Cependant, contrairement aux vieilles souches du socialisme au drapeau rouge, le nouveau socialisme s’étend sur un Internet sans frontières, au travers d’une économie mondiale solidement intégrée. Il est conçu pour accroître l’autonomie individuelle et contrecarrer la centralisation. C’est la décentralisation à l’extrême.

Au lieu de cueillir dans des fermes collectives, nous récoltons dans des mondes collectifs. Plutôt que des usines d’État, nous avons des usines d’ordinateurs connectées à des coopératives virtuelles. On ne partage plus des forêts, des pelles ou des pioches, mais des applications, des scripts et des APIs. Au lieu de politburos sans visage, nous avons des méritocracies anonymes, où seul le résultat compte. Plus de production nationale, remplacée par la production des pairs. Finis les rationnements et subventions distribués par le gouvernement, place à l’abondance des biens gratuits.

Je reconnais que le terme socialisme fera forcément tiquer de nombreux lecteurs. Il porte en lui un énorme poids culturel, au même titre que d’autres termes associés tels que collectif, communautaire ou communal. J’utilise le mot socialisme parce que techniquement, c’est celui qui représente le mieux un ensemble de technologies dont l’efficience dépend des interactions sociales. L’action collective provient grosso modo de la richesse créée par les sites Web et les applications connectées à Internet lorsqu’ils exploitent du contenu fourni par les utilisateurs. Bien sûr, il existe un danger rhétorique à réunir autant de types d’organisation sous une bannière aussi provocatrice. Mais puisqu’il n’existe aucun terme qui soit vierge de toute connotation négative, autant donner une nouvelle chance à celui-là. Lorsque la multitude qui détient les moyens de production travaille pour atteindre un objectif commun et partage ses produits, quand elle contribue à l’effort sans toucher de salaire et en récolte les fruits sans bourse délier, il n’est pas déraisonnable de qualifier ce processus de socialisme.

À la fin des années 90, John Barlow, activiste, provocateur et hippie vieillissant, a désigné ce courant par le terme ironique de « point-communisme » (NdT : en référence au point, dot, des nom de domaines des sites Web comme framablog point org). Il le définissait comme une « main d’œuvre composée intégralement d’agents libres », « un don décentralisé ou une économie de troc où il n’existe pas de propriété et où l’architecture technologique définit l’espace politique ». En ce qui concerne la monnaie virtuelle, il avait raison. Mais il existe un aspect pour lequel le terme socialisme est inapproprié lorsqu’il s’agit de désigner ce qui est en train de se produire : il ne s’agit pas d’une idéologie. Il n’y a pas d’exigence de conviction explicite. C’est plutôt un éventail d’attitudes, de techniques et d’outils qui encouragent la collaboration, le partage, la mise en commun, la coordination, le pragmatisme, et une multitude de coopérations sociales nouvellement rendues possibles. C’est une frontière conceptuelle et un espace extrêmement fertile pour l’innovation.

Socialisme 2.0 - HistoriqueDans son livre publié en 2008, Here Comes Everybody (NdT : Voici venir chacun), le théoricien des médias Clay Chirky propose une hiérarchie utile pour classer ces nouveaux dispositifs. Des groupes de personnes commencent simplement par partager, puis ils progressent et passent à la coopération, à la collaboration et, pour finir, au collectivisme. À chaque étape, on constate un accroissement de la coordination. Une topographie du monde en ligne fait apparaître d’innombrables preuves de ce phénomène.

I. Le partage

Les masses connectées à l’Internet sont animées par une incroyable volonté de partage. Le nombre de photos personnelles postées sur Facebook ou MySpace est astronomique, et il y a fort à parier que l’écrasante majorité des photos prises avec un appareil photo numérique sont partagées d’une façon ou d’une autre. Sans parler des mises à jour du statut de son identité numérique, des indications géographiques, des bribes de réflexion que chacun publie çà et là. Ajoutez-y les six milliards de vidéos vues tous les mois sur Youtube pour les seuls États-Unis et les millions de récits issus de l’imagination de fans d’œuvres existantes. La liste des sites de partage est presque infinie : Yelp pour les critiques, Loopt pour la géolocalisation, Delicious pour les marque-pages.

Le partage est la forme de socialisme la plus tempérée, mais elle sert de fondation aux niveaux les plus élevés de l’engagement communautaire.

II. La coopération

Lorsque des particuliers travaillent ensemble à atteindre un objectif d’envergure, les résultats apparaissent au niveau du groupe. Les amateurs n’ont pas seulement partagé plus de trois milliards de photos sur Flickr, ils les ont aussi associées à des catégories ou des mots-clés ou les ont étiquetées (NdT : les tags). D’autres membres de la communauté regroupent les images dans des albums. L’usage des populaires licences Creative Commons aboutit à ce que, d’une façon communautaire, voire communiste, votre photo devienne ma photo. Tout le monde peut utiliser une photo, exactement comme un communiste pourrait utiliser la brouette de la communauté. Je n’ai pas besoin de prendre une nouvelle photo de la tour Eiffel, puisque la communauté peut m’en fournir une bien meilleure que la mienne.

Des milliers de sites d’agrégation emploient la même dynamique sociale pour un bénéfice triple. Premièrement, la technologie assiste directement les utilisateurs, en leur permettant d’étiqueter, marquer, noter et archiver du contenu pour leur propre usage. Deuxièmement, d’autres utilisateurs profitent des tags et des marque-pages des autres… Et tout ceci, au final, crée souvent une valeur ajoutée que seul le groupe dans son ensemble peut apporter. Par exemple, des photos d’un même endroit prises sous différents angles peuvent être assemblées pour former une reproduction du lieu en 3D stupéfiante. (Allez voir du côté de Photosynth de Microsoft). Curieusement, cette proposition va plus loin que la promesse socialiste du « chacun contribue selon ses moyens, chacun reçoit selon ses besoins », puisqu’elle améliore votre contribution et fournit plus que ce dont vous avez besoin.

Les agrégateurs communautaires arrivent à d’incroyables résultats. Des sites tels que Digg ou Reddit, qui permettent aux utilisateurs de voter pour les liens qu’ils souhaitent mettre en évidence, peuvent orienter le débat public autant que les journaux ou les chaînes de télévision (pour info Reddit appartient à la maison mère de Wired, Condé Nast). Ceux qui contribuent sérieusement à ces sites y consacrent plus d’énergie qu’ils ne pourront jamais en recevoir en retour, mais ils continuent en partie à cause du pouvoir culturel que représentent ces outils. L’influence d’un participant s’étend bien au-delà d’un simple vote, et l’influence collective de la communauté surpasse de loin le nombre de ses participants. C’est l’essence même des institutions sociales, l’ensemble dépasse la somme de ses composants. Le socialisme traditionnel visait à propulser cette dynamique par le biais de l’État. Désormais dissociée du gouvernement et accrochée à la matrice numérique mondiale, cette force insaisissable s’exerce à une échelle plus importante que jamais.

III. La collaboration

La collaboration organisée peut produire des résultats dépassant ceux d’une coopération improvisée. Les centaines de projets de logiciel Open Source, tel que le serveur Web Apache, en sont le parfait exemple. Dans ces aventures, des outils finement ciselés par la communauté génèrent des produits de haute qualité à partir du travail coordonné de milliers ou dizaines de milliers de membres. Contrairement à la coopération traditionnelle, la collaboration sur d’énormes projets complexes n’apporte aux participants que des bénéfices indirects, puisque chaque membre du groupe n’intervient que sur une petite partie du produit final. Un développeur motivé peut passer des mois à écrire le code d’une infime partie d’un logiciel dont l’état global est encore à des années-lumière de son objectif. En fait, du point de vue du marché libre, le rapport travail/récompense est tellement dérisoire (les membres du projet fournissent d’immenses quantités de travail à haute valeur ajoutée sans être payés) que ces efforts collaboratifs n’ont aucun sens au sein du capitalisme.

Pour ajouter à la dissonance économique, nous avons pris l’habitude de profiter du fruit de ces collaborations sans mettre la main à la poche. Plutôt que de l’argent, ceux qui participent à la production collaborative gagnent en crédit, statut, réputation, plaisir, satisfaction et expérience. En plus d’être gratuit, le produit peut être copié librement et servir de socle à d’autres produits. Les schémas alternatifs de gestion de la propriété intellectuelle, parmi lesquelles Creative Commons ou les licences GNU, ont été créés pour garantir ces libertés.

En soi, la collaboration n’a bien sûr rien de spécialement socialiste. Mais les outils collaboratifs en ligne facilitent un style communautaire de production qui exclut les investisseurs capitalistes et maintient la propriété dans les mains de ceux qui travaillent, voire dans celles des masses consommatrices.

IV Le collectivisme

Socialisme 2.0 - Ancien / NouveauAlors qu’une encyclopédie peut être rédigée de façon coopérative, nul n’est tenu pour responsable si la communauté ne parvient pas au consensus, et l’absence d’accord ne met pas en danger l’entreprise dans son ensemble. L’objectif d’un collectif est cependant de concevoir un système où des pairs autogérés prennent la responsabilité de processus critiques, et où des décisions difficiles, comme par exemple définir des priorités, sont prises par l’ensemble des acteurs. L’Histoire abonde de ces centaines de groupes collectivistes de petite taille qui ont essayé ce mode de fonctionnement. Les résultats se sont révélés peu encourageants (quand bien même on ne tienne pas compte de Jim Jones et de la « famille » de Charles Manson).

Or, une étude approfondie du noyau dirigeant de Wikipédia, Linux ou OpenOffice, par exemple, montre que ces projets sont plus éloignés de l’idéal collectiviste qu’on pourrait le croire vu de l’extérieur. Des millions de rédacteurs contribuent à Wikipédia, mais c’est un nombre plus restreint d’éditeurs (environ mille cinq cents) qui est responsable de la majorité de l’édition. Il en va de même pour les collectifs qui écrivent du code. Une myriade de contributions est gérée par un groupe plus réduit de coordinateurs. Comme Mitch Kapor, membre fondateur de la Mozilla Open Source Code Factory, le formule : « au cœur de toutes les anarchies qui marchent, il y a un réseau à l’ancienne ».

Ce n’est pas forcément une mauvaise chose. Certaines formes de collectivisme tirent avantage de la hiérarchie, alors que d’autres en souffrent. Des plateformes tels qu’Internet et Facebook, ou même la démocratie, qui servent de substrat à la production de biens ou à la fourniture de services, profitent de l’absence quasi totale de hiérarchie, laquelle réduit les obstacles à l’intégration et permet la répartition équitable des droits et responsabilités. Lorsque des acteurs puissants émergent, la structure dans son ensemble souffre. D’un autre côté, les organisations bâties pour créer des produits ont souvent besoin de dirigeants forts, et de hiérarchies organisées capable de se projeter dans l’avenir : l’un des niveaux se concentre sur les besoins immédiats, l’autre sur les cinq années à venir.

Par le passé, il était quasi impossible de construire une organisation qui exploitait la hiérarchie tout en maximisant le collectivisme. Désormais, les réseaux numériques fournissent l’infrastructure nécessaire. Le Net donne la possibilité aux organisations concentrées sur le produit de fonctionner collectivement, tout en empêchant la hiérarchie d’en prendre totalement le pouvoir. L’organisation qui conçoit MySQL, une base de données Open Source, n’est pas animée par un refus romantique de la hiérarchie, mais elle est bien plus collectiviste qu’Oracle. De la même manière, Wikipédia n’est pas un bastion d’égalité, mais elle est largement plus collectiviste que l’encyclopédie Britannica. Le cœur élitiste que nous trouvons au centre des collectifs en ligne est en fait un signe que le socialisme sans État peut fonctionner à grande échelle.

La plupart des occidentaux, moi y compris, ont été endoctrinés par l’idée que l’extension du pouvoir des individus réduit forcément le pouvoir de l’État, et vice versa. Pourtant, dans la pratique, la plupart des politiques socialisent certaines ressources et en individualisent d’autres. Les économies de marché ont pour la plupart socialisé l’éducation, et même les sociétés les plus socialisées autorisent une certaine forme de propriété privée.

Plutôt que de voir le socialisme technologique comme une sorte de compromis à somme nulle entre l’individualisme du marché libre et une autorité centralisée, on peut le considérer comme un système d’exploitation culturel qui élève en même temps l’individu et le groupe. Le but, largement désarticulé mais intuitivement compréhensible, de la technologie communautaire consiste à maximiser l’autonomie individuelle et le pouvoir de ceux qui travaillent ensemble. Ainsi, on peut voir le socialisme numérique comme une troisième voie rendant les vieux débats obsolètes.

Ce concept de troisième voie est également rapporté par Yochai Benkler, auteur de The Wealth of Networks (NdT : La richesse des réseaux), qui a probablement réfléchi plus que quiconque aux politiques des réseaux. Il affirme voir « l’émergence de la production sociale et de la production collective comme une alternative aux systèmes propriétaires et fermés, basés sur l’État ou le marché », notant que ces activités « peuvent accroître la créativité, la productivité et la liberté ». Le nouveau système d’exploitation, ce n’est ni le communisme classique et sa planification centralisée sans propriété privée, ni le chaos absolu du marché libre. C’est au contraire un espace de création émergeant, dans lequel la coordination publique décentralisée peut résoudre des problèmes et créer des richesses, là où ni le communisme ni le capitalisme purs et durs n’en sont capables.

Les systèmes hybrides qui mélangent les mécanismes marchands et non marchands ne sont pas nouveaux. Depuis des décennies, les chercheurs étudient les méthodes de production décentralisées et socialisées des coopératives du nord de l’Italie et du Pays Basque, dans lesquelles les employés sont les propriétaires, prennent les décisions, limitent la distribution des profits et sont indépendants du contrôle de l’État. Mais seule l’arrivée de la collaboration à bas prix, instantanée et omniprésente que permet Internet a rendu possible la migration du cœur de ces idées vers de nombreux nouveaux domaines telle que l’écriture de logiciels de pointe ou de livres de référence.

Le rêve, ce serait que cette troisième voie aille au-delà des expériences locales. Jusqu’où ? Ohloh, une entreprise qui analyse l’industrie de l’Open Source, a établi une liste d’environ deux cent cinquante mille personnes travaillant sur deux cent soixante-quinze mille projets. C’est à peu près la taille de General Motors et cela représente énormément de gens travaillant gratuitement, même si ce n’est pas à temps complet. Imaginez si tous les employés de General Motors n’étaient pas payés, tout en continuant à produire des automobiles !

Jusqu’à présent, les efforts les plus importants ont été ceux des projets Open Source, dont des projets comme Apache gèrent plusieurs centaines de contributeurs, environ la taille d’un village. Selon une étude récente, la version 9 de Fedora, sortie l’année dernière, représenterait soixante mille années-homme de travail. Nous avons ainsi la preuve que l’auto-assemblage et la dynamique du partage peuvent gouverner un projet à l’échelle d’une ville ou d’un village décentralisé.

Évidemment, le recensement total des participants au travail collectif en ligne va bien au-delà. YouTube revendique quelques trois cent cinquante millions de visiteurs mensuels. Presque dix millions d’utilisateurs enregistrés ont contribué à Wikipédia, cent soixante mille d’entre eux sont actifs. Plus de trente-cinq millions de personnes ont publié et étiqueté plus de trois milliards de photos et vidéos sur Flickr. Yahoo héberge près de huit millions de groupes sur tous les sujets possibles et imaginables. Google en compte près de quatre millions.

Ces chiffres ne représentent toujours pas l’équivalent d’une entière nation. Peut-être ces projets ne deviendront-ils jamais grand public (mais si Youtube n’est pas un phénomène grand public, qu’est-ce qui l’est ?). Pourtant, la population qui baigne dans les médias socialisés est indéniablement significative. Le nombre de personnes qui créent gratuitement, partagent gratuitement et utilisent gratuitement, qui sont membres de fermes logicielles collectives, qui travaillent sur des projets nécessitant des décisions collectives, ou qui expérimentent les bénéfices du socialisme décentralisé, ce nombre a atteint des millions et progresse en permanence. Des révolutions sont nées avec bien moins que cela.

On pourrait s’attendre à de la démagogie de la part de ceux qui construisent une alternative au capitalisme et au corporatisme. Mais les développeurs qui conçoivent des outils de partage ne se voient pas eux-mêmes comme des révolutionnaires. On n’est pas en train d’organiser de nouveaux partis politiques dans les salles de réunions, du moins pas aux États-Unis (en Suède, le Parti Pirate s’est formé sur une plateforme de partage, et il a remporté un piètre 0,63% des votes aux élections nationales de 2006).

En fait, les leaders du nouveau socialisme sont extrêmement pragmatiques. Une étude a été menée auprès de deux mille sept cent quatre-vingt-quatre développeurs Open Source afin d’analyser leurs motivations. La plus commune d’entre elles est « apprendre et développer de nouvelles compétences ». C’est une approche pratique. La vision académique de cette motivation pourrait être : « si je bosse sur du code libre, c’est surtout pour améliorer le logiciel ». En gros, la politique pour la politique n’est pas assez tangible.

Même ceux qui restent et ne participent pas au mouvement pourraient ne pas être politiquement insensibles à la marée montante du partage, de la coopération, de la collaboration et du collectivisme. Pour la première fois depuis des années, des pontes de la télévision et des grands magazines nationaux osent prononcer le mot tabou « socialisme », désormais reconnu comme une force qui compte dans la politique des États-Unis. À l’évidence, la tendance à la nationalisation de grosses portions de l’industrie, à l’établissement d’un système de santé public et à la création d’emplois avec l’argent du contribuable n’est pas dû en totalité au techno-socialisme. Ainsi les dernières élections ont démontré le pouvoir d’une base décentralisée et active sur le Web, dont le cœur bat au rythme de la collaboration numérique. Plus nous tirons les bénéfices d’une telle collaboration, plus nous nous ouvrons la porte à un avenir d’institutions socialistes au gouvernement. Le système coercitif et totalitaire de la Corée du Nord n’est plus, le futur est un modèle hybride qui s’inspire de Wikipédia et du socialisme modéré de la Suède.

Jusqu’où ce mouvement nous rapprochera-t-il d’une société non capitaliste, Open Source, à la productivité collaborative ? Chaque fois cette question apparue, la réponse a été : plus près que nous le pensons. Prenons Craigslist, par exemple. Ce ne sont que des petites annonces classées, n’est-ce pas ? Pourtant, ce site a démultiplié l’efficacité d’une sorte de troc communautaire pour toucher un public régional, puis l’a amélioré en intégrant des images et des mises à jour en temps réel, jusqu’à devenir soudain un trésor national. Fonctionnant sans financement ni contrôle public, connectant les citoyens entre eux sans intermédiaire, cette place de marché essentiellement gratuite produit du bien et du lien social avec une efficacité qui laisserait pantois n’importe quel gouvernement ou organisation traditionnelle. Bien sûr, elle ébranle le modèle économique des journaux, mais en même temps il devient indiscutable que le modèle de partage est une alternative viable aux entreprises à la recherche permanente de profits et aux institutions civiques financées par les impôts.

Qui aurait cru que des paysans précaires pourraient obtenir et rembourser des prêts de cent dollars accordés par de parfaits étrangers vivant à l’autre bout du monde ? C’est ce que réussit Kiva en fournissant des prêts de pair-à-pair. Tous les experts de santé publique ont déclaré sous le sceau de la confidentialité que le partage, ça convenait pour les photos, mais que personne ne partagerait son dossier médical. Pourtant, PatientsLikeMe, où les patients mettent en commun les résultats de leurs traitements pour échanger et mieux prendre soin d’eux-mêmes, a montré que l’action collective peut contredire les médecins et leurs craintes concernant la confidentialité.

L’habitude de plus en plus répandue qui consiste à partager ce que vous pensez (Twitter), ce que vous lisez (StumbleUpon), ce que vous gagnez (Wesabe), bref tout et n’importe quoi (le Web) est en train de prendre une place essentielle dans notre culture. En faire de même en créant des encyclopédies, des agences de presse, des archives vidéo, des forges logicielles, de façon collaborative, dans des groupes rassemblant des contributeurs du monde entier sans distinction de classe sociale, voilà ce qui fait du socialisme politique la prochaine étape logique.

Un phénomène similaire s’est produit avec les marchés libres du siècle dernier. Chaque jour, quelqu’un demandait : « Y a-t-il quelque chose que les marchés ne peuvent pas faire ? ». Et on établissait ainsi une liste de problèmes qui semblaient nécessiter une planification rationnelle ou un mode de gouvernance paternaliste en leur appliquant une logique de place de marché. Dans la plupart des cas, c’était la solution du marché qui fonctionnait le mieux, et de loin. Les gains de prospérité des décennies récentes ont été obtenus en appliquant les recettes du marché aux problèmes sociaux.

Nous essayons aujourd’hui d’en faire de même avec la technologie sociale collaborative, en appliquant le socialisme numérique à une liste de souhaits toujours plus grande (jusqu’aux problèmes que le marché libre n’a su résoudre) pour voir si cela fonctionne. Pour l’instant, les résultats ont été impressionnants. Partout, la puissance du partage, de la coopération, de la collaboration, de l’ouverture, de la transparence et de la gratuité s’est montrée plus pragmatique que nous autres capitalistes le pensions possible. À chaque nouvelle tentative, nous découvrons que le pouvoir du nouveau socialisme est plus grand que nous ne l’imaginions.

Nous sous-estimons la capacité de nos outils à remodeler nos esprits. Croyions-nous réellement que nous pourrions construire de manière collaborative et habiter des mondes virtuels à longueur de temps sans que notre perception de la réalité en soit affectée ? La force du socialisme en ligne s’accroît. Son dynamisme s’étend au-delà des électrons, peut-être même jusqu’aux élections.




L’académie en ligne ou la fausse modernité de l’Éducation nationale

Dustpuppy - CC byUne formidable occasion manquée pour notre cher ministère de l’Éducation nationale de se rapprocher de la culture des biens communs ? C’est l’hypothèse développée dans ce billet. Et c’est d’autant plus dommage et frustrant que tout semblait réuni pour que la rencontre ait bel et bien lieu.

Cet épisode révélateur vient clore une nouvelle année plus que fade pour le logiciel libre et son état d’esprit à l’école, puisque, à notre connaissance, pas une mesure sérieuse d’envergure a été officiellement prise en sa faveur, au cours de l’exercice 2008/2009 (on aura ainsi attendu en vain l’équivalent d’un rapport Becta de chez nous).

Logiciels, formats, et surtout, comme nous le verrons plus bas, ressources devront encore patienter pour s’engager pleinement sur le chemin de la liberté. Malgré les efforts de nombreuses personnes, la rue de Grenelle a tranché : c’est une fois de plus le redoublement !

Un projet ambitieux : l’académie en ligne

Comme souvent, il y a au départ une louable intention répondant à un réel besoin avec ce projet d’académie en ligne, inauguré officiellement le 19 juin dernier par l’ex-ministre Xavier Darcos.

L’académie en ligne est un site de ressources gratuites proposés par le CNED pour aider les jeunes dans leur scolarité et permettre aux parents de mieux les accompagner sur la voie de la réussite.

L’académie en ligne doit mettre à la disposition de tous l’intégralité des contenus d’enseignement des programmes de la scolarité obligatoire. Les cours d’école primaire seront en ligne à partir du 15 septembre et ceux de collège et lycée à partir de fin octobre.

Dès à présent, il propose des cours d’été, aux élèves du C.P. à la terminale, pour réviser les notions essentielles de l’année écoulée et préparer la rentrée.

De nombreuses séquences s’appuient sur des documents audio, iconographiques ou des activités interactives. On peut y accéder par matière, par classe ou par mot-clé grâce à un moteur de recherche.

Excellente et exaltante idée que de vouloir ainsi « mettre à la disposition de tous l’intégralité des contenus d’enseignement ».

Voilà qui sera d’une grande utilité non seulement aux élèves mais aussi à tous ceux qui sont un peu curieux de que l’on apprend à l’école (et parmi les effets secondaires positifs, on en profitera au passage pour réduire l’influence croissante et lucrative du parascolaire privé sur le temps non scolaire).

Visite surprise du site : le fond

Intrigué, je me suis donc rendu sur le site en question. Mon propos n’est pas ici d’en évaluer dans le détail la qualité et la pertinence pédagogique. Mais permettez-moi néanmoins au passage de donner un rapide et humble avis sur ce que je connais un peu, à savoir les mathématiques du secondaire.

Pour le collège on a visiblement découpé en rondelles PDF une sorte de cahiers d’activités (toujours sur le même moule : « je me souviens, je retiens, je m’exerce, je relève un défi »). La correction des exercices est à télécharger séparément.

Pour le lycée, c’est plus solide mais c’est un peu comme si on avait saucissonné, toujours uniquement en PDF, un semblant de manuel scolaire cette fois. On a le cours et des exercices d’application corrigés. Pas très moderne, didactiquement parlant. Si l’élève[1] a eu la bonne idée de conserver son propre manuel de l’année écoulée, autant travailler sur ce dernier, ces documents en ligne n’apportant a priori pas grand chose de plus (il économisera de l’encre et du papier qui plus est).

J’ai jeté également un œil (non avisé) sur les mathématiques du primaire. Ce n’est plus du PDF mais des animations au format Flash qui sont proposées. Ça bouge, ça parle et il y a de jolies couleurs, mais c’est toujours la même et lancinante structure : une première partie où l’on écoute passivement une petite explication et une seconde partie avec des exercices pseudo-interactifs où a la première erreur on nous dit systématiquement : « tu t’es trompé, recommence ! » et à la deuxième : « tu t’es trompé regarde bien la solution ! ».

Au final, tout ceci a le mérite d’exister mais c’est tout de même « un poil » décevant (mettez-vous à la place d’un élève qui débarque sur le site en souhaitant réviser en toute autonomie). C’est comme si le CNED avait mis en ligne des documents préexistants qu’il distribue j’imagine pendant l’année à ses élèves. Il n’y a visiblement pas eu de réflexion sur le spécificité des cours d’été, cette période particulière où l’on se trouve entre deux niveaux.

Visite surprise du site : la forme

J’ai balayé quelques pages du reste du contenu. Il m’a semblé que l’on retrouvait peu ou prou le même modèle pour les autres disciplines.

La seule nouveauté repérée concernait la présence de ressources audios pour les langues (anglais et espagnol), qui étaient elles-aussi mises à disposition au format Flash. Du format audio (le mp3 en l’occurrence) encapsulé dans du format Flash, impossible donc de télécharger ces séquences sonores (« Hello my name is John, repeat after me ») pour les écouter sur la plage dans son iPod.

Nous n’avons donc que deux formats, le PDF et le Flash. Le premier est un format ouvert quand l’autre ne l’est pas, mais ce que l’on peut surtout faire remarquer c’est que ce sont des formats qui ne permettent généralement pas les modifications. En effet, si vous voulez mettre à jour un fichier PDF, vous devez disposer du format natif qui a généré votre PDF (par exemple le traitement de texte Word de MS Office ou, mieux, Writer d’OpenOffice.org). Par analogie avec les logiciels, on pourrait dire que le fichier traitement de texte est le fichier source tandis que le fichier PDF est le fichier compilé (idem avec le Flash dont tout changement demande la présence des sources au format .fla). Sur l’académie en ligne ces fichiers d’origine sont absents. Les ressources mises à disposition sont pour ainsi dire « figées dans la vitrine ».

Dernière remarque. Les pages du site sont au format ASPX caractéristiques de la technologie Web de Microsoft. Ce ne sont pourtant pas les solutions libres qui manquent aujourd’hui pour construire des sites de qualité. Je ne pense pas que ce soit lié mais on peut aussi faire observer en passant que l’ergonomie générale du site laisse lui aussi pour le moment à désirer.

Visite surprise du site : la législation en vigueur

Il n’est techniquement pas possible de modifier les fichiers proposés ou d’embarquer les sons sur son baladeur. Mais, ceci expliquant sûrement cela, il est surtout juridiquement impossible de le faire.

Les mentions légales (et plus particulièrement son paragraphe 3 « Propriété intellectuelle ») sont en effet très contraignantes, et malheureusement révélatrices du climat ambiant.

D’ailleurs je viens déjà de me mettre en infraction à cause du lien ci-dessus ne pointant pas sur la page d’accueil du site !

Premier extrait (c’est moi qui souligne) :

Le site autorise, sans autorisation préalable, la mise en place de liens hypertextes pointant vers la page d’accueil du site Internet.

Tout lien vers une page autre que la page d’accueil du site Internet est strictement interdit sans l’accord préalable du Cned. Même en cas d’accord du Cned, Il est strictement interdit d’imbriquer les pages du site à l’intérieur des pages d’un autre site. Les pages du site doivent être visibles par l’ouverture d’une fenêtre indépendante.

Les sites qui font le choix de pointer vers ce site engagent leur responsabilité dès lors qu’ils porteraient atteinte à l’image du site public ou de la marque Cned.

Thierry Stoehr et Benoit Sibaud apprécieront cette interdiction de liaison (pourtant ontologiquement indissociable du Web).

Mais, plus fort encore, deuxième extrait concernant les cours proprement dits :

L’ensemble des cours figurant sur ce site sont la propriété du Cned.

Les images et textes intégrés à ces cours sont la propriété de leurs auteurs et/ou ayants-droits respectifs.

Tous ces éléments font l’objet d’une protection par les dispositions du code français de la propriété intellectuelle ainsi que par les conventions internationales en vigueur.

La consultation et le téléchargement des cours n’opèrent aucun transfert de droit de propriété intellectuelle sur ceux-ci. Ils ne sont permis que dans le strict respect des conditions suivantes :

Vous ne pouvez utiliser ces contenus qu’a des fins strictement personnelles. Toute reproduction, utilisation collective à quelque titre que ce soit, tout usage commercial, ou toute mise à disposition de tiers d’un cours ou d’une œuvre intégrée à ceux-ci sont strictement interdits.

Il est interdit de supprimer ou de tenter de supprimer les procédés techniques de protection des cours et des contenus intégrés (filigranes, blocages de sélections notamment).

Il est interdit d’extraire ou de tenter d’extraire une œuvre reproduite dans un cours et de l’utiliser à d’autres fins que celle d’illustration du cours auxquels elle est intégrée.

Le non respect de ces conditions vous expose à des poursuites judiciaires pour contrefaçon conformément aux articles L 335-2 et suivi du code de la propriété intellectuelle. Ces actes sont punis de 3 ans de prison et 300 000 euros d’amende.

Vous avez bien lu. Pour rappel nous sommes sur un service public d’éducation.

Si je partage je m’expose donc alors à des sanctions pour le moins disproportionnées. Cela ne vous rappelle rien ? Hadopi bien sûr, à la différence prêt que l’école est le lieu même de la transmission et que les auteurs des ressources sont des fonctionnaires de l’état français qui ne sont généralement pas payés (plusieurs fois) sur leurs droits d’auteur mais (une fois) sur leur salaire provenant de nos impôts.

Je suis enseignant et je souhaite distribuer ces ressources à mes élèves ? Interdiction. Je souhaite les adapter à mes besoins et (re)déposer ce travail dans le pot commun ? Interdiction. Je suis animateur dans un Espace public numérique ou dans un réseau d’éducation populaire et souhaite en faire profiter collectivement mon public ? Interdiction. Je suis un élève et souhaite distribuer les ressources à mes camarades qui n’ont pas accès à Internet ? Interdiction. La liste est longue et non exhaustive…

Ces mentions légales étaient-elles forcément les plus adaptées à la situation et à l’objectif fièrement affiché ? Rien n’est moins sûr. N’y aurait-il pas une certaine légitimité à les remettre en question, ou tout du moins à se poser quelques questions ?

Quelques ombres planent : 1. L’alternative Sésamath et les associations d’enseignants

Il est dès lors difficile d’évoquer ce projet sans penser en arrière-plan à l’association de professeurs Sésamath (que les lecteurs du Framablog connaissent bien désormais). Quand bien même elle ne concerne que le champ des mathématiques, la comparaison est en effet riche d’enseignements.

Sur la forme, les ressources mises à disposition par Sésamath sont elles aussi principalement proposées au format PDF et Flash, à ceci près que les sources sont également présentes. Et c’est loin d’être un détail parce que c’est la conséquence directe de la plus grande différence de départ entre cette académie en ligne et les travaux de l’association : la licence des ressources.

Fermée pour l’académie mais ouverte pour Sésamath, qu’il s’agisse de la GNU FDL (pour les manuels et les cahiers) ou de la GPL pour les logiciels (dont le fameux Mathenpoche). Avec un tel choix de licences libres, toutes les interdictions mentionnées précédemment sont levées !

Mais peut-être plus important encore,le fond, c’est-à-dire la qualité des documents. Ce n’est pas parce qu’une structure accole du jour au lendemain une licence libre à ses travaux que ces derniers vont, tel un coup de baguette magique, gagner en qualité. Il y a bien entendu des facteurs autrement plus importants qui entrent en ligne de compte. Il n’empêche que cela participe à la création d’un terreau fertile à l’épanouissement des ressources. La licence libre donne confiance, induit la circulation, la collaboration et donc a priori l’amélioration (je peux copier, modifier et reverser en toute liberté dans le pot commun sans que quiconque puisse un jour refermer le couvercle). Le projet peut échouer bien entendu, mais on lui aura ainsi facilité en amont ses chances de réussite. Réussite qui a bien eu lieu ici avec Sésamath, où qualité, mais aussi quantité, réalisées à plusieurs mains sont au rendez-vous.

Je souhaite cet été que mon gamin, futur lycéen, révise le théorème de Thalès vu en troisième ? Sur l’académie en ligne vous avez droit à votre unique fiche d’activité PDF à imprimer (Internet ne sert donc à rien d’autre ici qu’à stocker la ressource). Sur Sésamath par contre c’est un autre son de cloche. Vous avez plus d’une centaine de questions interactives via Mathenpoche, accompagnées si vous le désirez par les exercices du cahier correspondant (exemple), ainsi que le chapitre complet du manuel libre du niveau considéré. Mais il y a mieux, avec leur nouveau projet Kidimath, tout (et plus encore : rappels de quatrième, annales du Brevet, QCM…) est regroupé dans une seule et même interface spécialement conçue pour le travail de l’élève hors du temps scolaire ! Allez-y, cliquez sur 3ème puis Thalès, et vous serez bluffé par la qualité et la quantité du contenu proposé (et optimisé pour Internet). Et il en va de ce chapitre particulier comme de tous les autres chapitres de tous les niveaux du collège !

D’où évidemment la question suivante : mais pourquoi diable le ministère n’a-t-il pas fait appel à Sésamath pour collaborer sur la partie mathématique de l’académie en ligne ? Quel intérêt de laisser le CNED proposer seul dans son coin ces maigres ressources alors que l’on possède en son sein des enseignants aussi productifs ayant une solide expérience du « travailler ensemble » ?

Je n’ai pas la réponse à ce qui, vu de l’extérieur, est un pur mystère, voire un beau gaspillage d’énergie (cf le syndrome Not Invented Here). Tout au plus peut-on supputer que c’est lié à une question de gouvernance : une décision qui se prend seule en haut en désignant un unique interlocuteur bien identifié en bas pour exécuter la tâche (en l’occurrence le CNED). Peut-être aussi que l’absence de volonté de mettre en avant le logiciel libre à l’école ne favorise pas chez nos élites l’appropriation de sa culture, ses valeurs… dont la collaboration est l’un des piliers. L’Éducation nationale est une cathédrale et non un réseau social (et encore moins une communauté).

Toujours est-il qu’il y a tout de même un élément de réponse simple à la question. Tant que les mentions légales du projet d’académie en ligne resteront en l’état, il ne sera pas possible à un Sésamath de s’impliquer, pour la bonne raison que les licences sont totalement incompatibles.

Et n’allez pas croire que Sésamath est seul à bord du navire. Il en est certes à la proue mais derrière lui d’autres associations d’enseignants sont elles-aussi très actives et productives. Je pense notamment à Weblettres ou les Clionautes, qui respectivement en français et en histoire et géographie, font référence parmi les collègues. D’ailleurs ces trois association sont en partenariat autour du projet CapBrevet et on fait l’objet d’une sérieuse étude dans le n° 65 des Dossiers de l’ingénierie éducative consacré justement au travail collaboratif. Lecture chaudement recommandée, quand bien même on occulte un peu la question pourtant primordiale des licences, qui différencie, mais pour combien de temps encore, Sésamath de ses deux partenaires.

En tout cas, cela fait déjà pas mal de monde qui aurait pu participer au projet en le bonifiant de son savoir-faire. Ne nous privons pas de nos talents, conjuguons-les pour le plus grand bénéfices de nos élèves !

Quelques ombres planent : 2. Les éditeurs scolaires

Une autre éventuelle piste de réponse à la question précédente peut être recherchée du côté des éditeurs scolaires. J’avoue humblement être très peu au fait des relations entre ces éditeurs et le ministère, mais il y a fort à parier qu’on a voulu un tant soit peu les ménager ici.

Imaginez en effet la mise à disposition sous licence libre de ressources pédagogiques en collaboration réelle avec les enseignants et leurs associations, ouvertement accessibles sur des forges spécialement dédiées, pour toutes les disciplines et pour tous les niveaux ! Nul doute que cela finirait par impacter fortement le marché de l’édition scolaire (en fait cela irait beaucoup plus loin en impactant directement et durablement la manière même dont les enseignants, et même les élèves, travaillent).

Une telle éventualité signifierait à terme ni plus ni moins que la mort lente mais annoncée du système actuel. L’industrie du disque et leurs CD pressés ont, semble-t-il, aujourd’hui quelques « menus problèmes » avec l’avènement du numérique. Les éditeurs scolaires et leurs manuels scolaires imprimés auront à n’en pas douter des difficultés similaires demain. On connait l’histoire : soit on se rétracte en défendant le plus longtemps possible des positions et habitudes hérités du siècle dernier, soit on s’adapte en créant de nouveaux modèles et en associant étroitement ici les fans de musique et là les enseignants.

Mais ne prenons aucun risque et épargnons-nous cette crise potentielle. D’abord parce que ces ressources sont donc sous licence non libre (on pourrait dire « propriétaires » dans le langage des logiciels) mais aussi parce que, autant appeler un chat un chat, elles sont en l’état de piètre qualité. C’est à prendre tel quel ou à laisser, nous dit la licence. Et la piètre qualité achève notre choix. Le privé conserve son avantage, l’été sera chaud mais non incandescent.

On notera cependant qu’il n’y a pas que les éditeurs privés qui soient concernés. Une structure comme le CNDP dont le budget dépend pour beaucoup des ventes de son catalogue pédagogique (où à ma connaissance rien ou presque n’a encore été mis sous licence libre) peut également se voir contrariée voire contestée dans sa manière de fonctionner. Idem pour les traditionnels partenaires culturels de l’Éducation nationale. Pour le moment feignons de croire que le copyleft n’existe pas et qu’il n’y a de ressources que les ressources fermées soumises aux droits d’auteur d’avant l’Internet. Et rassurons les partenaires en payant plusieurs fois et pour des durées limitées l’accès à ces ressources.

Quelques ombres planent : 3. Le boum des ressources éducatives libres

Licences fermées, professeurs peu impliqués et éditeurs confortés dans leur immobilisme… tout ceci ne devrait pas tenir longtemps parce que par delà nos frontières c’est la pleine effervescence autour de ce que l’on appelle les ressources éducatives libres. Et c’est bien plus qu’une ombre qui plane, c’est une véritable mutation qui s’annonce.

De quoi s’agit-il exactement ? En creux (académie en ligne) ou en plein (Sésamath), nous en parlons en fait implicitement depuis le début de cet article. Difficile pour l’heure d’en donner une définition précise, tant le concept est nouveau et en mouvement, mais on peut voir ces ressources éducatives libres comme une tentative de transposition des principes fondamentaux du logiciel libre. Usage, copie, modification et distribution (sans entrave et sans discrimination), ces principes garantissent un certain nombre de libertés aux utilisateurs tout en favorisant l’échange, le partage et l’amélioration collective du logiciel. Cela présuppose que le logiciel soit placé sous une licence libre qui légitime et explicite ces droits. Et c’est pourquoi nous insistons tant sur le choix ou non d’une telle licence.

À partir de là, voici la définition qu’en donne actuellement Wikipédia : « l’expression Ressources Éducatives Libres (REL) désigne un mouvement mondial initié par des fondations, universités, enseignants et pédagogues visant à créer et distribuer via internet des ressources éducatives (cours, manuels, logiciels éducatifs, etc.) libres et gratuites ».

Pour aller plus loin je vous invite à lire la Déclaration de Dakar sur les Ressources Educatives Libres adoptée le 5 mars 2009 au cours du Campus numérique francophone de Dakar, évènement organisé à l’initiative du Bureau Régional pour l’Education en Afrique de UNESCO, de l’Organisation Internationale de la Francophonie (OIF), et de l’Agence universitaire de la Francophonie (AUF). On pourra également parcourir la traduction française de ce document de l’UNESCO : Open Educational Resources: the Way Forward.

Mais dans ce domaine ce sont clairement les anglophones qui ont une bonne longueur d’avance, l’expression ressources éducatives libres n’étant d’ailleurs à la base qu’une traduction de Open Educational Ressources (ou OER). Chez eux la réflexion est menée depuis longtemps et les initiatives se multiplient : les pionniers de l’OpenCourseWare au MIT, OER Commons, OpenCourseWare Consortium, Teachers without Borders, The Cape Town Open Education Declaration, Open Education and Mozilla, WikiEducator (auteur de l’OER Handbook for Educators que l’on ne désespère pas de traduire un jour), les projets de manuels scolaires libres dans le secondaire comme en Californie, et Wikiversity (dont le fort intéressant cours Composing free and open online educational resources) pour ne citer que ceux-là.

Mesurons-nous en effet pleinement les conséquences de l’accessibilité complète sur Internet de telle ressources, comme par exemple ce cours de Programming Methodology dans la cadre d’un cursus informatique donné à la prestigieuse université de Standford ? Et, attention, on parle bien ici d’accessibilité complète. Pour chaque séquence vous avez la vidéo (sous différents formats : YouTube, iTunes, format natif mp4 distribué en torrent via le réseau… P2P !) et sa transcription (au format PDF mais aussi html), des exercices et des annales (et leurs corrections), ainsi que des logiciels à télécharger, des notes et des références bibliographiques. C’est très impressionnant et le tout est proposé sous la licence libre Creative Commons By (cf Les licences Creative Commons expliquées aux élèves), signifiant par là-même que du moment que vous conservez et respectez la paternité du travail, vous pouvez, de n’importe quel point du globe, utiliser, télécharger, copier, modifier, distribuer et même en faire commerce !

À comparer avec ce que propose l’académie en ligne, qui à peine née semble déjà quelque part obsolète ! Avec ce projet, le ministère avait une occasion rêvée de s’inscrire enfin dans cette dynamique. Force est de constater qu’il ne l’a pas saisie. La France institutionnelle prend un retard qu’il lui sera difficile par la suite de combler.

Un discours qui se voulait moderne

À la lumière de ce que nous venons d’exposer, je vous laisse apprécier le discours de presse du ministre prononcé lors du lancement du projet (et dont la lecture a motivé ce billet).

Morceaux choisis.

Pourquoi cette décision ? Parce que dans une société qui s’enorgueillit à juste raison d’avoir bâti une école gratuite, laïque et obligatoire, je ne me résous pas à ce que l’accès au savoir et la réussite scolaire puissent devenir peu à peu une affaire de moyens, de relations ou de circonstances.

Pour ma part, je ne me résous pas à ce que cet accès au savoir se fasse dans ces conditions. Et j’ai parfois l’impression que la situation du Libre à l’école est un peu « affaire de moyens, de relations ou de circonstances ».

Je connais des enfants qui occupent leurs vacances comme ils le peuvent, tandis que d’autres, du même âge, passent de livrets de révision en stages de soutien payants, accentuant ainsi l’écart avec les autres élèves.

Ces situations, ces besoins, nous les connaissons tous et pourtant nous laissons à d’autres le soin d’y répondre. À l’heure où les technologies de l’information et de la communication mettent le savoir à la portée de tous, tout le temps et partout, l’école a pourtant une opportunité extraordinaire de rappeler sa capacité à transmettre des connaissances à partir de ressources précises, fiables, hiérarchisées selon une logique cohérente.

L’opportunité est en effet extraordinaire de « mettre le savoir à la portée de tous, tout le temps et partout ». Mais pourquoi ne pas être allé au bout de la démarche ? Est-ce que le CNED est la seule entité capable de produire « des connaissances à partir de ressources précises, fiables, hiérarchisées selon une logique cohérente » ?

Pour autant cette académie en ligne est bien plus qu’un service supplémentaire offert aux élèves et à leurs familles. Car si nous parlons de 31e académie, c’est bien qu’il s’agit d’une véritable mutation dans notre ministère.

L’Éducation nationale est divisée en académies. Affirmer que l’on jette ainsi la première pierre à une 31e académie donne la mesure de l’ambition. Mais la véritable mutation aura-t-elle lieu ?

Cette académie en ligne est une aide non seulement pour les élèves, mais aussi pour les parents qui veulent accompagner leurs enfants, pour les professeurs désireux de trouver des ressources pédagogiques, et même pour les adultes qui souhaitent reprendre des études. Plus largement, je souhaite que cet outil contribue au rayonnement de la langue française et à la diffusion de nos contenus éducatifs dans les pays francophones, notamment dans certains pays d’Afrique, où les enseignants qui le désirent pourront trouver gratuitement des ressources de qualité pour leurs élèves.

Quand le paradoxe frise la contradiction. Au risque de nous répéter, comment voulez-vous que les professeurs s’y retrouvent si on leur interdit la moindre modification ? Quant aux pays d’Afrique, ils apprécieront de ne pouvoir distribuer les ressources en direction des populations non connectées à Internet. Impliquons-les! Qu’ils soient avec nous acteurs du contenu plutôt que simples spectateurs bridés, le « rayonnement de la langue française » ne s’en portera que mieux.

Le mot « gratuit » est prononcé cinq fois dans le discours. Il est tant de d’affirmer clairement (et péremptoirement) notre position : l’académie en ligne ne doit pas être gratuite, elle doit être libre. Il se trouve qu’en étant libre elle sera effectivement disponible gratuitement, mais ça n’en sera qu’une conséquence. Et n’oublions pas d’ailleurs, comme cela a déjà été dit, que derrière ces ressources il y a ici des enseignants du CNED payés sur leur temps de travail pour les produire (aux frais du contribuable, ce qui n’est pas gratuit).

Les libertés d’utiliser, de copier, de modifier et de distribuer des ressources éducatives, sur des formats ouverts et lisibles par des logiciels libres, ne sont-elles pas ici plus fondamentales que la gratuité, a fortiori dans le domaine éducatif ?

Et le ministre de surenchérir, dans sa lettre aux parents cette fois (qui fait également l’objet d’une vidéo) :

Naturellement, ces ressources seront accessibles gratuitement, conformément aux principes fondamentaux de l’école républicaine.

Substituons « librement » à « gratuitement », et c’est d’un coup l’horizon des possibles qui s’élargit, tout en étant certainement plus proche de ces fameux principes républicains. Le jour où un ministre de l’Éducation Nationale dira que « naturellement, ces ressources seront accessibles librement » alors les lignes auront bougé.

Avec ses 55 000 écoles primaires, ses 5 000 collèges et ses 2 600 lycées, l’Éducation nationale constitue le premier réseau physique d’accès au savoir en France. Je veux faire en sorte qu’elle devienne aussi le premier réseau numérique de diffusion des connaissances.

A l’heure où de grands moteurs de recherche scannent et mettent à la disposition du public des fonds entiers de bibliothèques, il me semble que la diffusion d’une offre complète et gratuite de contenus d’enseignement est de nature à faire du service public d’éducation un acteur puissant du monde de l’Internet.

On a raison de s’inquiéter de l’emprise de Google. Mais est-ce ainsi que l’on construit « le premier réseau numérique de diffusion des connaissances » capable lui faire concurrence ?

La suite du discours est du même acabit, si ce n’est qu’elle est révélatrice d’une certaine confusion vis-à-vis de la modernité.

Renforcer la présence du ministère de l’Éducation nationale sur Internet, c’est aussi repenser totalement nos modes de communication sur ce média. (…) Nous avons donc voulu à la fois rénover nos sites institutionnels et diversifier nos formats de communication, en donnant une part plus importante aux nouveaux médias présents sur Internet : Dailymotion, Twitter, Facebook sont de nouveaux outils qui permettent de toucher des publics qui ne fréquentaient pas spontanément nos sites institutionnels, notamment des publics plus jeunes et moins spécialisés dans les questions éducatives. (…) Nous avons aussi ouvert le compte Twitter Education France, qui informe les abonnés des sujets d’actualité immédiate du ministère. Je veux que l’Éducation nationale soit partie prenante de ce qu’on appelle le « web 2.0 », le web participatif.

Les expressions marketing sont lâchées… On met les guillemets au web 2.0 mais pas au web participatif. Comme si nous étions tous d’accord sur le sens accordé.

Je ne vois pas en quoi placer quelques vidéos sur Dailymotion (avec commentaires désactivés !) et communiquer via ces nouveaux canaux que sont Facebook et Twitter procèdent de la participation (ce sont tous en outre des services privés reposant sur des logiciels propriétaires susceptibles de poser quelques problèmes vis-à-vis de la protection des données personnelles). De ce point de vue là, l’actuelle Consultation publique sur l’Internet du futur, avec son bon vieux formulaire à remplir, est bien plus participative à mes yeux (si, contrairement au forum de la mission E-educ, on prend réellement en compte les contributions).

Ce qui est sûr c’est qu’en plus de ses ressources « verrouillées », l’académie en ligne version juin 2009 n’est en rien participative. Aucun espace pour y laisser la moindre trace, pas même une page de contact !

Ce ministère a trop souvent été raillé pour son conservatisme, je veux à présent faire en sorte qu’il soit loué pour sa modernité.

Nous attendrons encore un peu.

N’ayez pas peur

La conclusion du discours ouvre cependant une fenêtre d’espoir.

Mesdames et messieurs les journalistes (…) vous pouvez constater que c’est une stratégie globale que nous mettons en place pour faire participer le ministère de l’Éducation nationale aux évolutions de son temps.

A travers ces nouveaux outils, dont l’académie en ligne est un exemple, je veux permettre au plus grand nombre d’accéder librement et dans les délais les plus courts à la totalité de l’offre et de l’actualité éducative. Ce n’est que le début d’un chantier immense, que je veux poursuivre avec de nouveaux services que nous proposerons aux enseignants et qui seront à l’étude à partir de la rentrée prochaine.

Pour la première fois en effet on a troqué la gratuité pour la liberté. Ayant conscience de l’ampleur de la tâche, on nous dit aussi que l’on souhaite proposer de « nouveaux services » aux enseignants.

Il est encore temps de rectifier le tir (la présence d’un nouveau ministre étant d’ailleurs un facteur favorable). Le diagnostic est bon, le remède beaucoup moins. Oublions les Facebook, Twitter, Dailymotion et autres gadgets de communication légèrement hors-sujet par rapport aux réels enjeux. Et osons faire passer l’académie en ligne du mode « lecture seul » au mode « lecture / écriture ensemble ». Car le plus grand service que l’on puisse rendre présentement aux enseignants est d’inscrire ce projet dans le cadre des ressources éducatives libres.

Il s’agirait alors bien sûr d’une véritable petite « révolution culturelle » au sein du ministère, nécessitant de repenser, parfois en profondeur, les relations entre l’institution et les différents acteurs du monde éducatif. Mais pourquoi attendre (puisque c’est inéluctable) ? Sauf à vouloir aller contre les objectifs même de ce projet, cette décision, certes courageuse mais pleine de bon sens, serait alors réellement à même de faire « participer le ministère de l’Éducation nationale aux évolutions de son temps ».

Dans le cas contraire, regarder passer le train des ressources éducatives libres constituerait selon nous une triple erreur : historique, politique et par dessus tout pédagogique.

Notes

[1] Crédit photo : Dustpuppy (Creative Commons By)




Difficile de supporter Microsoft quand il supporte ainsi l’ODF

Ndanger - CC by-saLa lecture régulière du Framablog nous apprend, si ce n’est à nous méfier, en tout cas à être très prudent face aux effets d’annonce de Microsoft. Et pourtant, en avril dernier, un brin naïf je titrais : Le jour où la suite bureautique MS Office devint fréquentable ? en évoquant le support imminent du format ouvert OpenDocument (ou ODF) dans le tout nouveau service pack 2 de la version 2007 de la célèbre suite propriétaire de la firme de Redmond.

A posteriori je me rends compte qu’il aurait peut-être mieux valu attendre les tests techniques avant de témoigner d’un quelconque enthousiasme. Ce que n’ont pas manqué de pointer certains commentateurs lucides[1] du billet en question.

Or justement les premiers tests poussés ont été effectués. Et le moins que l’on puisse dire c’est qu’ils ne sont pas bons. C’est ce que nous expose l’ODF Alliance dans un article traduit ci-dessous pas nos soins.

Dit autrement sur un mode plus familier, Microsoft s’est légèrement foutu de notre gueule. Sauf qu’on n’est pas là pour rigoler parce que les enjeux sont très importants. En effet Microsoft possède aussi son format bureautique, l’Office Open XML (ou OOXML), qu’elle tente par tous les moyens d’imposer, avec la complicité de l’ISO.

Que dans ce contexte le gouvernement, en publiant (enfin) récemment une nouvelle version de travail du Référentiel Général d’Interopérabilité (RGI), n’ait rien trouvé de mieux à faire que de… ne pas choisir et donc légitimer de fait le format OOXML, est un véritable camouflet infligé à ceux qui se battent pour dénoncer de tels agissements. Merci à l’April de « dénoncer une capitulation du gouvernement français qui soigne le marché de Microsoft au détriment de l’objectif d’interopérabilité » (même si à titre personnel je souhaite qu’on aille plus loin que la mise en ligne d’un simple communiqué).

Loin de l’opinion (qu’on a déjà eu du mal à intéresser à l’Hadopi), la guerre des formats bureautiques entre l’ODF et l’OOXML se poursuit. On se croirait dans le film Le bon, la brute et le truand, Microsoft jouant à la fois le rôle de la brute et du truand.

Le support du format ODF par Microsoft laisse à désirer

Microsoft’s ODF Support Falls Short

Communiqué de presse (Marino Marcich et Beth Dozier) – 19 mai 2009 – ODF Alliance
(Traduction Framalang : Yonnel et Daria)

Les conclusions de l’ODF Alliance montrent qu’on est encore loin d’une réelle interopérabilité.

En ce jour, l’OpenDocument Format (ODF) Alliance signale que de sérieuses carences dans le support d’ODF par Microsoft doivent être corrigées pour assurer une meilleure interopérabilité avec les autres logiciels qui supportent ODF.

« Le support d’ODF représente un test important, sur le long terme, de l’engagement de Microsoft pour une réelle interopérabilité », a déclaré le directeur général de l’ODF Alliance, Marino Marcich. « Malheureusement, de graves défauts ont été identifiés dans le support ODF de Microsoft. Le fait de mettre potentiellement en circulation des millions de fichiers ODF non-interopérables et incompatibles avec le support ODF que garantissent d’autres éditeurs ne peut que mener à la décomposition du standard. »

Le 28 avril 2009, Microsoft a publié le Service Pack 2 pour Office 2007, qui donne aux utilisateurs la possibilité d’ouvrir et de sauvegarder des fichiers ODF. Pourtant, un premier test du support d’ODF dans Office 2007 (voir l’analyse) a révélé de graves défauts qui, sans correction, iraient à l’encontre de l’interopérabilité basée sur les standards ouverts que le marché, et en particulier les gouvernements, exige.

« Un bon nombre de tests d’interopérabilité de base entre Microsoft Office 2007 et diverses suites logicielles compatibles avec ODF ont révélé que le niveau d’interopérabilité est bien loin des exigences gouvernementales partout dans le monde », a ajouté Marcich. « Par exemple, même les fonctions de tableur les plus basiques, comme l’ajout des nombres de deux cellules, étaient simplement supprimées dans un fichier ODF qu’on a ouvert et re-sauvegardé dans Microsoft Office 2007. Un document créé dans une autre application supportant l’ODF, puis re-sauvegardé dans Microsoft Office 2007, a un rendu différent (disparition de puces, numéros de page, tableaux et autres objets, polices altérées), compliquant sérieusement la collaboration avec Office 2007 sur un fichier ODF. On a même découvert que certains plugins créés par d’autres que Microsoft offraient un meilleur support ODF que le récent Microsoft Office 2007 SP2. C’est tout sauf un moyen d’arriver à l’interopérabilité demandée par le marché autour de ce format. »

« Les historiques de modifications sont essentiels pour le travail collaboratif, et les formules sont l’essence des feuilles de calcul. L’échec de Microsoft de supporter l’un comme l’autre dans le SP2 est révélateur de sa volonté concrète d’arriver à une réelle interopérabilité », a poursuivi Marcich. « Compte tenu des lacunes dans le support de l’ODF, il faut que les gouvernements continuent d’exiger que Microsoft implémente le support pour une bonne utilisation avec les logiciels d’autres éditeurs. »

Malgré ces problèmes, Marcich a noté l’intérêt croissant pour l’ODF. « Le fait que Microsoft se soucie fortement désormais du support de l’ODF suggère que le débat public autour des formats de documents n’est pas prêt de se terminer », a conclu Marcich. « Ce qui est clair, c’est que l’époque où les informations publiques étaient emmurées dans un format fermé, imposant l’achat d’un logiciel particulier, est en train de toucher à sa fin, en grande partie grâce au courage et à la vision de gouvernements à la pointe dans le soutien de l’ODF, qui ont bien voulu prendre position sur ce problème important de politique publique. »

À propos de l’ODF Alliance : L’OpenDocument Format Alliance est une organisation de gouvernements, d’institutions universitaires, d’ONG et d’entreprises qui a pour but d’informer les responsables politiques, les responsables informatiques et le public sur les bénéfices et les opportunités offerts par le format ODF.

MS Office 2007 Service Pack 2 avec support ODF : comment est-ce que cela fonctionne ?

Résumé des premiers résultats de tests sur le support ODF de Microsoft

Le support de Microsoft pour le format OpenDocument (ODF) représente un test important, et sur le long terme, de son engagement à aller vers une réelle interopérabilité. Avec le SP2, Microsoft devient instantanément la suite bureautique ODF avec la plus grande part de marché. Toutefois, le fait de mettre en circulation des millions de fichiers ODF non-interopérables et incompatibles avec le support ODF que garantissent d’autres éditeurs ne peut que mener à la décomposition du standard. Dans les faits, cela mettrait fin à l’interopérabilité basée sur les standards ouverts en bureautique.

Vous trouverez ci-dessous un résumé des principaux défauts du support ODF de Microsoft, identifiés après les premiers tests. Sans corrections, c’est la divergence qui prédominera, au lieu d’une convergence autour d’un format d’échange ouvert et éditable, que le marché, y compris et surtout les gouvernements, réclame. Pour être constructif, nous avons fait plusieurs recommandations pour que Microsoft puisse enfin réellement honorer son engagement de support interopérable pour l’ODF.

Interopérabilité pour le tableur ODF

Lors de la lecture d’une feuille de calcul ODF, MS Office Excel 2007 efface les formules, ce qui casse l’interopérabilité avec tous les autres tableurs qui supportent l’ODF. Adapté pour la lecture, le support Microsoft pour le travail collaboratif sur les feuilles de calcul ODF est comme inexistant dans la pratique.

Une feuille de calcul de test créée dans Google Docs, KSpread, Symphony, OpenOffice, et le plugin Sun 3.0 pour MS Office, par exemple, n’est pas correctement interprétée par MS Excel 2007. La raison en est que les formules utilisées pour faire des calculs dans un tableur (par exemple ajouter des nombres dans plusieurs cellules d’une colonne) sont tout simplement effacées dans MS Excel 2007. Au lieu d’effectuer les opérations, ce qui reste lors du chargement de la feuille de calcul dans MS Excel 2007 est la dernière valeur de la cellule de la dernière sauvegarde.

La même feuille de calcul de test, ouverte puis enregistrée dans toutes les applications, à part MS Excel 2007 (par exemple entre KSpread et Google Docs), est correctement interprétée. La plupart des autres tableurs ODF sont parfaitement capables d’interopérer. La bonne approche pour Microsoft aurait été de faire de même, pour assurer aux utilisateurs de MS Office la possibilité de partager des feuilles de calcul avec d’autres suites bureautiques supportant ODF.

Les plugins ODF pour Microsoft Office édités par des tierces parties se sont révélées proposer un meilleur support ODF que le récent Microsoft Office 2007 SP2. MS Excel 2007 traite bien les feuilles de calcul ODF lorsqu’elles sont chargées par l’intermédiaire du plugin Sun 3.0 pour MS Office ou du « OpenXML/ODF Translator Add-in for Office », mais ce n’est pas le cas lorsque l’on utilise le support intégré d’Office 2007 SP2.

Bien que les formules de calcul pour ODF 1.0/1.1 (la version supportée par Office 2007, selon Microsoft) sont spécifiques à chaque implémentation, elles ont pourtant convergé vers des formules de calcul de plus en plus interopérables. Microsoft a participé au vote à l’OASIS à l’époque de l’approbation d’ODF 1.0/1.1. ODF 1.2, qui devrait bientôt passer au vote pour approbation comme un standard OASIS, définira les formules de calcul à l’aide d’OpenFormula.

En fait, les feuilles de calcul créées dans Excel 2007 SP2 ne sont pas conformes à ODF 1.1, car Excel 2007 encode mal les formules avec des numéros de cellules. Selon la section 8.3.1 de l’ODF 1.1, les adresses de cellules dans les formules doivent commencer par un crochet ouvert et se terminent par un crochet fermé. Dans Excel 2007, les adresses de cellules ne sont pas comprises entre ces crochets obligatoires, ce qui pourrait pourtant être facilement corrigé.

Pour de plus amples lectures, voir Mise à jour de l’interopérabilité des feuilles de calcul ODF, par Rob Weir/IBM, sur , et À propos du fiasco du support ODF de Microsoft, par Ditesh Gathani.

Cryptage

Microsoft Office 2007 ne supporte pas le cryptage (protection par un mot de passe) dans les fichiers ODF.

Un utilisateur de MS Office 2007 connaissant le mot de passe ne peut pas ouvrir un document protégé par un mot de passe, créé dans n’importe quelle autre suite majeure supportant ODF.

La protection par mot de passe est une fonctionnalité interopérable, supportée par et entre les autres suites majeures supportant ODF, dont KOffice, Open Office et Lotus Symphony.

Dans l’autre direction, les fichiers ODF créés dans MS Office 2007 ne peuvent pas être protégés par un mot de passe. Les utilisateurs de MS Office 2007 ont un message d’avertissement, « Vous ne pouvez pas utiliser la protection par mot de passe avec le format ODF. »

Le cryptage et la protection par mot de passe sont pourtant pleinement spécifiés dans ODF 1.0/1.1 (item 17.3 de la spécification). Il en résulte qu’une mauvaise définition de cette fonctionnalité dans ODF ne peut pas être invoquée comme une explication plausible. Microsoft devrait implémenter immédiatement le support du cryptage. ODF 1.2 apportera le support des signatures numériques. Microsoft devrait ajouter le support des signatures numériques dès que ODF 1.2 sera approuvé.

Pour de plus amples lectures, voir Maintenant Microsoft essaie de fragmenter ODF, par Jomar Silva/ODF Alliance.

Historique de modifications

Microsoft Office 2007 ne supporte pas l’historique de modifications dans ODF.

L’historique de modifications est essentiel au travail collaboratif. Le fait de ne pas supporter cette fonctionnalité empêche une vraie collaboration sur un fichier ODF entre utilisateurs de MS Office 2007 et des autres logiciels compatibles ODF qui eux supportent bien cette fonctionnalité (OpenOffice.org, StarOffice, Lotus Symphony et Google Docs, entre autres).

L’historique de modifications est spécifié dans ODF 1.0/1.1, donc là encore l’absence de définition de cette fonctionnalité dans ODF ne peut pas être invoquée comme une explication plausible. Microsoft devrait implémenter le support interopérable de l’historique de modifications immédiatement.

Le support d’ODF uniquement dans MS Office version 2007

MS n’a pas implémenté le support natif pour ODF dans Office 2003 ou ses prédécesseurs.

La grande majorité des utilisateurs de Microsoft Office, dont la plupart des gouvernements, utilisent actuellement encore Office 2003 ou ses prédécesseurs.

Pour bénéficier du support natif d’ODF, les utilisateurs gouvernementaux de MS Office seront obligés de passer à MS Office 2007.

Pour les utilisateurs d’Office 2003 et ses prédécesseurs, Microsoft a promis de continuer à supporter le « OpenXML/ODF Translator Add-in for Microsoft Office », et le plugin Sun 3.0 est également disponible pour les utilisateurs de MS Office. Alors que ces plugins égalent ou dépassent les performances du support de MS Office 2007 SP2, ils ne peuvent pas se substituer sur le long terme à un support complet, natif, et interopérable.

L’engagement de supporter les futures versions d’ODF

L’annonce de Microsoft concernant la sortie du Service Pack 2 ne contient aucune promesse de mise à jour du support d’ODF dans les prochaines versions.

Microsoft traîne les pieds depuis plus de 3 ans (ODF 1.0 a été approuvé comme standard OASIS en mai 2005, et comme standard ISO en mai 2006 ; ODF 1.1 par l’OASIS en février 2007), malgré les appels répétés de gouvernements partout en Europe et ailleurs pour l’implémentation du support d’ODF.

L’implémentation de versions incompatibles et de bas niveau des standards ouverts empêchera l’interopérabilité en bureautique, surtout si l’on prend en compte la base potentiellement importante d’utilisateurs d’ODF.

Microsoft est bien connu pour ses implémentation de bas niveau de standards ouverts. Comme par exemple Java dans Internet Explorer, où Microsoft a pré-installé une version incompatible avec des extensions propriétaires, pour ensuite ne plus s’en occuper en ne la mettant pas à jour au fur et à mesure de l’évolution de la technologie Java.

ODF 1.2, qui inclut le support des formules de calcul, des métadonnées et de la signature numérique, sera bientôt examiné pour devenir un standard OASIS, et est consultable par tous sur le site web de l’OASIS OpenDocument Technical Committee (auquel Microsoft participe).

Microsoft et d’autres éditeurs supportant ODF devraient s’engager publiquement à mettre à jour leur implémentation en suivant la dernière version d’ODF. Une nouvelle version d’ODF devrait être obligatoirement supportée dans n’importe quelle version (ou Service Pack) de MS Office parue après la sortie d’une nouvelle version d’un standard ODF.

Notes

[1] Crédit photo : Ndanger (Creative Commons By-Sa)




Google Wave : une bonne nouvelle pour le logiciel libre ?

Rappensuncle - CC by-sa« Google Wave, c’est ce que pourrait être le mail si on devait l’inventer aujourd’hui » s’exclame le grand Tim O’Reilly, se mettant ainsi au diapason de cette autre citation, « Wave va rendre caducs tous les outils actuels de communication », entendue au moment même de la présentation de ce nouveau projet, il y a quinze jours de cela.

Le dévoilement de Wave a d’abord valu à Google une standing ovation au sortir de la conférence inaugurale. Puis, dans la foulée, des articles souvent dithyrambiques sont apparus sur la Toile. C’est donc clairement la sensation du moment, avant même que le moindre utilisateur ait pu tester quoi que ce soit. Une nouvelle vague (wave en anglais) va-t-elle déferler sur le Web ?

Si vous voulez en savoir plus quant à son approche originale et à ses fonctionnalités, je vous invite à lire theClimber, TechCrunch ou Transnets. Outre tout ce qu’il nous propose de faire, retenons qu’on a besoin du HTML 5 et surtout que le protocole sera Open Source, basé sur XMPP (Jabber), avec un serveur qui sera libre et qu’on pourra installer chez soi (cf Minitel 2.0).

Cet aspect libre (ou prétendu tel) est très important et n’a pas forcément été mis en avant par la blogosphère (sauf l’inévitable journal LinuxFr). Pour marquer le coup et nous interroger ensemble sur l’impact potentiel d’une telle nouveauté sur le logiciel libre, nous avons choisi de traduire un article enthousiaste (peut-être trop ?) issu de la revue Free Software Magazine.

Cet article envisage Google Wave sous l’angle de ce qu’il pourrait apporter à une communauté agrégée autour d’un logiciel libre. Jusqu’à se demander si Wave ne va pas se substituer aux bons vieux outils que sont les logiciels de gestion de versions (CVS, etc.), les wikis, et autres listes de discussion. Ce qui, au sein des développeurs, serait effectivement une petite révolution dans la manière de travailler et de communiquer.

Mais il n’entre pas dans le détail des licences, dans l’évalutation du degré réel ou supposé de l’ouverture annoncée par Google (à sa décharge, on ne dispose à l’heure actuelle que le peu d’informations qu’a bien voulu nous donner la société). Et surtout il oublie d’évoquer une, pour ne pas dire la, question majeure que l’on résume souvent dans la formule « Google everywhere ». Ok pour la possibilité d’avoir son petit serveur à domicile mais dans la pratique la grande majorité se connectera à n’en pas douter chez Google. Du Google partout, tout le temps, qui va finir par devenir problématique (si ça ne l’est pas déjà !). On peut, par exemple, compter sur Google pour nous proposer son navigateur Chrome configuré aux petits oignons pour Google Wave, si vous voyez ce que je veux dire.

Aussi puissant, séduisant et ouvert (protocole, API…) soit Google Wave, le logiciel libre a-t-il intérêt à surfer tête baissée sur cette vague[1], ou bien laisser couler et continuer tranquillement dans son coin à ériger sa petite berge qui deviendra un jour si haute que pas même un tsunami ne pourra l’emporter ?

Google Wave va-t-il révolutionner la collaboration dans le logiciel libre ?

Will Google Wave revolutionise free software collaboration?

Ryan Cartwright – 15 juin 2009 – Free Software Magazine
(Traduction Framalang : Poupoul2, Daria et Tyah)

Si vous n’en avez pas encore entendu parler, Google a publié une version de développement de Wave, son nouvel outil de réseau social et collaboratif. Quel impact cela peut-il avoir sur les utilisateurs et les développeurs de logiciel libre ?

Wave est ce que Google appelle un « nouvel outil de communication et de collaboration sur le Web ». Voyez-le comme un carrefour entre le courriel, le réseau social, la messagerie instantanée, l’IRC et Twitter. Wave apporte (ou plus exactement apportera) non seulement de nouveaux moyens de communication, mais offre également un retour instantané aux autres participants. En utilisant la base d’une vague comme une conversation, il permet aux destinataires de vos conversations de voir ce que vous écrivez en temps réel, au moment où vous l’écrivez. Plus besoin d’attendre que votre contact de messagerie instantanée termine son message. Wave offre également aux participants, dans le même outil, des messages de type panneau d’affichage, afin de savoir à quel moment ils se reconnectent. Il propose des fonctionnalités sympathiques qui permettent contextuellement de répondre à différentes parties d’un message. De nouveaux participants peuvent entrer à n’importe quel moment, tout en bénéficiant à la fois de l’historique complet de la vague, mais aussi en ayant la possibilité de « rejouer la vague » telle qu’elle s’est formée, en voyant qui a écrit quoi et dans l’ordre chronologique.

Ouais, ouais, encore un outil de réseautage social… allez, circulez !

Aussi intéressant, ou pas, que cela puisse paraître, quel impact cela aura-t-il pour nous, utilisateurs de logiciels libres et plus particulièrement développeurs ? Et bien, tout d’abord, Wave est développé grâce à un nouveau protocole ouvert et Google souhaite que nous l’aidions à le développer. Ce protocole est disponible sous les termes ouverts d’une licence que Google considère « libérale » (Un oxymore peut-être ?). En plaçant un protocole ouvert derrière cette technologie, Google nous invite activement à contribuer, distribuer et propager cette technologie. Cela signifie que nous, utilisateurs de logiciels libres, pouvons créer des outils libres qui utilisent le protocole Wave. Un protocole ouvert est assurément une bonne chose dans ce contexte : Pas d’accord de confidentialité, pas de royalties liées à des licences telles que pour les formats GIF ou MP3. Google nous demande également que nous aidions à donner forme au protocole. Les contributions sont réalisées sous un contrat de licence contributeur, qui insiste sur le fait que vous donnez à Google, le droit de « reproduire, construire des travaux dérivés, publier, exécuter en public, sous-licencier et distribuer vos contributions et les travaux dérivés associés ». Google semble être parti sur la bonne voie. Le temps nous en dira bien sûr plus, mais nous ne devrions pas être trop sceptique, c’est une opportunité réelle. Là où Android est un système ouvert sur un matériel fermé, en devenant ainsi de fait semi-fermé, nous avons une chance de développer Wave avec une foule d’outils libres et ouverts basés sur l’API et le protocole de Wave.

Google a livré quelques informations sur le fait de conserver le code source ouvert. Mais jusqu’à présent, ils n’ont publié aucun code source (à l’exception peut-être pour la version développeur, dont je ne fais pas partie), Cependant, même s’ils conservent les sources de l’API fermées, disposer d’un protocole ouvert (et d’une licence libérale) signifie que nous pouvons créer des outils qui utiliseront ce protocole et que ceux qui utiliseront les outils de Google pourront collaborer avec ces outils libres, du moins en théorie.

Mais qu’est-ce que cela peut nous apporter ?

Pensez à la manière de développer du logiciel libre. Peut-être plus que n’importe quel autre type de produits, le logiciel libre a besoin d’un effort collaboratif intense de la part de ses créateurs. Grâce à SVN, Sourceforge et consorts, nous avons des moyens de partager du code source et nous possédons des outils de communication durant le cycle de développement : wiki, panneaux d’affichage, liste de dicusssions, etc. Imaginez que vous disposez d’une « vague » pour les développeurs d’un projet logiciel. Chaque contributeur, en temps réel s’il le souhaite, dispose d’une conversation sans peur de perdre le fil dans de multiples embranchements. Les nouveaux membres peuvent rejouer la discussion pour comprendre l’état présent. Des fragments de code pourraient être placés à l’intérieur de la conversation et édités en temps réel par les autres membres. Et tout cela se déroule dans un des outils les plus communs, le navigateur. Les rassemblements de développeurs pourraient inclure ceux qui ne peuvent participer physiquement grâce à l’utilisation d’une vague. Les meilleurs esprits ne seront plus exclus parce qu’ils n’ont pu réserver une place dans l’avion[2].

Si cela semble excitant, c’est parce que je m’exalte. Google Wave a le potentiel pour aller bien au-delà du simple buzz pour foules numériques. Wave a la possibilité de réellement faire du bruit et de représenter un grand pas dans la manière dont nous développons du logiciel libre. Évidemment, il m’est venu à l’esprit que les développeurs de logiciels propriétaires pourraient utiliser le même système pour produire leurs logiciels, mais soyons honnêtes : qui de deux est le plus habitué à la collaboration (en réalité, en dépend même) ?

J’ai entendu certaines personnes dire que Google Wave pourrait dépasser Twitter et Facebook d’ici 2011. Je n’en sais rien, et même peu m’importe, mais je crois que Wave peut avoir un impact aussi fort sur le développement de logiciel libre que CVS ou les wikis.

Notes

[1] Crédit photo : Rappensuncle (Creative Commons By-Sa)

[2] Non pas que j’ai entendu que cela arrive, je conjecture juste.




Mon compte Facebook sait-il que je n’ai plus de toit ?

Hrvoje Go - CC byOn n’y pense pas toujours mais en France près de la moitié des « foyers » n’est toujours pas connectée à Internet. Et que se passe-t-il si on n’a carrément pas de foyer ?

Doit-on renoncer à la « vie numérique » ? Pas forcément, mais on imagine sans peine les difficultés rencontrées.

C’est l’objet d’un récent reportage du Wall Street Journal. On peut se passer de télé, de radio, de journaux mais plus difficilement d’Internet, nous dit l’un des protagonistes. A fortiori quand on l’utilisait « comme tout un chacun » avant notre mise à la rue. A fortiori quand la crise est désormais susceptible d’atteindre plus encore les jeunes et les classe moyennes précarisées[1].

Dans la rue et sur Facebook : sans-abri mais branché sur le Web

On the Street and On Facebook: The Homeless Stay Wired

Phred Dvorak – 30 mai 2009 – Wall Street Journal
(Traduction Framalang : Cheval Boiteux, Tyah, Don Rico)

M. Pitts n’a pas d’adresse postale. Mais il a un ordinateur et anime un forum sur Internet.

Comme la plupart des habitants de San Francisco, Charles Pitts a une vie en ligne. M. Pitts, 37 ans, a un compte sur Facebook, MySpace et Twitter, il anime un forum Yahoo, lit les journaux en ligne et garde le contact avec ses amis par courriel. Le plus difficile pour lui, c’est d’organiser sa vie numérique depuis son lieu de résidence : sous un pont d’autoroute.

« Pas besoin de télé, pas besoin de radio, même pas besoin de journaux papier », explique M. Pitts, poète amateur à la casquette violette et au blouson en polaire jaune, qui dit être SDF depuis deux ans. « Internet, par contre, c’est indispensable. »

L’exemple de M. Pitts démontre à quel point les ordinateurs et l’Internet ont imprégné la société. Il y a quelques années, certains craignaient qu’une « fracture numérique » sépare ceux qui ont accès aux nouvelles technologies et les autres. Les plus démunis n’ont certes pas les moyens de s’offrir un ordinateur et un accès à Internet. Pourtant, de nos jours aux États-Unis, même ceux qui n’ont pas de toit ressentent la nécessité d’avoir une adresse électronique.

La ville de New-York a installé quarante-deux ordinateurs dans cinq des neuf foyers qu’elle gère et projette d’équiper les quatre autres dans le courant de l’année. Environ la moitié des 190 autres foyers de la ville permettent d’accéder à un ordinateur. Selon le président de Central City Hospitality House, une association à but non lucratif de San Francisco, la moitié des visiteurs utilisant ces huit ordinateurs sont des sans-abri. Il y a une telle demande pour l’accès à ces postes que leur temps d’utilisation est limitée à 30 minutes.

D’après le personnel des foyers, le nombre de sans-abri équipés d’un ordinateur portable, qui reste faible, est en augmentation. SF Homeless (NdT : Sans-Abri de San Francisco), forum créé il y a deux ans, compte 140 membres. On y trouve les dates et horaires des réunions pour les logements sociaux et des informations provenant de groupes similaires actifs au Nouveau-Mexique, en Arizona, et dans le Connecticut. Il est complété par un blog qui propose des sondages en ligne sur la vie dans les foyers.

Les prix de plus en plus bas des ordinateurs et l’accès gratuit à Internet alimentent ce phénomène, ainsi que la maîtrise de l’outil informatique de plus en plus généralisée au sein de la population. Pour répondre à une offre d’emploi ou faire une demande de logement, les démarches se déroulent de plus en plus souvent en ligne. Selon certains membres d’associations d’aide aux sans-abri, la crise économique va jeter à la rue de nombreuses personnes issues de la classe moyenne habituées à l’Internet.

Âgé de 29 ans, Paul Weston se destine à une carrière de programmeur. Son Powerbook Macintosh, nous confie-t-il, est pour lui un véritable « canot de sauvetage » depuis qu’il a dû s’installer dans un foyer après avoir perdu son poste de réceptionniste d’hôtel en décembre dernier. Installé dans un magasin Whole Foods qui propose un accès Internet gratuit, M. Weston cherche du travail et écrit un programme informatique qu’il espère réussir à vendre. Il a envoyé des courriels aux élus de la ville pour demander l’amélioration des conditions de vie dans les foyers.

Lisa Stringer, qui dirige une formation où l’on apprend aux SDF et aux habitants défavorisés à chercher un emploi et à se servir de l’outil informatique, explique que certains de ses étudiants, alors qu’ils ne savent ni lire ni écrire, économisent pour se payer un ordinateur. « Dans la société actuelle, posséder un ordinateur signifie qu’on est à la page et connecté », analyse-t-elle. Il lui arrive parfois de conseiller vivement à ses étudiants sans-abri d’attendre que leur situation se soit stabilisée avant d’acheter un portable.

Avoir une vie en ligne lorsqu’on vit dans la rue exige une grande détermination. L’électricité et l’accès à Internet sont des denrées rares. S’ajoutent à ces difficultés les menaces telles que la pluie et le vol.

Robert Livingston, 49 ans, trimballe son portable Asus partout depuis qu’il a perdu son logement en décembre dernier. Homme soigné qui dépense une partie de son allocation mensuelle de 59 dollars chez le coiffeur, M. Livingston raconte qu’il a démissionné d’un poste d’agent de sécurité l’année dernière, et qu’il n’a pas réussi à retrouver du travail à cause de la crise.

Lorsqu’il s’est rendu compte qu’il allait devenir SDF, M. Livingston a acheté un sac à dos robuste pour ranger son matériel, un cadenas pour son casier du foyer et un compte Flickr Premium à 25 dollars pour diffuser ses photos numériques.

Il y a peu, installé dans un café où les clients peuvent parfois profiter de la connexion sans fil, M. Livingston montrait fièrement sa page personnelle, qui propose des liens pour des leçons de chinois.

M. Livingston affirme que son ordinateur l’aide à rester en lien avec la société et à garder son humanité. « Être dans la rue, c’est effrayant », nous confie-t-il. « Sur Internet, je suis sur un pied d’égalité avec tout le monde. »

Pour Skip Schreiber, philosophe amateur de 64 ans qui vit aujourd’hui dans une camionnette, le plus gros défi pour rester connecté, c’est l’électricité. M. Schreiber était chauffagiste avant que le stress et une dépression liés au travail ne le mettent sur la touche il y a quinze ans.

Pour son 60ème anniversaire, il a puisé dans sa pension d’invalidité mensuelle pour s’offrir un ordinateur portable, branché sur la batterie de son véhicule, et a appris seul à s’en servir. « J’aimais le concept d’Internet », explique M.Schreiber, « cette source illimitée d’opinions et de réflexion ».

Récemment, M. Schreiber a changé de machine pour un Mac parce que celui-ci consomme moins. Quand il le peut, il coupe le ventilateur et l’antenne WiFi, et rafraîchit son portable en le posant sur un chiffon humide. Grâce à ces astuces, affirme-t-il, il réussit à faire durer sa batterie jusqu’à seize heures, à condition de proscrire les vidéos.

Dans sa camionnette où s’entassent caisses à outils, matériel électrique et couchage, M. Schreiber nous montre le contenu de son disque dur, qui comprend l’intégralité des codes civil et pénal de la Californie, ou encore des fichiers sur des penseurs tels que Thomas d’Aquin ou le psychologue Philip Zimbardo. M. Schreiber explique que les écrits sur le comportement et les aspirations des hommes l’aident à mieux appréhender son sort.

« Nul ne se conçoit comme un sans-abri », déclare-t-il. « Nous faisons nos choix au mieux, selon ce qui nous est donné. »

Michael Ross produit lui-même son électricité, grâce à un groupe électrogène installé à l’extérieur de sa tente jaune et bleue. Depuis un an, M. Ross assure la surveillance d’un parking où est entreposé du matériel de construction, grâce à un accord passé avec le propriétaire. M. Ross, qui n’a que sa pension de vétéran pour survivre, estime être SDF depuis une quinzaine d’années.

Sous la tente, ce cinquantenaire taciturne possède un laptop HP pourvu d’un écran de 17 pouces et d’un espace de stockage de 320 Go, ainsi que quatre disques durs externes supplémentaires d’une capacité totale de 1000 Go, l’équivalent de 200 DVDs. M Ross adore les films. Il en loue certains en ligne, sur Netflix et Blockbuster, et en télécharge d’autres grâce à une connection Ethernet à la bibliothèque publique de San Francisco.

L’autre soir, M. Ross s’est installé sur son sac de couchage pour regarder un épisode des X-Men, obligé d’écouter au casque pour couvrir le vacarme du groupe électrogène. Lorsqu’il se rend en ville, il emporte tout son matériel avec lui par sécurité. Son sac-à-dos est plein à craquer de cordons et de gadgets électroniques emballés dans du papier-bulle. Selon M. Ross, le poids ne lui pose pas problème.

M. Pitts, le poète qui vit sous un pont, retient de tête une liste d’endroits où il peut recharger sa batterie et se connecter à l’Internet, endroits parmi lesquels on trouve un coin peu fréquenté d’une des gares de la ville et des cafés équipés du WiFi, dont les patrons tolèrent que l’on s’y installe pour longtemps et avec beaucoup de sacs.

Expulsé de son appartement il y a deux ans, M. Pitts raconte : « Je me suis dit que mon existence et ma vie ne s’arrêtaient pas parce que je n’avais plus de toit ».

Il s’est alors acheté un portable Toshiba. Lorsque celui-ci a rendu l’âme, il l’a remplacé par un Dell d’occasion. Le mois dernier, l’écran du Dell s’est cassé. À présent, pour consulter son courrier électronique et participer à son forum consacré aux problèmes des sans-abri, il se sert des ordinateurs des bibliothèques et des campus universitaires, ou encore d’un portable caché par un de ses copains derrière le comptoir d’un café.

Ayant appris il y a un mois que le Dalaï Lama devait venir en viste dans une soupe populaire des environs, M. Pitts est allé sur Wikipédia faire une recherche sur le chef spirituel bouddhiste et a copié le texte de l’article sur son iPod pour le lire au lit, sous le pont qui l’abrite. « Sous ma couverture, à l’abri d’une bâche plastique, j’apprends des tas de trucs sur le Dalaï Lama. »

M. Pitts compte bientôt réussir à économiser assez d’argent pour se racheter un ordinateur. Il espère pouvoir en trouver un à moins de 200 dollars.

Remarque : Sur le site d’origine du Wall Street Journal, on trouve un diaporama avec une dizaine de photographies « en situation » des personnes citées dans l’article.

Notes

[1] Crédit photo : Hrvoje Go (Creative Commons By)




Largage de liens en vrac #18

Whatsername? - CC by-saCe n’est pas un grand cru de news logicielles, loin s’en faut (sans être non plus de la piquette).

Faut vous avouer aussi que je n’ai pas forcément été très attentif cette semaine à l’actualité. La faute à une entité virtuelle rencontrée sur GNM (Gnm is not Meetic).

Or justement ce soir, c’est notre premier rendez-vous. Tout comme mon port LPT1, j’espère faire bonne impression. À la question : mais comment vous reconnaitrais-je ? Elle m’a répondu qu’elle tiendrait un ballon vert à la main[1]. On a beau être éduqué à la grandeur d’âme, je l’espère tout de même un peu jolie…

  • Moovida : Un média player de plus ? Oui mais l’interface est vraiment bien pensée et très esthétique. Quelqu’un a testé ?
  • meta-iPod : Ce logiciel se présente comme un iTunes Cleaner. Comme je connais pas bien iTunes, je ne peux pas trop vous en parler. Mais je peux vous balancer telle quelle la description du site officiel : « meta-iPod can clean up an iTunes library with as many features as a Swiss Army Knife. From recovering ratings and play counts from your iPod to tracking down files or folders gone missing, meta-iPod analyzes all data sources containing your music to put the pieces of the puzzle back together. »
  • DSpace : Une plate-forme d’archivage de documents orientés recherche et enseignement. Le mieux c’est encore de take a tour si vous souhaitez aller au delà de ma présentation vague et floue.
  • BitBlinder : L’Hadopi va adorer puisqu’il s’agit du faire du Bittorrent mais de manière sécurisée et anonyme ! (on en parle sur TorrentFreak)
  • Hemlock : Tout nouveau. Un framework qui mélange le format Flash (bouh) et le protocole ouvert de messagerie instantanée XMPP (clap, clap) pour offrir la discussion en direct live aux développeurs qui souhaitent inclure ce module dans leurs applications Web.
  • Wagn : Je vous traduis l’équation qui figure en page d’accueil : un wiki (où les gens écrivent ensemble) + une base de données (où les gens organisent ce qu’ils ont écrit ensemble) + un CMS (pour faire de chouettes sites Web) = un Wagn (où les gens font tous ensemble de chouettes sites Web).
  • Appcelerator : Un framework de développement d’applications Internet riches (RIA) qui semble très ambitieux sur le papier et qui permet de créer rapidement des programmes non seulement pour Windows, Mac ou Linux mais également pour iPhone, Android & co (là encore cela dépasse de loin mes compétences, donc si quelqu’un veut nous en dire plus dans les commentaires…)
  • Tiny Core Linux : Sortie de la version 2.0 de cette mini-distribution GNU/Linux (env. 10 Mo) qui a ses adeptes. Et puis ça peut être utile sur une clé USB ne serait-ce que pour la vitesse au boot.
  • jQuery SuperBox! : Tout le monde connait désormais l’effet lightbox, ces fenêtre qui s’ouvrent pour vous montrer généralement une image pendant que le fond s’obscurcit (certains sites en abusent même que). Ici on vous en propose une version légère, accessible, extensible et évidemment sous licence libre.
  • Jokosher : Il s’agit de « rendre la production audio simple ». Une sorte de Audacity en version light et ergonomique ?
  • Engine Room Audition : Faut vraiment voir la vidéo (et ses effets) pour comprendre. Assez artistique ma foi.
  • The Guide : Une application Windows only permettant de créer des documents puis de la classer dans une structure en arbre. La encore, les copies d’écran aident à mieux capter la chose. On notera que vous pouvez paramétrer le logiciel pour qu’il devienne pleinement portable (par exemple sur une clés USB à la manière de la Framakey).

Notes

[1] Crédit photo : Whatsername? (Creative Commons By-Sa)