Pandémie grippale + Sanction Hadopi = Continuité pédagogique non assurée

Freeparking - CC byCette rentrée scolaire rime avec risque annoncé de pandémie grippale A/H1N1.

C’est pourquoi le ministère de l’Éducation nationale a rédigé une circulaire apportant « les réponses que la communauté éducative attend, en matière d’hygiène et de santé au travail et en matière de continuité pédagogique ».

Pour ce qui concerne la continuité pédagogique, on peut lire ceci pour les collèges et les lycées[1] :

« Dans tous les cas d’absence d’élèves, de fermeture de classes ou d’établissements, il appartient à chaque professeur d’assurer la continuité pédagogique des cours de sa discipline. Pour ce faire, plusieurs moyens sont mobilisables ; les établissements s’organiseront en tenant compte de l’ensemble des équipements et des compétences dont ils disposent.

Pour les établissements disposant d’espace numérique de travail (E.N.T.) ou fournissant par le biais d’internet un accès à des ressources pédagogiques, les professeurs pourront adresser les supports de cours et d’exercices aux élèves absents et permettre ainsi un échange continu et interactif ;

En l’absence d’E.N.T., les travaux à faire pourront être mis en ligne sur le site de l’établissement, et s’appuieront sur les manuels scolaires utilisés en classe.

Si le site de l’établissement est indisponible, et pour les élèves ne disposant pas d’accès à internet, les travaux à faire à la maison seront remis aux élèves dès l’avis de fermeture de la classe ou de l’établissement.

De surcroît, les professeurs conseilleront aux familles équipées d’internet de se connecter au site http://www.academie-en-ligne.fr, mis en place par le CNED qui propose à titre gratuit des ressources téléchargeables : cours et exercices sous forme écrite ou audio. Ces ressources seront disponibles dès la mi-septembre pour le premier degré, fin octobre pour la plupart des disciplines d’enseignement général du second degré. »

Le dénominateur commun de toutes ces mesures (sauf une) ?

Elles nécessitent un accès à Internet. Ce qui n’est pas encore le cas de tous les foyers français.

Mais si en plus Hadopi s’en mêle, en étant susceptible de couper la connexion à toute une famille, on arrive à une situation pour le moins problématique !

C’est ce que nous rappelle l’Isoc France[2], dans un récent communiqué que nous avons reproduit ci-dessous, à la veille de l’examen à l’Assemblée nationale du projet de loi « Hadopi 2 » (qui aura lieu le mardi 15 septembre prochain).

PS : Pour une lecture (plus que) critique du site de l’Académie en ligne, nous vous renvoyons vers ce billet du Framablog.

Hadopi 2 et pandémie : ne coupez pas l’éducation en ligne !

URL d’origine du document

Isoc – 9 septembre – Communique de Presse

Les solutions proposées pour affronter la pandémie grippale mettent au jour l’inanité des dispositions contenues dans la loi dite Hadopi 2, à commencer par la coupure de l’accès pour toute une famille.

Prochainement proposée au vote du Parlement, cette loi fait suite à la loi Hadopi 1 qui a été partiellement invalidée par le Conseil constitutionnel. Dès le début de la discussion relative à ce premier texte, le chapitre français de l’Internet Society a contesté que la coupure à Internet puisse être une sanction acceptable.

Pour faire face aux fermetures d’établissements, le gouvernement voudrait proposer des cours de substitution par Internet. En attendant que les classes puissent rouvrir normalement, Internet permettra ainsi à nos enfants de continuer à apprendre.

Or, si les dispositions de la Loi Hadopi 2 étaient en vigueur aujourd’hui, l’accès au net de milliers de famille pourrait être suspendu et leurs enfants privés de facto du droit à l’éducation.

Peut-on punir une famille entière, pour les errements supposés d’un de ses membres (ou de ses voisins) ? Quelle législation nationale, pour préserver les profits de quelques artistes et industriels du divertissement, priverait des milliers de familles de l’accès au réseau ?

La pandémie grippale vient rappeler qu’on ne peut pas prétendre entrer dans la société du 21e siècle avec des conceptions disciplinaires d’un autre âge. La société de la connaissance qui s’annonce est une société ouverte, où l’échange direct entre les individus est créateur de richesse et de sens. En votant l’Hadopi 2, les parlementaires français voteront pour le monde d’avant-hier.

La suspension d’Internet ne peut pas être la sanction au téléchargement illégal ou au défaut de sécurisation de sa connexion.

L’Isoc France demande aux députés français de penser au présent et l’avenir de nos enfants, au moment du vote. En leur âme et conscience.

Notes

[1] Crédit photo : Freeparking (Creative Commons By)

[2] Fondée en 1996 par une poignée de pionniers, l’Internet Society France est le Chapitre Français de l’Isoc Association internationale, A l’heure où le réseau devient un enjeu technologique, économique et sociétal majeur, l’Isoc France s’attache à préserver et à défendre les valeurs fondamentales de l’Internet que sont l’universalité, l’accessibilité, le respect des standards ouverts, la non discrimination du réseau et l’interopérabilité des solutions techniques.




George Clooney a une sale gueule ou la question des images dans Wikipédia

George Clooney - Bad Dog - Public DomainÀ moins d’être aussi bien le photographe que le sujet photographié (et encore il faut faire attention au décor environnant), impliquant alors soit d’avoir le don d’ubiquité soit d’avoir un pied ou le bras assez long, c’est en théorie un pur casse-tête que de mettre en ligne des photographies sur Internet.

Il y a donc pour commencer le droit de l’auteur, le photographe. Mais quand bien même il aurait fait le choix de l’ouverture pour ses images, avec par exemple une licence Creative Commons, il reste la question épineuse du droit du sujet photographié (qui peut être une personne, un monument architectural…). Et pour corser le tout, n’oublions pas le fait que la législation est différente selon les pays.

Et c’est ainsi que le Framablog se met quasi systématiquement dans l’illégalité lorsqu’il illustre ses billets par une photographie où apparaissent des gens certes photogéniques mais non identifiés. Parce que si il prend bien le soin d’aller puiser ses photos parmi le stock d’images sous Creative Commons d’un site comme Flickr, il ne respecte que le droit du photographe et non celui du ou des photographié(s), dont il n’a jamais eu la moindre autorisation.

C’est peut-être moins grave (avec un bon avocat) que ces millions de photos que l’écrasante majorité de la jeune génération partage et échange sans aucune précaution d’usage sur les blogs, MySpace ou Facebook, mais nous ne sommes clairement qu’à la moitié du chemin.

Le chemin complet du respect des licences et du droit à l’image, c’est ce que tente d’observer au quotidien l’encyclopédie libre Wikipédia. Et c’est un véritable… sacerdoce !

Vous voulez mettre en ligne une photo sur Wikipédia ? Bon courage ! L’avantage c’est que vous allez gagner rapidement et gratuitement une formation accélérée en droit à l’image 😉

Pour l’anecdote on cherche toujours à illustrer le paragraphe Framakey de notre article Framasoft de l’encyclopédie et on n’y arrive pas. Une fois c’est le logo de Firefox (apparaissant au microscope sur une copie d’écran de l’interface de la Framakey) qui ne convient pas, parce que la marque Firefox est propriété exclusive de Mozilla. Une fois c’est notre propre logo (la grenouille Framanouille réalisée par Ayo) qui est refusé parce qu’on ne peut justifier en bonne et due forme que sa licence est l’Art Libre.

Toujours est-il donc que si vous souhaitez déposer une image dans la médiathèque de Wikipédia (Wikimédia Commons) alors le parcours est semé d’embûches. L’enseignant que je suis est plutôt content parce que l’encyclopédie participe ainsi à éduquer et sensibiliser les utilisateurs à toutes ces questions de droit d’auteurs, de propriété intellectuelle… avec moultes explications sur l’intérêt d’opter (et de respecter) les licences libres. Mais il n’empêche que l’une des conséquences de ces drastiques conditions d’entrée, c’est que pour le moment Wikipédia manque globalement de photographies de qualité (comparativement à son contenu textuel).

C’est particulièrement criant lorsqu’il s’agit d’illustrer les articles sur des personnalités contemporaines[1] (les plus anciennes échappant a priori au problème avec le domaine public, sauf quand ces personnalités ont vécu avant… l’invention de la photographie !). Et c’est cette carence iconographique que le New York Times a récemment prise pour cible dans une chronique acide dont le traduction ci-dessous nous a servi de prétexte pour aborder cette problématique (chronique qui aborde au passage la question complexe du photographe professionnel qui, craignant pour son gagne-pain, peut hésiter à participer).

La situation est-elle réellement aussi noire que veut bien nous le dire le vénérable journal ?

Peut-être pas. Il y a ainsi de plus en plus de photographes de qualité, tel Luc Viatour, qui participent au projet . Il y a de plus en plus d’institutions qui, contrairement au National Portrait Gallery, collaborent avec Wikipédia en ouvrant leurs fonds et archives, comme en témoigne l‘exemple allemand. Même le Forum économique mondial de Davos s’y met (dépôt dans Flickr, utilisation dans Wikipédia). Sans oublier les promenades locales et festives où, appareil photo en bandoulière, on se donne pour objectif d’enrichir ensemble l’encyclopédie.

Du coup mon jugement péremptoire précédent, à propos de la prétendue absence globale de qualité des images de Wikipédia, est à nuancer. Il suffit pour s’en convaincre de parcourir les pages « images de qualité » ou l’« image du jour ».

L’encyclopédie est en constante évolution, pour ne pas dire en constante amélioration, et bien heureusement la photographie n’échappe pas à la règle. Même si il est vrai que le processus est plus lent parce qu’on lui demande de s’adapter à Wikipédia et non l’inverse.

Wikipédia, terre fertile pour les articles, mais désert aride pour les photos

Wikipedia May Be a Font of Facts, but It’s a Desert for Photos

Noam Cohen – 19 juillet 2009 – New York Times
(Traduction Framalang : Olivier et Goofy)

Une question de la plus haute importance : existe-t-il de mauvaises photos de Halle Berry ou de George Clooney ?

Halle Berry - Nancy Smelser - Public DomainFacile, allez sur Wikipédia ! Vous y trouverez une photo floue de Mlle Berry, datant du milieu des années quatre-vingt, lors de la tournée U.S.O. avec d’autres candidates au titre de miss USA. La mise au point est mauvaise, elle porte une casquette rouge et blanche, un short, c’est à peine si on la reconnait. L’article de Wikipédia sur M. Clooney est, quant à lui, illustré par une photo le montrant au Tchad, portant une veste kaki est une casquette des Nations Unies. Avec son grand sourire et ses traits anguleux il est toujours aussi beau, en compagnie de deux femmes travaillant pour les Nations Unies, mais on est loin d’un portait glamour.

Certains personnages éminemment célèbres, comme Howard Stern ou Julius Erving, n’ont même pas la chance d’avoir leur photo sur Wikipédia.

George Clooney - Nando65 - Public DomainAlors que de nos jours les célébrités s’offrent couramment les services d’une équipe de professionnels pour contrôler leur image, sur Wikipédia c’est la loi du chaos. Très peu de photographies de bonne qualité, particulièrement de célébrités, viennent enrichir ce site. Tout cela tient au fait que le site n’accepte que les images protégées par la plus permissive des licences Creative Commons, afin qu’elles puissent être ré-utilisées par n’importe qui, pour en tirer profit ou pas, tant que l’auteur de la photo est cité.

« Des représentants ou des agents publicitaires nous contactent, horrifiés par les photos qu’on trouve sur le site », confie Jay Walsh, porte-parole de la Wikimedia Foundation, l’organisme qui gère Wikipédia, l’encyclopédie en plus de 200 langues. « Ils nous disent : J’ai cette image, je voudrais l’utiliser. Mais ça n’est pas aussi simple que de mettre en ligne la photo qu’on nous envoie en pièce jointe. »

Il poursuit : « En général, nous leur faisons comprendre que de nous envoyer une photo prise par la photographe Annie Leibovitz ne servira à rien si nous n’avons pas son accord. »

Les photos sont l’un des défauts les plus flagrants de Wikipédia. À la différence des articles du site, qui, en théorie, sont vérifiés, détaillés à l’aide de notes, et qui se bonifient avec le temps, les photos sont l’œuvre d’une seule personne et elles sont figées. Si un mauvais article peut être amélioré, une mauvaise photo reste une mauvaise photo.

Les wikipédiens tentent de corriger ce défaut, ils organisent des événements ou des groupes de contributeurs vont prendre des clichés de bonne qualité de bâtiments ou d’objets. De même, Wikipédia s’efforce d’obtenir la permission d’utiliser d’importantes collections de photographies.

L’hiver dernier, les archives fédérales allemandes ont placé cent mille photos basse résolution sous une licence permettant leur usage dans Wikipédia. Récemment, un utilisateur de Wikipédia, Derrick Coetzee, a téléchargé plus de trois mille photos haute résolution d’œuvres de la National Portrait Gallery de Londres, pour qu’elles soient utilisées, essentiellement, pour illustrer les articles se rapportant à des personnes historiques célèbres comme Charlotte Brontë ou Charles Darwin.

La galerie a menacé de porter plainte contre M. Coetzee, affirmant que même si les portraits, de par leur ancienneté, ne tombent plus sous la protection du droit d’auteur, les photographies elles sont récentes et du coup protégées. La galerie exige une réponse de M. Coetzee pour lundi. Il est représenté par l’Electronic Frontier Foundation. S’exprimant par e-mail vendredi, une porte-parole de la galerie, Eleanor Macnair, écrit qu’un « contact a été établi » avec la Wikimedia Foundation et que « nous espérons toujours que le dialogue est possible ».

On reste pourtant bien loin du compte et le problème des photographies sur Wikipédia est tout sauf réglé. Dans la galerie des horreurs, l’ancienne star de la NBA, George Gervin, aurait une place de choix. Debout, droit comme un I dans son costard, sur une photo aux dimensions pour le moins étranges, même pour un joueur de basket-ball. La photo, recadrée et libre de droit, provient du bureau du sénateur du Texas, John Cornyn.

Barack Obama - Pete Souza - CC byL’exemple de M. Gervin illustre un fait établi : le gouvernement alimente le domaine public de nombreuses photographies. Celle illustrant l’article du président Obama, par exemple, est un portrait officiel tout ce qu’il y a de posé et sérieux.

Mais les collections de photographies du gouvernement servent aussi aux contributeurs de Wikipédia. Ils espèrent y dénicher des images de rencontres entre célébrités et personnages politiques, qu’ils massacrent ensuite pour illustrer un article.

L’ancien roi du baseball, Hank Aaron, a l’honneur d’être illustré par une photo prise hors contexte, bizarrement découpée, prise en 1978 à la Maison Blanche. De même, l’illustration principale de l’article sur Michael Jackson a été réalisée en 1984 à l’occasion de sa visite à Ronald et Nancy Reagan.

Natalie Dessay - Alixkovich - CC by-saLes photos récentes sur Wikipédia sont, pour une large majorité, l’œuvre d’amateurs qui partagent volontiers leur travail. Amateur étant même un terme flatteur puisque ce sont plutôt des photos prises par des fans qui par chance avaient un appareil photo sous la main. La page de la cantatrice Natalie Dessay la montre en train de signer un autographe, fuyant l’objectif, l’actrice Allison Janney est masquée par des lunettes de soleil au Toronto Film Festival. Les frères Coen, Joel et Ethan, sont pris à distance moyenne à Cannes en 2001 et Ethan se couvre la bouche, certainement parce qu’il était en train de tousser. Et il y a aussi les photos prises depuis les tribunes où on distingue à peine le sujet. D’après sa photo, on pourrait croire que la star du baseball Barry Bonds est un joueur de champ extérieur. David Beckham, quant à lui, apparait les deux mains sur les hanches lors d’un match de football en 1999.

Placido Domingo- Sheila Rock - Copyright (with permission)Certaines personnes célèbres, comme Plácido Domingo et Oliver Stone, ont cependant eu la bonne idée de fournir elles-mêmes une photographie placée sous licence libre. Quand on pense à tout l’argent que les stars dépensent pour protéger leur image, il est étonnant de voir que si peu d’entre elles ont investi dans des photos de haute qualité, sous licence libre, pour Wikipédia ou d’autres sites. Peut-être ne se rendent-elles pas compte de la popularité de Wikipédia ? Rien que pour le mois de juin, par exemple, la page de Mlle Berry a reçu plus de 180 000 visites.

D’après Jerry Avenaim, photographe spécialisé dans les portraits de célébrités, il faut encore réussir à persuader les photographes, car placer une photo sous licence libre pourrait faire de l’ombre à toutes les autres. Il se démarque par le fait qu’il a déjà enrichi Wikipédia d’une douzaine de clichés en basse résolution, parmi lesquels un superbe portrait de Mark Harmon pris à l’origine pour un magazine télé.

Dans un interview, M. Avenaim semblait toujours indécis quant à l’idée de partager son travail. Sa démarche poursuit un double but : « D’abord, je voulais vraiment aider les célébrités que j’apprécie à apparaitre sous leur meilleur jour », dit-il, « Ensuite, c’est une stratégie marketing intéressante pour moi ».

Mark Harmon - Jerry Avenaim - CC by-saSa visibilité en ligne a largement augmenté grâce à la publication de ses œuvres sur Wikipédia, comme le montrent les résultats des moteurs de recherche ou la fréquentation de son site Web. Mais c’est une publicité qui peut aussi lui coûter très cher. « C’est mon gagne-pain », dit-il, rappelant que les photographes sont parfois très peu payés par les magazines pour leurs images de célébrités. L’essentiel de leurs revenus provient de la revente des images. Même si les images qu’il a mises gratuitement à disposition, par exemple le portrait de Dr. Phil, sont en basse résolution, elles deviennent les photographies par défaut sur Internet. Pourquoi payer alors pour une autre de ses photos ?

Et c’est bien là que la bât blesse pour les photographes qui voudraient mettre leurs œuvres à disposition sur Wikipédia, et seulement sur Wikipédia, pas sur tout Internet. « Wikipédia force à libérer le contenu déposé sur le site, c’est là que réside le problème à mes yeux », explique M. Avenaim. « S’ils veulent vraiment que la qualité des photos sur le site s’améliore, ils devrait permettre aux photographes de conserver leurs droits d’auteur. »

Notes

[1] Crédits photos : 1. George Clooney, par Bad Dog (domaine public) / 2. Halle Berry, par Nancy Smelser (domaine public) / 3. George Clooney, par Nando65 (domaine public)/ 4. Barack Obama, par Pete Souza (creative commons by) / 5. Natalie Dessay, par Alixkovich (creative commons by-sa) / 6. Placido Domingo, par Sheila Rock (copyright avec permission) / 7. Mark Harmon, par Jerry Avenaim (creative commons by-sa)




Si rien ne bouge en France dans les cinq ans je demande ma mutation à Genève

Broma - CC byCe billet souhaite avant tout saluer l’action du SEM qui, dans le cadre des MITIC, favorise les SOLL au sein du DIP. Gageons cependant que si vous n’êtes pas familier avec le système éducatif genevois, cette introduction risque de vous apparaitre bien énigmatique !

Le DIP, c’est le Département de l’Instruction Publique du Canton de Génève et le SEM, le Service Écoles-Médias chargé de la mise en œuvre de la politique du Département dans le domaine des Médias, de l’Image et des Technologies de l’Information et de la Communication, autrement dit les MITIC.

Mais l’acronyme le plus intéressant est sans conteste les SOLL puisqu’il s’agit rien moins que des Standards Ouverts et des Logiciels Libres.

En mars dernier en effet le SEM a élaboré un plan de déploiement 2009-2013 sur cinq ans des postes de travail pédagogiques (autrement dit les ordinateurs des élèves[1]) qui présente la particularité d’être peu ou prou… exactement ce qu’il nous faudrait à nous aussi en France ! Lecture chaudement recommandée.

L’objectif du présent plan de déploiement est de parvenir d’ici la rentrée 2013 à doter les écoles d’un poste de travail fonctionnant uniquement sous GNU/Linux, dans sa distribution Ubuntu.

Impressionnant non ! Proposez aujourd’hui la même chose de l’autres côté de la frontière et c’est le tremblement de terre (assorti d’une belle panique du côté des « enseignants innovants » de Projetice, du Café pédagogique et de Microsoft) !

Mais ainsi exposé, il y a un petit côté radical à nuancer :

Le solde constitue les exceptions pour lesquelles il n’aura pas été possible de trouver une solution ou pour lesquelles les systèmes propriétaires restent manifestement mieux adaptés au métier.

Et comment ne pas souscrire à ce qui suit (que je m’en vais de ce pas imprimer et encadrer dans ma chambre) :

Il s’agit en fait d’opérer un changement de paradigme : aujourd’hui, le standard est Windows, l’exception MacOS. Demain, le standard sera GNU/Linux, les exceptions MacOS et Windows.

Tout est dit ou presque. Ce n’est ni un désir, ni une prédiction, c’est à n’en pas douter le choix technologique d’avenir de nos écoles. Et plus tôt on prendra le train en marche, mieux ça vaudra.

Je n’ai pu résister à vous recopier intégralement la première page du plan tant elle est pertinente et pourrait se décliner partout où l’on analyse sérieusement la situation.

Depuis 2004, l’État de Genève a annoncé son intention d’orienter progressivement son informatique vers les standards ouverts et les logiciels libres (SOLL).

Cette décision est motivée par la prise de conscience que « l’information gérée par l’État est une ressource stratégique dont l’accessibilité par l’administration et les citoyens, la pérennité et la sécurité ne peuvent être garanties que par l’utilisation de standards ouverts et de logiciels dont le code source est public ».

Un intérêt économique est aussi présent : diminution des dépenses de licences bien sûr, mais également en favorisant les compétences et les services offerts par des sociétés locales plutôt que de financer de grands comptes internationaux.

Dans le domaine de l’informatique pédagogique, l’intérêt pour les SOLL est bien antérieur. En effet, les logiciels libres offrent pour l’éducation des avantages spécifiques, en plus des avantages communs à tous les secteurs de l’État. Ces logiciels permettent de donner gratuitement aux élèves les outils utilisés en classe et donc de favoriser le lien entre l’école et la maison ; ils offrent un apprentissage affranchi de la volonté des grands éditeurs de créer des utilisateurs captifs ; et la large communauté qui s’est développée autour des SOLL produit des solutions de qualité adaptées aux besoins de l’éducation.

La question des ressources pédagogiques est également au centre de cette problématique. S’appuyant sur le fonctionnement collaboratif propre au logiciel libre, il s’agit de mettre à disposition des enseignants et des élèves des environnements numériques technologiques performants à même de valoriser les contenus créés par les enseignants, de leur offrir la possibilité de les partager et de les échanger tout en protégeant les auteurs.

Conscient de ces enjeux, le DIP a validé en juin 2008 une directive formalisant sa décision « d’orienter résolument son informatique tant administrative que pédagogique vers des solutions libres et ouvertes ». La responsabilité de cette démarche a été confiée au SEM.

On peut toujours qualifier la Suisse de « neutre » et « conservatrice » mais certainement pas pour ce qui concerne les TICE du côté de Genève !

L’excellente directive dont il est question à la fin de l’extrait, nous en avions longuement parlé dans un billet dédié du Framablog. On notera qu’il est également questions des ressources pédagogiques, évoquées (malheureusement en creux) lors du billet L’académie en ligne ou la fausse modernité de l’Éducation nationale.

Vous me direz peut-être que cette belle intention ne se décrète pas. Et vous aurez raison ! Mais on en a pleinement conscience et c’est aussi pour cela qu’on se donne du temps, cinq ans, en commençant progressivement par quelques écoles pilotes.

Comme lors de tout changement, la transition vers un poste de travail logiciels libres va susciter des oppositions importantes, liées à des critères objectifs ou à des craintes non fondées. Pour assurer la réussite du projet, il conviendra donc d’identifier les risques et de mettre en œuvre les moyens de les réduire.

Les principaux risques identifiables dès maintenant sont les suivants :

– résistance au changement des utilisateurs parce que celui-ci demande un effort d’apprentissage et d’adaptation ;

– habitudes acquises lors de la formation (notamment universitaire) d’utiliser certains produits propriétaires, même si ceux-ci sont onéreux et parfois moins performants ou pratiques ;

– difficultés à récupérer les contenus déjà réalisés avec les nouveaux logiciels proposés ;

– difficultés à échanger les documents entre l’environnement mis à disposition par le DIP et les divers environnement acquis dans le domaine privé (même si les logiciels libres peuvent gratuitement être installés à domicile) ;

– ressources insuffisantes pour accompagner le changement et assurer une aide locale aux utilisateurs ;

– manque de clarté des objectifs de l’Etat dans le domaine des SOLL et impression que le DIP fait cavalier seul (ou, plus grave, renoncement de l’Etat à ses objectifs) ;

Et pour se donner le maximum de chances de franchir l’obstacle :

Dans la plupart des cas, la réponse aux préoccupations décrites passe par un effort d’information et de formation. Il faudra en particulier :

– rendre très clairement lisibles les objectifs de l’Etat et du DIP ;

– assurer lors de chaque migration une réelle plus-value pour les utilisateurs, soit pour la couverture des besoins, soit dans la mise à jour et la maintenance du poste, soit pour le support et la maintenance ou encore l’autoformation en ligne ;

– être en mesure d’apporter une aide spécifique, personnalisée, locale, efficace et rapide pour résoudre les problématiques soulevées.

Le plan décrit dans ce document est évolutif. Il pourra être adapté en fonction des opportunités ou difficultés rencontrées au sein du périmètre concerné, ou en fonction de l’évolution du contexte (politique des éditeurs de logiciels, modification des orientations globales de l’Etat, etc.).

Face à ce types d’initiatives, vous pouvez être certain que la politique de certains éditeurs, que l’on ne nommera pas, va évoluer, et évoluer dans le bon sens (ce n’est pas autrement que s’y prend le Becta en Angleterre).

Et pour conclure :

Le but visé par la transition vers les standards ouverts et les logiciels libres consiste en premier lieu à améliorer la qualité et la pérennité des outils informatiques mis à la disposition de l’enseignement.

Les avantages sont évidents dans une perspective globale. Vue du terrain, la réalité est nettement plus nuancée étant donné l’effort personnel que demande le changement d’habitudes et de moyens.

C’est la raison pour laquelle la compréhension par chacun des enjeux est essentielle, de même que la qualité de l’accompagnement qui devra soutenir la démarche.

Voilà une démarche que nous allons suivre de près.

Si vous voulez mon humble avis, on serait bien inspiré d’inviter nos amis du SEM au prochain Salon de l’Éducation à Paris, avec le secret espoir d’être remarqués par notre ministre et ses experts conseillers.

PS : La source de ce billet provient de l’article Écoles : l’informatique en logiciels libres du quotidien suisse indépendant Le Courrier, qui cite souvent le directeur du SEM Manuel Grandjean : « On ne va pas changer une Ferrari pour une 2CV juste parce qu’elle est open source » ou encore « Le travail d’enseignant intègre largement la collaboration et la mise en commun de ressources (…) On est véritablement dans une défense du bien commun ».

Notes

[1] Crédit photo : Broma (Creative Commons By)




Mésentente cordiale entre Stallman et le Parti Pirate suédois sur le logiciel libre

Mecredis - CC byPourquoi les propositions du Parti Pirate suédois sont paradoxalement susceptibles de se retourner contre le logiciel libre ?

C’est ce que nous relate Richard Stallman[1] dans un récent article traduit pas nos soins, où l’on s’apercevra que la réduction du copyright et la mise dans le domaine public ont peut-être plus d’inconvénients que d’avantages lorsqu’il s’agit du cas très particulier des logiciels libres.

Remarque : Cette traduction vous est proposée par Framalang dans le cadre d’une collaboration avec l’April (dont Cédric Corazza a assuré la relecture finale).

Pourquoi les propositions du Parti Pirate suédois se retournent contre le logiciel libre

How the Swedish Pirate Party Platform Backfires on Free Software
URL d’origine de la traduction

Richard Stallman – 24 juillet 2009 – GNU.org
(Traduction Framalang : Don Rico, Goofy et aKa)

La campagne de harcèlement à laquelle se livre l’industrie du copyright en Suède a conduit à la création du premier parti politique dont le programme vise à réduire les restrictions dues au copyright : le Parti Pirate. Parmi ses propositions, on trouve l’interdiction des DRM, la légalisation du partage à but non lucratif d’œuvres culturelles, et la réduction à une durée de cinq ans du copyright pour une utilisation commerciale. Cinq ans après sa publication, toute œuvre publiée passerait dans le domaine public.

Dans l’ensemble, je suis favorable à ces changements, mais l’ironie de la chose, c’est que ce choix particulier effectué par le Parti Pirate aurait un effet néfaste sur le logiciel libre. Je suis convaincu qu’ils n’avaient nulle intention de nuire au logiciel libre, mais c’est pourtant ce qui se produirait.

En effet, la GNU General Public License (NdT : ou licence GPL) et d’autres licences copyleft se servent du copyright pour défendre la liberté de tous les utilisateurs. La GPL permet à chacun de publier des programmes modifiés, mais à condition de garder la même licence. La redistribution d’un programme qui n’aurait pas été modifié doit elle aussi conserver la même licence. Et tous ceux qui redistribuent doivent donner aux utilisateurs l’accès au code source du logiciel.

Pourquoi les propositions du Parti Pirate suédois affecteraient-elles un logiciel libre placé sous copyleft ? Au bout de cinq ans, son code source passerait dans le domaine public, et les développeurs de logiciel privateur pourraient alors l’inclure dans leurs programmes. Mais qu’en est-il du cas inverse ?

Le logiciel privateur est soumis à des CLUF, pas seulement au copyright, et les utilisateurs n’en ont pas le code source. Même si le copyright permet le partage à but non commercial, il se peut que les CLUF, eux, l’interdisent. Qui plus est, les utilisateurs, n’ayant pas accès au code source, ne contrôlent pas les actions du programme lorsqu’ils l’exécutent. Exécuter un de ces programmes revient à abandonner votre liberté et à donner au développeur du pouvoir sur vous.

Que se passerait-il si le copyright de ce programme prenait fin au bout de cinq ans ? Cela n’obligerait en rien les développeurs à libérer le code source, et il y a fort à parier que la plupart ne le feront jamais. Les utilisateurs, que l’on privera toujours du code source, se verraient toujours dans l’impossibilité d’utiliser ce programme en toute liberté. Ce programme pourrait même contenir une « bombe à retardement » conçue pour empêcher son fonctionnement au bout de cinq ans, auquel cas les exemplaires passés dans le « domaine public » ne fonctionneraient tout simplement pas.

Ainsi, la proposition du Parti Pirate donnerait aux développeurs de logiciels privateurs la jouissance du code source protégé par la GPL, après cinq ans, mais elle ne permettrait pas aux développeurs de logiciel libre d’utiliser du code propriétaire, ni après cinq ans, ni même cinquante. Le monde du Libre ne récolterait donc que les inconvénients et aucun avantage. La différence entre code source et code objet, ainsi que la pratique des CLUF, permettraient bel et bien au logiciel privateur de déroger à la règle générale du copyright de cinq ans, ce dont ne pourrait profiter le logiciel libre.

Nous nous servons aussi du copyright pour atténuer en partie le danger que représentent les brevets logiciels. Nous ne pouvons en protéger complètement nos programmes, nul programme n’est à l’abri des brevets logiciels dans un pays où ils sont autorisés, mais au moins nous empêchons qu’on les utilise pour rendre le programme non-libre. Le Parti Pirate propose d’abolir les brevets logiciels, et si cela se produisait, ce problème ne se poserait plus. Mais en attendant, nous ne devons pas perdre notre seul moyen de protection contre les brevets.

Aussitôt après que le Parti Pirate a annoncé ses propositions, les développeurs de logiciel libre ont décelé cet effet secondaire et proposé qu’on établisse une règle à part pour le logiciel libre : on allongerait la durée du copyright pour le logiciel libre, de sorte que l’on puisse le garder sous licence copyleft. Cette exception explicite accordée au logiciel libre contrebalancerait l’exception de fait dont bénéficierait le logiciel privateur. Dix ans devraient suffire, à mon sens. Toutefois, cette proposition s’est heurtée à une forte résistance des dirigeants du Parti Pirate, qui refusent de faire un cas particulier en allongeant la durée du copyright.

Je pourrais approuver une loi par laquelle le code source d’un logiciel placé sous licence GPL passerait dans le domaine public au bout de cinq ans, à condition que cette loi ait le même effet sur le code source des logiciels privateurs. Car le copyleft n’est qu’un moyen pour atteindre une fin (la liberté de l’utilisateur), et pas une fin en soi. En outre, j’aimerais autant ne pas me faire le chantre d’un copyright plus fort.

J’ai donc proposé que le programme du Parti Pirate exige que le code source des logiciels privateurs soit déposé en main tierce dès la publication des binaires. Ce code source serait ensuite placé dans le domaine public au bout de cinq ans. Au lieu d’accorder au logiciel libre une exception officielle à la règle des cinq ans de copyright, ce système éliminerait l’exception officieuse dont bénéficierait le logiciel privateur. D’un côté comme de l’autre, le résultat est équitable.

Un partisan du Parti Pirate a proposé une variante plus large de ma première suggestion : une règle générale selon laquelle le copyright serait allongé à mesure que l’on accorde plus de liberté au public dans l’utilisation du programme. Cette solution présente l’avantage d’insérer le logiciel libre dans un mouvement collectif de copyright à durée variable au lieu de n’en faire qu’une exception isolée.

Je préfèrerais la solution de la main tierce, mais l’une ou l’autre de ces méthodes éviterait un retour de flamme, particulièrement nuisible au logiciel libre. Il existe sans doute d’autres solutions. Quoi qu’il en soit, le Parti Pirate suédois devrait éviter d’infliger un handicap à un mouvement spécifique lorsqu’il se propose de défendre la population contre les géants prédateurs.

Notes

[1] Crédit photo : Mecredis (Creative Commons By)




Largage de liens en vrac #19

Silvio Tanaka - CC byCe n’est pas parce que les vacances approchent qu’il faut arrêter de farfouiller le Web à la recherche d’actualités logicielles intéressantes (ou supposées intéressantes).

Voici donc une sélection qui contrairement à beaucoup d’entre vous est loin d’être au régime.

Et n’oubliez jamais que « ebony and ivory live together in perfect harmony »[1].

  • Jake : Une application ambitieuse de synchronisation de documents (via le protocole XMPP). Le about tente d’expliquer en quoi c’est différent mais proche de SVN, CS, Git, Google Docs, Dropbox… (en gros la principale différence c’est qu’il n’y a plus de serveur central). I’m waiting for you dans les commentaires pour nous en dire plus (et mieux !).
  • Open Atrium : Basé sur Drupal, un ambitieux projet de « groupware réseau social ». Si vous connaissez, n’hésitez pas à partagez votre avis avec nous !
  • Hawkscope : Pour tout OS, une manière rapide d’accèder à votre disque dur via des menus popup dynamiques (en plus on peut paramétrer ses comptes Gmail, Delicious, Twitter, etc.).
  • Sugar on a stick : Sugar, l’interface de l’OLPC pensée pour l’éducation (théorie constructiviste) propose désormais une version portable. Ce qui fait dire à Technology Review que le PC à 100$ est aujourd’hui devenu une clé à 5$ !
  • MegaZine 3 : C’est encore du Flash mais ça pourra en intéresser quelques uns : c’est un logiciel de… pageflip ! Vous ne savez pas ce que c’est ? Moi non plus, enfin si cela permet de lire « agréablement » des livres ou des documents en ouvrant une fenêtre sur votre navigateur.
  • Open Melody : Un peu pris de vitesse par WordPress, le moteur de blog Movable Type libère lui aussi son code pour créer une communauté et plus si affinités.
  • TinyMCE : Peut-être le plus élégant (et le plus riche) des éditeur JavaScript WYSIWYG.
  • lilURL : Le clone libre de TinyURL (vous savez, ces réducteurs d’URL revenus sur le devant de la scène avec Twitter).
  • Open Source Designers : Un réseau social (Ning) de designers Open Source. Pas idiot de se regrouper ainsi.
  • Open Humanity : Nous aurons l’occasion d’en reparler. Pour le moment contentons-nous de ce résumé de Scoffoni : Open Humanity se situe « à mi-chemin entre un réseau social et un webOS ».
  • KeynoteTweet : Permet d’envoyer des tweets à partir du logiciel Apple Keynote dont les geeks se servent beaucoup en conférence. Vous arrivez au slide 23 et un message twitter est automatiquement envoyé à vos followers.
  • GDocBackup  : Utilise la techno Microsoft .NET mais c’est bien pratique si vous avec un compte Google Docs puisque cela permet de rapatrier sur votre disque dur tous vos fichiers d’un coup (typiquement le genre de fonctionnalités que Google ne propose pas exprès !)
  • The Pencil Project : C’est plus qu’une extension Firefox, c’est une véritable application intégrée pour faire des diagrammes et des prototypes d’interfaces utilisateur.. Là encore retours commentaires appréciés.
  • VideoSurf Videos at a Glance : Une extension Firefox plutôt pratique puisque cela permet de prévoir le contenu d’une vidéo (YouTube & co) à l’aide d’images fixes découpant la vidéo. Faut l’expérimenter pour mieux comprendre en fait !
  • Nuke Anything Enhanced : Et encore une extension Firefox, mais non des moindres ! Permet en effet de cacher temporairement ou durablement n’importe quel partie d’une page web. Ainsi par exemple je peux virer tout ce qui ne m’intéresse pas, pubs et autres, avant impression (cf vidéo démo sur LifeHacker).
  • Collections : Je ne connaissais pas (shame on me). Permet de compiler dans un seul pack tout plein d’extensions Firefox à installer d’un seul coup (top pratique surtout lorsque l’on change d’ordinateur). On vous explique ici comment faire. Des volontaires pour que Framasoft participe et vous propose aussi ses propres sélections ?
  • Recording music with Linux on an EEE PC : Toujours avec l’Eee Pc, que l’on transforme ici en parfait système pour la prise de son (par exemple pour partir jouer les reporter radio en herbe).
  • YouTube / Ogg/Theora comparison : YouTube va-t-il passer à Ogg Theora pour encoder ses videos (comme Dailymotion l’expériemente) ? Peut-être pas mais en attendant une petite comparaison qualité s’impose.
  • Library à la Carte : Joli titre et interface sexy. Un logiciel pour les bibliothécaires et les documentalistes. D’ailleurs si l’un d’entre vous passe par là…

Notes

[1] Crédit photo : Silvio Tanaka (Creative Commons By)




La Framakey : 4 ans et quelques enfants ingrats ?

Arturo de Albornoz - CC by-saVoici la deuxième partie d’un article qui, à l’occasion du quatrième anniversaire de la Framakey (déjà !), passe en revue quelques uns des projets qui s’en sont plus ou moins fortement inspirés. Nous en sommes évidemment ravis puisque le but de la manœuvre est justement de diffuser du logiciel libre, qu’il s’agisse d’utiliser la Framakey en tant que telle ou qu’il s’agisse de ses dérivés, créés à partir de nos briques génériques. Qu’il nous soit d’ailleurs permis de remercier une nouvelle fois au passage toutes celles et ceux qui ont rendu cela possible.

Mais si dans la première partie nous baignions quelque part dans une sorte de cercle vertueux, c’est plutôt « le côté obscur de la Force » qui transparait ici[1].

Car la Framakey a également « inspiré », et nous étions au départ ravis de l’apprendre, quelques gros fabricants de clés et de périphériques de stockage :

  • EMTEC, qui a longtemps diffusé (diffuse encore ?) le bureau mobile EM-DESK qui, à l’époque où nous l’avions testé, était très largement basé sur la Framakey.
  • Memup, qui va sortir sous peu sa Student-Key. N’ayant pas encore vu le produit final, je m’avance peut être un peu en prétendant qu’il s’agit d’un dérivé contenant des applications Framakey, nous verrons bien si les lanceurs sont ceux de Framakey (eux-mêmes basés sur ceux de la communauté anglophone PortableApps.com).
  • Enfin, nous savons que d’autres industriels du stockage, dont nous tairons les nom (pour l’instant), réfléchissent à l’implémentation de solutions libres applicatives pour leurs périphériques USB.

Soyons clairs, cela est parfaitement légal : la Framakey est un package 100% libre. Nous autorisons donc explicitement son intégration, y compris pour des usages commerciaux. Nous sommes par ailleurs bien conscients que le succès de la Framakey repose à 99% sur des projets libres préexistants (Firefox, OpenOffice.org, PortableApps.com, etc).

Donc, sur le papier, il n’y a aucune raison de râler. D’autant plus que, répétons-nous, cela permet de diffuser très largement des logiciels libres : lorsque Tata Jeannine ira au supermarché du coin pour acheter sa clé, elle repartira avec une clé USB contenant des dizaines de logiciels libres. N’est-ce pas merveilleux ?

Oui, mais…

Le développement durable et l’écologie sont certes à la mode, et sans doute surexploités par les média et bon nombre d’entreprises (les publicités des groupes Renault ou Total sont d’excellents exemples de « greenwashing »), mais cela ne doit pas pour autant remettre en cause les concepts et principes qui sous-tendent ces mouvements.

De même, dans le milieu du libre, on sent depuis quelques mois une forme de plus en plus exacerbée « d’open source whashing ». De gros industriels récupèrent les valeurs (et les produits) du libre, sachant qu’ils bénéficieront du triple effet kiss-cool du logiciel libre :

  • la possibilité légalement octroyée de pouvoir se baser sur le travail libre d’autrui et de faire du « rebranding » (en gros, y mettre leur logo en laissant croire que c’est eux qui ont réalisé le produit) ;
  • la gratuité (qu’on le veuille ou non, omniprésente dans le libre) ;
  • des valeurs cool-buzz-hype : le partage, l’entraide, la collaboration, etc (allez savoir pourquoi, mais je doute qu’ils mettent l’intéropérabilité dans les valeurs cools, alors que pourtant…), y’a pas à dire « le libre : c’est vendeur, coco ! ».

Du coup, ces entreprises peuvent ajouter de la valeur à leurs produits à moindre frais, enrichir leur catalogue, et accroitre leur chiffre d’affaires d’un coup de baguette magique libre.

Tout cela serait bel et bon si ces mêmes entreprises prenaient la peine de reverser aux communautés à l’origine de la valeur ajoutée de leurs produits. Et attention, je pense bien sûr ici à la Framakey (dont nous sommes humblement conscient que le succès repose sur les épaules d’autres géants), mais aussi et surtout à toutes les communautés qui soutiennent et développent les logiciels embarqués sur leurs clés.

Ainsi, par exemple et pour ce qui nous concerne, l’Université de Poitiers qui s’est fendue d’un mail de remerciements à Framakey (et cela nous suffit amplement), ou la commune de Sainte-Ménehould qui a octroyée une subvention exceptionnelle de 150€ à Framasoft (ce qui nous a chaleureusement touché).

Contre-exemple : le site officiel EM-DESK d’EMTEC propose des logiciels qui datent de janvier 2008 (bonjour les failles de sécurité pour qui irait télécharger leur pack !). Nous avons tenté plusieurs fois de prendre contact avec eux afin de leur proposer de les aider (bénévolement si nécessaire !) à maintenir leur pack plutôt que donner aux utilisateurs une mauvaise image des logiciels libres.

Mais que cela soit par le forum (fermé pour cause de spams apparemment), par email (nous n’avons jamais eu de réponse), ou sur des salons (la charmante demoiselle du stand EMTEC lors de Solution Linux n’a pas su me dire quelle solution était employée sur leurs clés, ni qui en était responsable), nos propositions sont restées lettres mortes.

De là à dire qu’EMTEC se sert du libre pour promouvoir ses produits et accroitre les dividendes de ses actionnaires plutôt que de l’envisager comme un système gagnant-gagnant, il n’y a qu’un pas, que je franchis aujourd’hui bien tristement. Espérons qu’il en ira autrement pour d’autres projets comme le GDium et sa Gkey….

Pour en finir avec la métaphore écologique, cette situation n’est pas sans rappeler celles des entreprises pharmaceutiques qui surexploitent certaines ressources potentiellement renouvelables (comme la forêt amazonienne, par exemple) sans se soucier réellement d’entretenir l’écosystème sur lequel elles basent pourtant leur modèle économique.

Ainsi, même si Framasoft a actuellement besoin de soutien financier, nous aurions été ravis de recevoir un message du genre « Bonjour, je suis chargé par la société X de réaliser un fork de la Framakey. Dans ce cadre, je vais utiliser vos applications PortableTutu et PortableTiti. Comme on m’a demandé de réaliser PortableToto, qui n’existe pas sur Framakey, je vous le propose ici avec ses sources, afin que tout le monde puisse en profiter ». La société X n’y perdrait rien, au contraire, elle bénéficierait d’un « effet communautaire » qui lui éviterait de forts coûts de recherche et développement. Et elle aurait le mérite de prouver qu’elle comprend son intérêt à ne pas scier la branche sur laquelle elle est assise.

Qu’en pensez-vous ? Sommes-nous ici « mauvais joueurs » ou bien avons-nous quelques raisons de stigmatiser cela en évoquant ce néologisme « d’open source whashing » ?

Notes

[1] Crédit photo : Arturo de Albornoz (Creative Commons By-Sa)




Google Wave : une bonne nouvelle pour le logiciel libre ?

Rappensuncle - CC by-sa« Google Wave, c’est ce que pourrait être le mail si on devait l’inventer aujourd’hui » s’exclame le grand Tim O’Reilly, se mettant ainsi au diapason de cette autre citation, « Wave va rendre caducs tous les outils actuels de communication », entendue au moment même de la présentation de ce nouveau projet, il y a quinze jours de cela.

Le dévoilement de Wave a d’abord valu à Google une standing ovation au sortir de la conférence inaugurale. Puis, dans la foulée, des articles souvent dithyrambiques sont apparus sur la Toile. C’est donc clairement la sensation du moment, avant même que le moindre utilisateur ait pu tester quoi que ce soit. Une nouvelle vague (wave en anglais) va-t-elle déferler sur le Web ?

Si vous voulez en savoir plus quant à son approche originale et à ses fonctionnalités, je vous invite à lire theClimber, TechCrunch ou Transnets. Outre tout ce qu’il nous propose de faire, retenons qu’on a besoin du HTML 5 et surtout que le protocole sera Open Source, basé sur XMPP (Jabber), avec un serveur qui sera libre et qu’on pourra installer chez soi (cf Minitel 2.0).

Cet aspect libre (ou prétendu tel) est très important et n’a pas forcément été mis en avant par la blogosphère (sauf l’inévitable journal LinuxFr). Pour marquer le coup et nous interroger ensemble sur l’impact potentiel d’une telle nouveauté sur le logiciel libre, nous avons choisi de traduire un article enthousiaste (peut-être trop ?) issu de la revue Free Software Magazine.

Cet article envisage Google Wave sous l’angle de ce qu’il pourrait apporter à une communauté agrégée autour d’un logiciel libre. Jusqu’à se demander si Wave ne va pas se substituer aux bons vieux outils que sont les logiciels de gestion de versions (CVS, etc.), les wikis, et autres listes de discussion. Ce qui, au sein des développeurs, serait effectivement une petite révolution dans la manière de travailler et de communiquer.

Mais il n’entre pas dans le détail des licences, dans l’évalutation du degré réel ou supposé de l’ouverture annoncée par Google (à sa décharge, on ne dispose à l’heure actuelle que le peu d’informations qu’a bien voulu nous donner la société). Et surtout il oublie d’évoquer une, pour ne pas dire la, question majeure que l’on résume souvent dans la formule « Google everywhere ». Ok pour la possibilité d’avoir son petit serveur à domicile mais dans la pratique la grande majorité se connectera à n’en pas douter chez Google. Du Google partout, tout le temps, qui va finir par devenir problématique (si ça ne l’est pas déjà !). On peut, par exemple, compter sur Google pour nous proposer son navigateur Chrome configuré aux petits oignons pour Google Wave, si vous voyez ce que je veux dire.

Aussi puissant, séduisant et ouvert (protocole, API…) soit Google Wave, le logiciel libre a-t-il intérêt à surfer tête baissée sur cette vague[1], ou bien laisser couler et continuer tranquillement dans son coin à ériger sa petite berge qui deviendra un jour si haute que pas même un tsunami ne pourra l’emporter ?

Google Wave va-t-il révolutionner la collaboration dans le logiciel libre ?

Will Google Wave revolutionise free software collaboration?

Ryan Cartwright – 15 juin 2009 – Free Software Magazine
(Traduction Framalang : Poupoul2, Daria et Tyah)

Si vous n’en avez pas encore entendu parler, Google a publié une version de développement de Wave, son nouvel outil de réseau social et collaboratif. Quel impact cela peut-il avoir sur les utilisateurs et les développeurs de logiciel libre ?

Wave est ce que Google appelle un « nouvel outil de communication et de collaboration sur le Web ». Voyez-le comme un carrefour entre le courriel, le réseau social, la messagerie instantanée, l’IRC et Twitter. Wave apporte (ou plus exactement apportera) non seulement de nouveaux moyens de communication, mais offre également un retour instantané aux autres participants. En utilisant la base d’une vague comme une conversation, il permet aux destinataires de vos conversations de voir ce que vous écrivez en temps réel, au moment où vous l’écrivez. Plus besoin d’attendre que votre contact de messagerie instantanée termine son message. Wave offre également aux participants, dans le même outil, des messages de type panneau d’affichage, afin de savoir à quel moment ils se reconnectent. Il propose des fonctionnalités sympathiques qui permettent contextuellement de répondre à différentes parties d’un message. De nouveaux participants peuvent entrer à n’importe quel moment, tout en bénéficiant à la fois de l’historique complet de la vague, mais aussi en ayant la possibilité de « rejouer la vague » telle qu’elle s’est formée, en voyant qui a écrit quoi et dans l’ordre chronologique.

Ouais, ouais, encore un outil de réseautage social… allez, circulez !

Aussi intéressant, ou pas, que cela puisse paraître, quel impact cela aura-t-il pour nous, utilisateurs de logiciels libres et plus particulièrement développeurs ? Et bien, tout d’abord, Wave est développé grâce à un nouveau protocole ouvert et Google souhaite que nous l’aidions à le développer. Ce protocole est disponible sous les termes ouverts d’une licence que Google considère « libérale » (Un oxymore peut-être ?). En plaçant un protocole ouvert derrière cette technologie, Google nous invite activement à contribuer, distribuer et propager cette technologie. Cela signifie que nous, utilisateurs de logiciels libres, pouvons créer des outils libres qui utilisent le protocole Wave. Un protocole ouvert est assurément une bonne chose dans ce contexte : Pas d’accord de confidentialité, pas de royalties liées à des licences telles que pour les formats GIF ou MP3. Google nous demande également que nous aidions à donner forme au protocole. Les contributions sont réalisées sous un contrat de licence contributeur, qui insiste sur le fait que vous donnez à Google, le droit de « reproduire, construire des travaux dérivés, publier, exécuter en public, sous-licencier et distribuer vos contributions et les travaux dérivés associés ». Google semble être parti sur la bonne voie. Le temps nous en dira bien sûr plus, mais nous ne devrions pas être trop sceptique, c’est une opportunité réelle. Là où Android est un système ouvert sur un matériel fermé, en devenant ainsi de fait semi-fermé, nous avons une chance de développer Wave avec une foule d’outils libres et ouverts basés sur l’API et le protocole de Wave.

Google a livré quelques informations sur le fait de conserver le code source ouvert. Mais jusqu’à présent, ils n’ont publié aucun code source (à l’exception peut-être pour la version développeur, dont je ne fais pas partie), Cependant, même s’ils conservent les sources de l’API fermées, disposer d’un protocole ouvert (et d’une licence libérale) signifie que nous pouvons créer des outils qui utiliseront ce protocole et que ceux qui utiliseront les outils de Google pourront collaborer avec ces outils libres, du moins en théorie.

Mais qu’est-ce que cela peut nous apporter ?

Pensez à la manière de développer du logiciel libre. Peut-être plus que n’importe quel autre type de produits, le logiciel libre a besoin d’un effort collaboratif intense de la part de ses créateurs. Grâce à SVN, Sourceforge et consorts, nous avons des moyens de partager du code source et nous possédons des outils de communication durant le cycle de développement : wiki, panneaux d’affichage, liste de dicusssions, etc. Imaginez que vous disposez d’une « vague » pour les développeurs d’un projet logiciel. Chaque contributeur, en temps réel s’il le souhaite, dispose d’une conversation sans peur de perdre le fil dans de multiples embranchements. Les nouveaux membres peuvent rejouer la discussion pour comprendre l’état présent. Des fragments de code pourraient être placés à l’intérieur de la conversation et édités en temps réel par les autres membres. Et tout cela se déroule dans un des outils les plus communs, le navigateur. Les rassemblements de développeurs pourraient inclure ceux qui ne peuvent participer physiquement grâce à l’utilisation d’une vague. Les meilleurs esprits ne seront plus exclus parce qu’ils n’ont pu réserver une place dans l’avion[2].

Si cela semble excitant, c’est parce que je m’exalte. Google Wave a le potentiel pour aller bien au-delà du simple buzz pour foules numériques. Wave a la possibilité de réellement faire du bruit et de représenter un grand pas dans la manière dont nous développons du logiciel libre. Évidemment, il m’est venu à l’esprit que les développeurs de logiciels propriétaires pourraient utiliser le même système pour produire leurs logiciels, mais soyons honnêtes : qui de deux est le plus habitué à la collaboration (en réalité, en dépend même) ?

J’ai entendu certaines personnes dire que Google Wave pourrait dépasser Twitter et Facebook d’ici 2011. Je n’en sais rien, et même peu m’importe, mais je crois que Wave peut avoir un impact aussi fort sur le développement de logiciel libre que CVS ou les wikis.

Notes

[1] Crédit photo : Rappensuncle (Creative Commons By-Sa)

[2] Non pas que j’ai entendu que cela arrive, je conjecture juste.




Un vidéo-clip réalisé avec 4 816 photos sous licence Creative Commons By-Sa

« You Came Out » est le dernier single du groupe electro We Have Band.

Le joli clip de cette chanson a été réalisé en stop motion, succession d’images fixes légèrement déplacées les unes des autres pour donner l’impression d’un mouvement saccadé caractéristique.

Pour que le procédé fonctionne bien, il convient de proposer beaucoup de photographies par unité de temps. Ici on a donc un clip de trois minutes pour exactement… 4 816 photographies.

Elles ont toutes été regroupées sur un compte Flickr dédié et ont été placée, riche idée, sous licence Creative Commons By-Sa.

Ce qui donne d’un coup près de cinq milles photos qui viennent enrichir la culture libre 😉

—> La vidéo au format webm

Cette vidéo a été réalisée par David Wilson, en collaboration avec Fabian Berglund et Ida Gronblom (de l’agence Wieden + Kennedy), et produite par Blinkink. Un intéressant making-of du clip est également disponible.