Wikipédia et éducation : un exemple de réconciliation 6/6

Cet article clôt le dossier Wikipédia et éducation : un exemple de réconciliation.

Il propose une sélections de liens pour informer, débattre et aller plus loin.

Liens francophones connexes

Revue de « presse » de ce dossier

  • Wikipédia comme support de travail universitaire ? – Adrienne Alix – Compteurdedit – 17 février 2009
    « Il va encore plus loin en se demandant s’il est plus formateur et plus utile à un étudiant de savoir argumenter sur un sujet donné (cadre d’une dissertation) ou de savoir présenter les connaissances liées à ce sujet, d’être capable de faire des recherches sur un sujet, de synthétiser des sources, de confronter son travail au regard des autres et de travailler en collaboration. C’est le genre de débat qui créerait immédiatement des hurlements dans une assemblée d’enseignants, mais je crois que c’est très intéressant si on se demande un peu ce que Wikipédia peut apporter à l’enseignement universitaire. Le volet argumentation pure, très académique, est une chose sans doute essentielle à maîtriser. Mais l’écriture collaborative, avec des exigences de qualité formelle et de sourçage, la synthétisation du savoir existant, la confrontation au regard des autres, toutes ces choses qui sont le principe même du fonctionnement de Wikipédia, je crois très sincèrement que c’est une part de pédagogie qui n’existe pas dans l’enseignement et qui serait pourtant très bonne pour l’esprit et très utile dans le monde professionnel, où on argumente rarement par dissertation. »
  • Une expérience canadienne réconcilie Wikipedia et éducation – Mathieu Grégoire-Racicot – Le Quotidien Jurassien – 20 février 2009
    « Avenir et partage de la connaissance pour les uns, royaume du plagiat et l’opinion mal formulée pour les autres, l’encyclopédie collaborative Wikipedia a une réputation controversée, sulfureuse, spécialement dans le monde de l’éducation. Or une petite histoire, rapportée par le très fouillé et très actif Framablog, tenu par un professeur de lycée français, montre à quel point des projets pédagogiques pourraient se trouver enrichis, encadrés et davantage formateurs en utilisant Wikipedia, non comme une source, mais comme aboutissement de travaux de recherche. »

Autour de l’éducation

  • Projets pédagogiques – Wikipédia
    « Si vous êtes un enseignant dans une école ou dans une université, nous vous encourageons à utiliser Wikipédia dans votre classe non seulement comme source d’information mais comme espace de rédaction et de construction de connaissances. »
  • Wikipédia : la rejeter ou la domestiquer ? – Eric Bruillard – Médialog 61 – mars 2007
    « Le phénomène Wikipédia interpelle le monde enseignant. Quelle confiance peut-on accorder à une encyclopédie rédigée par ses lecteurs et dont les articles sont modifiés en permanence ? Quelle place l’École peut-elle lui faire ? »
  • D’un Club Histoire à un Club Wikipédia – Sylvain Négrier – septembre 2008
    « Quels usages vos élèves font-ils de Wikipédia ? Wikipédia est visiblement une source d’information importante pour eux. Sa valorisation par les moteurs de ucation-a-education-exemple-projet-pedagogique-6exemple-projet-pedagogique-6recherche (dont Google) en fait un point de départ quasi obligé. C’est particulièrement net pour les TPE et l’ECJS. Le problème majeur, mais ce n’est pas une découverte, c’est le manque de recul (voire de compréhension) de certains élèves. Cela leur joue parfois des tours : lors d’une composition à faire à la maison (…) Ceci dit les élèves ne sont pas totalement naïfs, et je les invite à exercer leur esprit critique, y compris envers ce que je leur enseigne : je ne me considère pas comme infaillible. »
  • Wikipédia et le cours d’histoire – Les Clionautes – septembre 2008
    « L’encyclopédie en ligne est devenue un des pôles majeurs sur le web, et une référence de choix pour beaucoup d’élèves et enseignants. Elle fait néanmoins l’objet de réticences et a suscité des débats très vifs ces dernières années. Ce premier article, qui prolonge la page Wikipédia en débats, a pour objectif de revisiter les étapes et les enjeux d’un débat très médiatisé, sur fond de divergences quant à la vision de la société et de l’éducation. Une réflexion sur la place de Wikipedia à l’école invite à interroger nos pratiques, et à proposer des pistes pragmatiques, à court et à moyen terme. »
  • L’histoire peut-elle être Open Source ? Les historiens et Wikipedia – Roy Rosenzweig (traduction Clioweb) – juin 2006
    « L’histoire est un art (un métier ?) éminemment individualiste. Les travaux signés d’une seule personne sont la règle dans la profession (…) Cet individualisme qui caractérise la recherche en histoire est aussi très possessif. Afin de travailler honnêtement, et éviter les accusations de plagiat, nous autres historiens devons attribuer idées et expressions à ceux qui les ont émises (…) Il est donc presque impossible d’envisager dans notre culture professionnelle des travaux historiques dénués de propriétaire, effectués par une multitude d’auteurs anonymes. C’est pourtant la définition exacte de Wikipedia. »
  • Wikipédia tente de pénétrer le milieu éducatif – François Jarraud – Café Pédagogique – décembre 2005
    « Le problème c’est que Wikipédia n’est malheureusement plus un outil recommandable pour les enseignants. Le projet, fort sympathique au départ, sert des intérêts qui suscitent des interrogations (…) Tant que la clarté ne sera pas faite sur le fonctionnement de Wikipédia et le ménage dans ses articles, nous déconseillons aux enseignants de l’utiliser avec les élèves. »
  • Wikipédia, une encyclopédie sans auteurs ? – Serge Pouts-Lajus – Les dossiers de l’Ingénierie Educative n°58 – juin 2007
    « Wikipédia est un projet apparemment sympathique. Il possède des qualités qui ne peuvent lui être contestées et auxquelles je suis, comme tout le monde, sensible : l’encyclopédie libre est utile, gratuite et d’accès facile. Mais justement, lorsqu’il s’agit de savoirs, d’œuvres de l’esprit et de culture, les considérations utilitaristes ne suffisent pas. Tant que l’on reste attaché au principe de responsabilité des individus et des collectifs particuliers relativement aux œuvres qu’ils produisent, il n’est pas possible d’adhérer à un tel projet. »
  • De sévères critiques de Wikipédia – Alithia – Blog : Wikipédia ou le mythe de la neutralité – janvier 2007
    « Cet article et le suivant qui le complète, cite un très grand nombre de critiques faites à wikipedia, par des professionnels de l’enseignement, de la recherche et de l’éducation. »
  • L’édition de référence libre et collaborative : le cas de Wikipédia – INRP – mars 2006 (le dossier complet en pdf)
    « Selon Cormac Lawler, Wikipedia n’est pas simplement une encyclopédie, ni même un nouveau modèle éditorial : le projet présente en effet les caractéristiques d’une organisation apprenante tant dans sa structure que dans son fonctionnement. A la lumière des recherches sur les communautés virtuelles ou les communautés de pratique, il identifie les éléments de convergence suivants : Wikipedia est auto-gérée, auto-sélective et auto-évolutive. Le potentiel de la communauté réside selon lui dans la promotion d’une pédagogie de la découverte et dans le développement de l’esprit critique nécessaire à son fonctionnement. Le conflit est perçu comme un ingrédient nécessaire à la négociation car il requiert une mise en perspective des différents points de vue et une prise en compte des différences culturelles (…) La confrontation des partis-pris culturels est un signe d’action critique manifeste dans un contexte où l’adhésion à la règle de neutralité est partagée et où la convivialité est assumée comme essentielle. »
  • Le phénomène Wikipédia : une utopie en marche – Christian Vandendorpe – Le Débat, no 148 – janvier 2008
    « Au lieu d’élever un pare-feu autour de Wikipédia, l’École aurait donc tout intérêt à s’en servir comme d’un outil pédagogique. Outil d’éducation pour apprendre à respecter le bien public et à ne pas vandaliser des articles ; outil de formation à la lecture critique, surtout, afin d’apprendre à ne pas prendre pour argent comptant tout ce qui s’écrit : en vérifiant la présence de sources crédibles, en comparant divers états d’un article, en comparant la version française avec des versions rédigées dans d’autres langues, en faisant des recherches complémentaires dans d’autres sources, numériques ou imprimées. Une telle attitude critique est plus nécessaire que jamais, alors que le mensonge et la dissimulation s’épanouissent dans la culture anonyme du web et que les plus hautes sphères de l’administration de pays qui se présentent comme des modèles de démocratie pratiquent la désinformation à grande échelle, comme on l’a vu lors de la campagne qui a conduit les États-Unis à envahir l’Iraq. »
  • Wikipédia, un objet problème en information-documentation – Pascal Duplessis et Laure Endrizzi – mai 2008
    « En premier lieu, certainement, Wikipédia s’affiche en tant qu’objet documentaire, support de ressources informationnelles, et dont l’usage doit pouvoir être garanti : l’information offerte, même si elle est gratuite et facilement accessible, est-elle pour autant « consommable », c’est-à-dire sans risque de préjudice pour la santé intellectuelle ? Si de nombreux collègues de discipline ne s’offusquent pas de cette incertitude, sans doute par insuffisance d’expertise, le garant de l’information documentaire en circulation dans l’établissement, lui, s’en inquiète. Quel statut accorder à cet apport d’information au regard des autres ressources disponibles dans ou à partir du CDI ? Quelles précautions prendre ? Quel type d’accompagnement proposer aux élèves ? Quel discours tenir au sujet de Wikipédia ? »
  • Wikipédia – Une encyclopédie libre, gratuite et écrite coopérativement – Alain Caraco – BBF – août 2004
    « Wikipédia est-elle l’encyclopédie qu’attendaient les bibliothèques publiques françaises ? J’aurais tendance à répondre oui et non à la fois. Non dans son état actuel : trop de domaines sont insuffisamment couverts, trop d’articles sont encore à l’état d’une ébauche rédigée hâtivement. Mais, très certainement, oui dans un état futur (…) La Wikipédia en ligne ne peut être qu’en travaux permanents. C’est une sorte de chaudron bouillonnant, où l’on produit la matière première, toujours instable. Des éditions stabilisées, monolingues ou multilingues, sur cédérom, sur papier ou en ligne pourraient en être dérivées. Elles pourraient même être vendues par des éditeurs commerciaux, avec de la valeur ajoutée, notamment en matière de présentation ou d’illustration. Ce modèle économique existe déjà pour les logiciels libres : on peut télécharger Linux auprès de la communauté des développeurs, ou bien acheter une version commerciale, avec un mode d’emploi et une assistance téléphonique. »
  • C’est rien qu’à cause de Wikipédia si nos enfants échouent ! – Framablog – octobre 2008
    « Hier on apprenait en Écosse que c’est Internet qu’il faut blâmer pour le taux d’échec aux examens (…) Wikipédia, parmi d’autres sources, était cité comme étant la raison pour laquelle les étudiants échouent. Est-ce que Internet les rend stupides ? Ou bien est-ce que les étudiants ont seulement besoin d’apprendre à utiliser les nouveaux outils de recherche du Web de façon plus appropriée ? »
  • Ceux qui disent non… à Wikipédia – Astrid Girardeau – Les Écrans – janvier 2008
    « Diaboliser et interdire des sites Internet sous prétexte que les étudiants n’utilisent pas assez leurs propres cerveaux et les contenus académiques, on a vu plus constructif et efficace. Quand on observe l’ergonomie ou la disponibilité des outils d’information académiques accessibles à l’université pour les étudiants, fait remarquer Ertzcheid, on comprend hélas très facilement pourquoi ils préfèrent utiliser Wikipédia ou Google. S’en désoler ne servira à rien. »
  • Wikipédia est un projet encyclopédique et un bien commun de l’humanité – Astrid Girardeau – Les Écrans – janvier 2008
    « Pour 1 enseignant ou 1 université interdisant d’utiliser Wikipédia, 100 autres forment les étudiants à son usage, les aident à décrypter ses contenus. Ce faux-procès en incompétence qui est de plus en plus souvent fait à Wikipédia est d’autant plus horripilant que Wikipédia affiche clairement sur sa page d’accueil le fait qu’elle ne doit pas être utilisée comme une source primaire d’information. »

Plus général

  • Wikipédia – Wikipédia
    « Comme l’indique la première ligne de sa page d’accueil, Wikipédia a pour slogan : Le projet d’encyclopédie librement distribuable que chacun peut améliorer. Ce projet est décrit par son cofondateur Jimmy Wales comme un effort pour créer et distribuer une encyclopédie libre de la meilleure qualité possible à chaque personne sur la terre dans sa langue maternelle (…) En revanche, Wikipédia n’a pas pour but de présenter des informations inédites. Comme pour les encyclopédies classiques, son ambition se limite à exposer des connaissances déjà établies et reconnues. Les travaux personnels ou originaux n’ont pas leur place dans Wikipédia. »
  • Critiques de Wikipédia – Wikipédia
    « Sébastien Blondeel, dans un livre sur Wikipédia, a écrit en 2006 : Wikipédia est un projet avec lequel il faudra compter. Et si les critiques commencent à se faire entendre, c’est paradoxalement plutôt bon signe : justifiées, elles permettent de prendre conscience des problèmes ; gratuites ou exagérées, elles confirment l’influence et le succès du projet. »
  • Wikipédia : constats et propositions – Nat Makarevitch – avril 2006
    « Ce document expose des problèmes et incohérences de Wikipedia, projet d’encyclopédie libre publiée sur le Web, dans le but de l’améliorer, non de dénigrer. Nous y montrons le caractère abusif de certaines actions menées par certains contributeurs. »
  • WikiGrill – Les articles de Wikipédia passés sur le gril de Books
    « Pour remarquable qu’elle soit, et globalement salutaire, l’entreprise Wikipédia invite à la critique. Si beaucoup d’articles de cette encyclopédie d’inspiration démocratique sont de grande qualité, d’autres ne résistent pas à un examen attentif. Soit parce que leur contenu est léger ou inconsistant, soit parce qu’il est manipulé, parfois avec une grande habileté, par des internautes ou des lobbies qui défendent un intérêt. Or, Wikipédia est devenu le premier mode d’accès au savoir pour les jeunes et les moins jeunes qui, sans avoir reçu de formation universitaire poussée, naviguent quotidiennement sur le web. Avec sa rubrique WikiGrill, Books souhaite attirer l’attention sur l’existence de biais qui influencent de manière plus ou moins cryptée la qualité ou l’objectivité de certains articles de Wikipédia. »
  • La réponse de Sylvain Négrier à l’initiative WikiGrill (décembre 2008) : Une lecture critique de Wikigrill
    « Les wikipédiens s’interrogent depuis longtemps sur ce qu’est un bon article. Ils ont défini progressivement deux labels, attribués après un vote des contributeurs, représentant chacun un palier dans le niveau des articles. Il s’agit du label Article de Qualité, le plus prestigieux, pour le moment décerné à un peu plus de 500 articles, et du label Bon Article, qui concerne près de 500 articles et qui récompense ceux qui sont satisfaisants mais qui paraissent encore améliorables. Les conditions d’attribution de ces labels se sont considérablement durcies ces derniers mois, au grand dam de certains wikipédiens, essentiellement pour que ces articles, proposés comme vitrine de Wikipédia (notamment en page d’accueil), puissent échapper aux critiques les plus évidentes. Cela ne constitue toutefois pas une garantie totale : ces articles ne sont que très rarement relus par d’authentiques spécialistes, et les discussions lors des votes se portent assez volontiers sur les aspects formels. Il aurait donc été particulièrement intéressant que les auteurs de Wikigrill™ s’attachent prioritairement à ces articles labellisés. Sont-ils réellement d’un bon niveau ? La procédure d’attribution des labels telle qu’elle existe est-elle à même de repérer les meilleurs articles ? Ne faudrait-il pas la remplacer par une relecture par un/des spécialiste(s) ? »
  • La réponse de Jean-Claude Guédon à l’initiative WikiGrill (janvier 2009) : Wikipedia ? Moi, j’aime plutôt bien
    « Wikipedia n’est pas un produit textuel fixe offert à la consommation; il s’agit d’un processus incessant qui nous convie à la table du plus grand banquet intellectuel jamais construit dans l’histoire de l’humanité. Déjà étonnamment utile, essayons d’imaginer ce que ce sera dans dix ou vingt ans. »
  • L’encyclopédie de non-référence – Denis Berger – février 2005
    « On sait que l’idée de Wikipedia, comme sa licence LGPL, viennent de l’univers du logiciel libre, tendance Stallman, et visent à reproduire dans le domaine de la connaissance ce qui a si bien réussi dans celui de l’informatique : l’élaboration d’un bien commun par la participation de tous, en fonction des moyens de chacun, puisque tout un chacun est présupposé dépositaire d’une parcelle de connaissance qui, si menue soit-elle, est susceptible d’intéresser l’ensemble. Mais la ressemblance entre un programme et une encyclopédie se limite au fait que, dans un cas comme dans l’autre, il faut commencer par les écrire ; le programme, lui, ensuite, s’exécute, et dispose donc de son propre système de correction d’erreurs, brutal mais efficace : s’il est mal écrit, il plante. Il offre donc, paradoxalement pour un logiciel libre par définition livré sans, une garantie quant à son fonctionnement, la disponibilité des sources comme des programmeurs permettant, de plus, en l’espèce, de résoudre rapidement les problèmes. Autrement dit, l’exportation de ce concept, tel qu’il est présenté, vers un projet encyclopédique se révèle privé de pertinence puisque, là, rien, en dehors d’une éventuelle relecture d’un participant qui pourra peut-être se trouver contredite un peu plus tard par un autre, ne garantit la qualité de l’information publiée ; ici, le mécanisme cumulatif et automatique qui permet l’amélioration continue du logiciel libre ne joue pas.  »
  • Inside Wikipédia – Camille Gévaudan – Les Écrans – juillet 2008
    « Ecrans.fr s’invite à l’intérieur de Wikipédia et vous propose d’aller voir comment un projet aussi pharaonique peut fonctionner au quotidien. »
  • Wikifeuilleton – Le Tigre
    « Les coulisses de l’encyclopédie collaborative Wikipedia. »
  • À propos de Wikipédia – Rui Nibau – Framasoft – mars 2006
    « Ici, je n’ai fait que voir un verre à moitié vide en n’abordant qu’un unique aspect des critiques formulées à l’encontre de Wikipédia. D’autres internautes peuvent – à juste titre – le voir à moitié plein. A un moment de son histoire où l’encyclopédie acquiert une visibilité croissante dans d’autres médias, et attire donc l’attention d’acteurs aux intérêts divergents, l’avenir proche nous dira si ce verre finira par se remplir ou par se briser. » (et la réponse de Nojhan : Wikipédia, l’encylopédie asymptotique)
  • Wikipédia : le refus du pouvoir – Mémoire de fin d’étude de Sylvain Firer-Blaess – Institut d’Etudes Politiques de Lyon – 2006/2007
    « Wikipédia refuse le pouvoir : elle refuse la possession de l’information aux plus fortuné, en rendant l’information libre. Elle refuse aussi la production du savoir par quelque uns, en donnant ce pouvoir à tous. Elle refuse dans son organisation les statuts spéciaux, elle refuse la centralisation de la surveillance et de la décision. Ainsi elle dissout le pouvoir et en donne une parcelle à chacun : le pouvoir de décider, le pouvoir de créer le savoir, le pouvoir de s’informer. Elle empêche ainsi fortement les processus de domination dans son organisation interne. Elle a aussi un impact sur le monde réel, impact certes minime, mais donner la possibilité aux personnes qui disposent d’une connexion internet de disposer d’un savoir libre et gratuit, c’est déjà quelque chose. »
  • D’Amour & de Neutralité : Ce(ux) qui résiste(nt) – Martin Erpicum – Mémoire universitaire – juillet 2005
    « L’objet empirique de ce mémoire est l’encyclopédie libre Wikipédia. De tout temps, les encyclopédies ont été un support à l’apprentissage d’un intérêt certain. L’apparition d’un type d’encyclopédie rédigée coopérativement par des pairs sur le réseau Internet a entraîné bon nombre de questionnements : critères de validation de la connaissance, contrôle des actes de vandalisme, régulation des contributeurs, etc. Afin d’éclairer en partie ces questionnements, le présent travail va tenter de décrire les pratiques de régulations inhérentes à la tâche de rédacteur encyclopédique, et de rendre compte des contraintes et normes émergentes qui encadrent l’activité des pairs. »

Succincte bibliographie

  • « Wikipédia, Découvrir, utiliser, contribuer » – Florence Devouard et Guillaume Paumier – Presses universitaires de Grenoble – janvier 2009
    « Ce livre vous guide à la découverte de cette gigantesque fourmilière et vous explique comment utiliser efficacement son contenu. Il vous incite ensuite à devenir acteur et à participer à la rédaction de l’encyclopédie, quels que soient votre âge et vos domaines de compétences. »
  • Wikipédia, Média de la connaissance démocratique ? Quand le citoyen lambda devient encyclopédiste – Marc Foglia – FYP Éditions – novembre 2007
    « Cherchez n’importe quel mot sur Google… Les deux premières pages de résultat, celles qui comptent, renvoient presque invariablement à un article de Wikipédia. Comment cette encyclopédie d’un nouveau genre s’est-elle installée comme une source universelle de connaissance, et désormais comme un réflexe intellectuel ? L’origine de ce phénomène, son fonctionnement et son évolution fulgurante sont autant d’appels à la réflexion.Wikipédia c’est la dématérialisation de la connaissance et la progression de son accessibilité : peut-on parler d’un nouveau média ? d’une Toile dans la Toile ? Que devient la propriété intellectuelle dans ce partage gratuit de la connaissance ? Pourra-t-on parler d’une « génération Wikipedia » ? Quels sont les risques que fait courir l’encyclopédie libre à la connaissance, au jugement et à l’esprit critique ? Ces interrogations nous permettent d’éclairer d’autres phénomènes contemporains comme le travail collaboratif en réseau, la frontière entre biens marchands et biens non-marchands, la frontière entre travail et bénévolat, la démocratie à l’ère du numérique, etc. Par une approche critique, philosophique et sociologique, l’ouvrage analyse en profondeur cette « l’encyclopédie collaborative » comme un phénomène émergent, comme expression de tendances de fond de la modernité au XXIe siècle, et une innovation remarquable susceptible d’éclairer d’autres évolutions de la société contemporaine. »
  • Wikipédia – Comprendre et participer – Sébastien Blondeel – Eyrolles – avril 2006
    « Qui n’a entendu parler de Wikipédia, l’encyclopédie collaborative de l’Internet la plus vaste et la plus consultée ? Qui ne connaît ce projet international auquel des experts de tous domaines contribuent ? Née en 2001, Wikipédia compte plus de trois millions d’articles début 2006, 120 langues actives, un million d’articles en anglais, 250 000 en français. Ce livre explique comment l’explorer et y participer, dans quelles limites réutiliser son contenu et quels sont ses secrets de fonctionnement (financement, contexte politique). »

El Senor Presidente - Accueil Wikipédia - 5 mai 2008

Les autres articles du dossier

  • 1/6 – Introduction
    Un projet pédagogique « de qualité ».
  • 3/6 – Le projet vu par un éditeur de Wikipédia
    Le point de vue d’un éditeur de Wikipédia, membre de « l’équipe des Articles de Qualité », ayant accompagné et soutenu les étudiants pendant la durée de leurs travaux.
  • 6/6 – Liens connexes
    Une sélection de liens francophones autour de Wikipédia et l’éducation.



Quand Serge Soudoplatoff nous parle d’Internet

Quand Serge Soudoplatoff nous parle d’Internet (et des mutations organisationnelles qu’il engendre) c’est non seulement accessible au grand public mais c’est surtout tout à fait passionnant.

Très à l’aise devant son auditoire, Serge Soudoplatoff réussit la gageure de partir un peu dans tous les sens (avec exemples, citations et anecdotes à l’appui) tout en restant cohérent avec sa ligne directrice.

Une intervention de 45 minutes donnée le 4 juillet 2008 au CEDAP et intitulée : « Comment Internet change nos organisations »

—> La vidéo au format webm

Pour en savoir plus sur l’auteur, rendez-vous sur son blog et en attendant voici une courte et caustique présentation telle qu’elle apparait sur AgoraVox.

Serge Soudoplatoff est vraiment né le 27 décembre 1954 par une longue nuit d’hiver. Les loups hurlaient dans la steppe. Sa mère, bretonne, lui apporta le goût du beurre et son père, russe, celui de la vodka. Cela perdure.

Après des études très primaires, qui devinrent vite secondaires, c’est en passant à Paris dans la rue de la Montagne Ste Geneviève en septembre 1973 que, la porte étant ouverte, il entra par hasard dans une prestigieuse école française. A sa sortie, trois ans plus tard, il se dirigea vers la cartographie, confondant dessiner le monde et le changer. Après 5 ans de recherches et de voyages à l’Institut Géographique National, il décida de quitter le traitement de l’image pour s’intéresser à celui de la parole dans un centre de recherche français, et américain, d’un grand constructeur d’ordinateurs. Après 5 ans de voyages et de recherches à IBM, il décida que la parole à une dimension ne valait pas mieux que l’image à deux, et se résigna à ne plus traiter que des problèmes ponctuels, en devenant directeur d’un centre de recherche en informatique dans une grande SSII. Après 5 ans à Cap Gemini Innovation, il alla mettre en réseau le monde de la recherche et celui des entreprises dans une association, le Cercle pour les projets Innovants en Informatique. C’est là qu’il comprit le passage de l’information à l’innovation, l’articulation entre l’informatique et la sociologie et la psychologie.

Ceci le fit bizarrement atterrir à la direction de l’innovation de France Telecom, où il s’est employé pendant trois ans à rendre concrètes les profondes mutations qu’engendre le monde Internet.

Il a finalement décidé de se muter lui-même en devenant fondateur d’une entreprise en essaimage de France Telecom, Highdeal, puis en créant Almatropie, dédiée à convaincre de l’importance d’Internet.




Écoquille et Grand Ménage : un peu d’écologie sous Creative Commons

Seier - CC byAu hasard de mes fils RSS, je suis tombé sur les « Écoquilles », un concept original de maisons écologiques, dont je vous invite à parcourir le site du projet pour en savoir plus et éventuellement vous faire une idée de sa viabilité. En gros il s’agit d’une sorte de coquille de bateau en bois renversé (à comparer avec les containers étudiants par exemple). Parmi les problèmes rencontrés, il y a la législation qui n’aime pas trop les toits arrondis à ce que j’ai compris. Nous leur souhaitons bonne chance en tout cas[1].

On peut lire ici que le concept de l’Écoquille est mis à disposition de tous selon les termes de la licence Creative Commons By-Nc-Sa. Quand il y aura des plans plus détaillés sur leur site (j’imagine que cela ne saurait tarder) on pourra donc potentiellement construire sa propre Écoquille si cela nous chante (et si cela chante aussi aux pouvoirs publics !).

J’ai également noté le guide Le Grand Ménage – Recettes écologiques et économiques pour l’entretien de la maison dont voici un extrait de la présentation.

Le but de ce livret est de nous faire partager une expérience. Partager. Voilà un bien joli mot.

Au mois de juin 2005, Raffa, écologiste convaincue, eut une merveilleuse idée : créer son propre « blog », pour transmettre ce qu’elle avait appris et nous donner envie, à nous aussi, de nous occuper de notre planète au quotidien.

Nous nous sommes penchés sur l’état de nos placards encombrés de produits chimiques, pour la plupart dangereux : un pour le lavage des sols, un pour le lavage des vitres, un pour les plaques de cuisson, un pour les WC, un pour la salle de bain, un pour… Ce douloureux inventaire à la Prévert sonnait comme un appel au secours, une urgence de premier plan. Il n’était plus possible de continuer ainsi.

Ce livret est disponible en téléchargement sur le site des auteurs mais également en livre. Il est placé sous licence Creative Commons By-Nc-Nd. Un peu dommage pour le coup cette clause de non modification qui interdit de s’emparer du guide pour le modifier, alors que c’est typiquement un sujet qui appelle amélioration au cours du temps. On notera également que seules les versions PDF sont disponibles et non les fichiers sources.

Il n’empêche que voilà deux exemples intéressants d’usage des Creative Commons dans le champ écologique. En connaissez-vous d’autres ?

Notes

[1] Crédit photo : Seier (Creative Commons By)




Vivre sa vie ou l’enregistrer ? Telle est la question !

Put the camera down - SoupPour une fois ce n’est pas le couple Obama qui impressione sur la photo ci-contre[1]. Cliquez dessus pour voir… et vous constaterez peut-être avec moi que « quelque chose ne va pas ».

Qu’est-ce qui pousse tous ces gens à vivre les moments forts de leur vie à travers le prisme de leurs écrans ? Quelles conséquences cela peut-il bien avoir sur l’évènement fort en lui-même mais également à long terme sur la perception et les émotions de nos propres vies ? C’est le sujet du jour qui fait écho à l’émission radio Place de la Toile (France-Culture) du 23 janvier dernier intitulée Et si on se déconnectait ? dont je vous suggère la synthèse réalisée par Hubert Guillaud sur InternetActu.

Il est soudainement loin le temps où l’on se moquait gentiment des touristes japonais rivés à leur appareil photo…

La technologie, c’est formidable, mais n’en oublie-t-on pas de vivre ?

Technology is Great, but Are We Forgetting to Live?

Sarah Perez – 22 janvier 2009 – ReadWriteWeb
(Traduction Framalang : Don Rico et aKa)

Imaginez, vous êtes à un concert où votre groupe préféré monte sur scène pour la dernière fois. Ou bien vous assistez à la prestation de serment du Président Obama. Ou alors vous êtes simplement assis en famille devant le sapin de Noël, à regarder vos enfants ouvrir leurs cadeaux. Qu’êtes-vous en train de faire dans tous ces cas de figure ? Si vous êtes comme la plupart de nos contemporains, vous êtes sans doute en train de filmer la scène avec un gadget électronique d’un genre ou d’un autre, smartphone, appareil photo numérique ou camescope. Il se peut même que vous partagiez ce moment avec d’autres sur Twitter, Facebook ou FriendFeed.

Nos vies sur support numérique

Grâce à la technologie, nous pouvons graver pour toujours chaque moment de notre vie. Nous pouvons prendre des photos, y ajouter un commentaire et les partager aussitôt. Nous pouvons les archiver pour la postérité sur le Web intemporel. Et peut-être qu’un jour, nos arrière-arrière-petits-enfants retrouveront nos profils de réseaux sociaux dans les pages en cache d’Internet Archive et découvriront tout ce que nous avons voulu faire savoir au monde à notre sujet.

D’accord, c’est génial. C’est vraiment dingue. Mais qu’en est-il de nous, et du temps que nous avons passé à enregistrer ces moments ? Ne sommes-nous pas passés à côté de notre vie à trop vouloir la consigner ?

La technologie a accompli des tels progrès que l’utiliser n’exige presque plus aucun effort et nous l’intégrons dans notre vie comme jamais auparavant. Finie l’époque où l’ordinateur était une machine qui vous connectait à un réseau de pages au temps de chargement interminable. Non, le Web d’aujourd’hui, notre cerveau universel, tient dans la poche et est accessible de partout[2].

On peut aujourd’hui transférer nos photos (et même nos vidéos) directement de l’appareil au Web grâce à d’ingénieuses inventions telles que les cartes SD sans fil d’Eye-Fi, technologie qui fait de notre vie un flux constant d’informations destiné à remplir les pages omniprésentes d’une Toile en expansion permanente. Une Toile dont la création constitue peut-être le symbole des efforts fournis par l’humanité pour comprendre le concept de l’Univers, car de quelle manière décrira-t-on le Web de demain ? Comme une entité qui n’a ni début[3] ni fin, un dépôt d’archives en expansion continue recueillant la totalité de nos vies numériques.

On en oublie de vivre

Durant notre bref passage sur Terre, à force de vouloir consigner les moindres instants de notre vie, il se peut que nous en oubliions, de temps à autre en tout cas, comment vraiment profiter de la vie. Et pour profiter de la vie, n’en déplaise à certains, il faut se déconnecter, ranger son appareil photo, et pour une fois savourer l’instant.

Jane Maynard, de l’association Silicon Valley Moms (NdT : Mamans de la Silicon Valley), nous rappelle que de nos jours c’est un travers répandu qui ne concerne plus seulement les fous de technologie. Prenant l’exemple d’un concert où elle allait voir ses enfants jouer, elle décrit ce qui lui pose problème : « Les caméras. Je suis en face d’un dilemme. En voulant consigner les moments fabuleux que l’on vit, on néglige parfois la vraie vie. Comme lorsqu’on assiste au récital de piano de son enfant via l’écran LCD de son appareil et non directement. C’est un équilibre délicat à trouver auquel, j’en suis sûre, nous réfléchissons tous et sommes tous confrontés, surtout à notre époque du tout-numérique. Je me force parfois à ne pas sortir ma caméra, même si j’ai très envie d’enregistrer une scène, de façon à la vivre pleinement au moment où elle se produit. Ces moments-là, je ne les regrette jamais… mais ces considérations m’ont poussée à me poser des questions. Combien de fois me suis-je tellement focalisée sur l’idée de prendre la photo parfaite de mes enfants que j’en ai oublié complètement de profiter du moment présent ? »

Et si on se déconnectait ?

Définir ce qui mérite d’être enregistré et ou pas n’a rien de compliqué. Nous estimons automatiquement que ce sont les moments les plus importants, les plus sensationnels et les plus incroyables qu’il faut enregistrer. Mais ce sont pourtant ces moments-là qu’il vaut mieux savourer pleinement, en leur accordant notre entière attention.

Selon Martin Kelly, blogueur axé sur la religion, « à certains moments, il est bien plus important d’être présent que d’enregistrer quoi que soit ». (Il venait de s’étonner lui-même en regardant les photos floues qu’il avait estimé nécessaire de prendre lors d’un mariage, alors que la mariée s’avançait vers l’autel. Avec le recul, il s’agissait précisément du genre d’instant dont il aurait pu se passer de photographier.)

« Cessez de vouloir vivre votre vie par procuration. Vous êtes déjà là. Vous n’avez rien à prouver », déclare Kat Orphanides en regardant des spectateurs enregistrer un concert au lieu de profiter de la musique. En réalité, c’est plus facile à dire qu’à faire. Si vous avez déjà ressenti une sensation de manque technologique quand vous vous déconnectez du Web (comment ne pas envoyer un tweet pour raconter ce que je viens de voir ? Il faut absolument que je prenne ça en photo !), c’est que vous êtes à deux doigts de ne faire plus qu’un avec la machine. Il est peut-être temps de vous rappeler que vivre se suffit à soi-même… du moins parfois. Vous n’aurez peut-être pas d’archive des moments tous plus extraordinaires les uns que les autres que vous aurez vécu, mais votre vie n’en sera que plus satisfaisante.

Notes

[1] Crédit photo : Put the camera down and enjoy a moment for once

[2] Bien évidemment, ces constatations s’appliquent aux parties du monde où la technologie moderne, comme les smartphones et le haut-débit, sont banals. On n’a pas accès à ces machins partout dans les monde, je le sais.

[3] La toute première page Web se trouve ici, mais elle n’est désignée comme page « Web » que parce que des liens hypertextes la relient à d’autres pages à l’aide de balises html. Alors, était-ce vraiment la première ? Ou est-elle soudain apparue en même temps que les autres ? Est-ce vraiment le point d’origine du Web ?




Ou toute autre version ultérieure de la licence…

Cambodia4kidsorg - CC byCe billet est un peu technique, au sens juridique du terme, mais la problématique abordée est loin d’être inintéressante (et n’étant pas des spécialistes comme Veni Vidi Libri, nous vous remercions par avance des précisions, compléments et corrections que vous apporterez dans les commentaires).

Il évoque les risques potentiels encourus par une création (logicielle, culturelle, etc.) à adopter une licence portant la mention « ou toute autre version ultérieure » (de la-dite licence). Dit autrement, il s’agit de la confiance que vous, auteurs ou utilisateurs, accordez à ceux qui rédigent la licence choisie, puisque vous vous engagez ainsi non seulement au moment présent mais également dans le futur, avec une licence susceptible d’être modifiée au cours du temps. Ce que vous créez ou utilisez aujourd’hui peut donc ne pas suivre exactement les mêmes règles demain.

Prenons l’exemple de la plus célèbre des licences de logiciels libres, la GNU General Public License (ou GNU GPL). Voici ce que l’on peut lire dans la traduction non officielle du paragraphe 9 de la version 2 datant de 1991 :

La Free Software Foundation se réserve le droit de publier périodiquement des mises à jour ou de nouvelles versions de la Licence. Rédigées dans le même esprit que la présente version, elles seront cependant susceptibles d’en modifier certains détails à mesure que de nouveaux problèmes se font jour.

Chaque version possède un numéro distinct. Si le Programme précise un numéro de version de cette Licence et « toute version ultérieure », vous avez le choix de suivre les termes et conditions de cette version ou de toute autre version plus récente publiée par la Free Software Foundation. Si le Programme ne spécifie aucun numéro de version, Vous pouvez alors choisir l’une quelconque des versions publiées par la Free Software Foundation.

Donc si vous placez votre logiciel sous GNU GPL sans préciser la version ou en version 2 avec la mention « ou toute version ultérieure », alors « vous avez le choix de suivre les termes et conditions de cette version ou de toute autre version plus récente publiée par la Free Software Foundation », version plus récente dont on nous assure, et c’est là que ça peut coincer, qu’elle sera « rédigée dans le même esprit ».

Or, justement, dans l’intervalle, la GNU GPL est passée en version 3 en 2007 (sa version actuelle). Extrait de la FAQ de cette nouvelle version, à la question Pourquoi les programmes doivent-ils se référer à « la version 3 de la GPL ou toute version ultérieure » ? :

De temps en temps, après quelques années, il nous arrive de modifier la GPL—quelquefois simplement pour éclaircir un point, quelquefois pour autoriser certaines utilisations alors qu’elles ne l’étaient pas auparavant, et quelquefois pour renforcer une exigence. (Les deux derniers changements datent de 2007 et 1991). L’utilisation de ce « pointeur indirect » dans chaque programme nous permet de changer les conditions de distribution de l’ensemble des logiciels GNU, lorsque nous modifions la GPL.

Si aucun programme ne contenait ce pointeur indirect, nous serions forcés de longuement discuter du changement avec de très nombreux détenteurs de copyright, ce qui serait virtuellement impossible. En pratique, la probabilité d’aboutir à un mode de distribution unifié pour les logiciels GNU serait nulle.

Supposez qu’un programme dise « Version 3 de la GPL ou toute version ultérieure » et qu’une nouvelle version de la GPL soit publiée. Si la nouvelle version de la GPL donne une permission supplémentaire, cette permission est immédiatement disponible pour tous les utilisateurs du programme. Mais, si la nouvelle version de la GPL comporte une exigence plus restrictive, cela ne limitera pas l’utilisation de la version courante du programme, car ce dernier peut toujours être utilisé sous GPL Version 3. Lorsqu’un programme dit « Version 3 de la GPL ou toute version ultérieure », les utilisateurs seront toujours autorisés à l’utiliser, et même à le modifier, selon les termes de la GPL Version 3—même après que d’autres versions de la GPL auront été rendues disponibles.

Si une exigence plus forte dans une nouvelle version de la GPL n’est pas obligatoire pour les logiciels existants, à quoi sert-elle ? Lorsque la version 4 de la GPL est disponible, les développeurs de la plupart des programmes sous GPL distribueront les versions suivantes de leur programme en spécifiant « Version 4 de la GPL ou toute version ultérieure ». Les utilisateurs devront se conformer aux clauses plus restrictives de la GPL Version 4, pour les versions suivantes de ce programme.

Les développeurs ne sont toutefois pas dans l’obligation d’agir ainsi ; ils peuvent continuer à autoriser l’utilisation de la version précédente de la GPL, si c’est leur souhait.

Le fait qu’une licence évolue n’est en rien critiquable puisque depuis 1991 il s’en est passé des choses dans le monde numérique (à commencer par l’avènement d’Internet). De plus cette nouvelle version a été le fruit d’un long processus de concertation publique (voir la lettre de Chris Frey plus bas), la FSF ayant le souci de donner confiance et ne pas donner l’impression qu’on lui signait un chèque en blanc pour les « versions ultérieures » de ses licences.

Il n’empêche que ces modifications « rédigées dans le même esprit » sont laissées à la libre appréciation de chacun. C’est ainsi que Linus Torvalds, conformément au dernier paragraphe de notre extrait ci-dessus, n’a toujours pas passé le noyau Linux en GPL v3 et préfère rester en GPL v2, au grand dam de la FSF.

Mais prenons désormais l’exemple d’une autre licence de la FSF, la GNU Free Documentation License (ou GNU FDL). À l’origine cette licence avait été pensée pour la documentation de logiciels libres mais elle a été adoptée, faute d’existence d’autres licences mieux adaptées à l’époque, par le poids lourd de la culture libre que constitue l’encyclopédie Wikipédia.

Or, depuis, une licence clairement mieux adaptée est apparue : la licence Creative Commons By-Sa[1]. Ces deux licences n’étant pas compatibles, que pouvait-on faire ? C’est justement la réponse à cette question que nous avons évoqué dans notre récent billet dédié : Wikipédia en route vers la licence Creative Commons By-Sa. Ce billet explique pourquoi et comment la FSF a accepté de modifier sa licence GNU FDL (version intermédiaire 1.3) pour que Wikipédia puisse légalement passer sous Creative Commons, passage justement rendu possible parce que la licence de Wikipédia est la GNU FDL sans mention de version (acceptant donc implicitement « toute version ultérieure » de la licence).

Le problème c’est que contrairement au passage de la GNU GPL de la version 2 à la version 3, il n’y a pas eu de concertation publique et de long processus de maturation transparent et « démocratique ». De plus les modifications apportées ont clairement été rédigées dans l’unique but de satisfaire la Wikimedia Foundation (et Creative Commons) puisqu’elles ne s’adressent qu’aux wikis crées avant novembre 2008 qui ont jusqu’en juin 2009 pour se décider à migrer. Une mise à jour « sur mesure » en quelque sorte.

Aussi nobles soient les intentions des uns et des autres, il y a tout de même ici un peu d’arbitraire et d’opacité aussi bien sur le fond que dans la forme. C’est ce que critique Chris Frey dans cette « lettre ouverte à Richard Stallman » que nous avons choisi de traduire et vous proposer ci-dessous, accompagnée par la réponse toute aussi ouverte de Richard Stallman.

Lettre ouverte à Richard Stallman

Open Letter to Richard Stallman

Chris Frey – 4 novembre 2008 – Advogato.org
(Traduction Framalang : Olivier, Siltaar et Don Rico)

Cher M. Stallman,

Je vous écris pour exprimer la déception que j’ai ressentie à l’égard de la Free Software Foundation par rapport à la publication récente de la version 1.3 de la GNU Free Documentation License .

Cette nouvelle version introduit à la section 11 une nouvelle clause qui, selon la FAQ, accorde aux wikis le droit de modifier la licence de certains contenus pour les faire passer de la licence GFDL 1.3 à la licence CC-BY-SA 3.0, pour les ajouts datant d’avant le 1er novembre 2008. Ils peuvent appliquer ce changement de licence jusqu’au 1er août 2009.

Cela constitue à mon sens une erreur morale importante et un abus de confiance. Même si cette nouvelle clause n’est pas dangereuse, elle n’en reste pas moins mauvaise.

Il y a de nombreuses années, j’ai lu des critiques visant les recommandations quant à l’application de la licence GNU GPL aux logiciels. On critiquait la formule « version 2 of the License, or (at your option) any later version » (NdT : version 2 de la licence, ou, selon votre choix, toute version ultérieure) avançant l’argument que cette formulation conférait trop de pouvoir à la FSF, et que cela revenait à signer un chèque en blanc permettant le détournement futur de l’œuvre licenciée.

Ces critiques ont à mes yeux perdu de leur sens après que j’ai été témoin de la transparence et de l’attention extrême portée à la rédaction de la nouvelle GPL version 3. Tous les commentaires furent enregistrés sur un site Web et débattus de manière tout à fait transparente. La rédaction a été longue et méticuleuse, réalisée en prenant en compte l’opinion des utilisateurs de la licence, et dans l’objectif de servir l’intérêt des logiciels libres. C’était magnifique.

Je commençais à comprendre les avantages d’une licence ouverte. J’avais compris les intentions de la FSF. Ils ne fléchissaient pas concernant les principes des logiciels libres, mais au contraire se montraient toujours plus fermes. Seule la FSF pouvant modifier la GPL, et étant donné le sérieux de sa méthode pour la mettre à jour, je me suis dit que je pouvais lui accorder ma confiance.

Hélas, ce changement apparemment précipité apporté à la GFDL vient tout gâcher. Cette modification va à l’encontre de la clause tacite selon laquelle c’est l’auteur qui choisit la licence pour son travail, mais elle introduit en outre un nouvel acteur. Non seulement la FSF peut changer les termes de la GFDL, mais voilà que la Creative Commons Corporation peut à présent modifier les termes qui régissent des travaux plus anciens auparavant placés sous GFDL.

Fort heureusement, cette situation ne durera que jusqu’au 1er août 2009. Mais les anciens wikis placés sous GFDL ont désormais une double licence.

Peut-être ai-je vécu coupé du monde légal, mais je n’ai pas non plus vu d’appel à contribution pour cette révision. Si je l’ai manqué, je regrette de n’avoir pu donner mon avis plus tôt. Si la période de discussion était plus courte, voire inexistante, c’est une faille dans le processus de mise à jour de la GFDL, et j’espère que la FSF y remédiera.

Concrètement, cette requalification de licence importe peu. Le cadre de ce qui peut être soumis à une requalification de licence est bien délimité, et ces deux licences ont en gros la même fonction. Certains auteurs ont peut-être préféré la GFDL à la licence CC-BY-SA pour des raisons spécifiques, l’une d’entre elles étant le fait que la licence doit être jointe à l’œuvre. Cette condition de la GFDL est à la fois une caractéristique et un défaut de conception. Mais ce choix, qui auparavant revenait à l’auteur, lui est à présent retiré.

Au final, les conséquences sont sûrement minimes. En effet, beaucoup voient en ce changement un grand pas en avant. Je pense que c’est simplement la réputation de la FSF qui s’en trouve affectée. Quel message cela adresse-t-il aux utilisateurs d’autres licences de la FSF ? Est-on sûr que la FSF ne permettra pas la modification des licences de nos œuvres au profit de licences non-FSF si l’on opte pour la clause « version ultérieure » ? Dans le passé je ne me serais même pas posé la question. À présent, j’ai un doute.

J’ai hâte de connaître votre sentiment à ce propos et, si vous le permettez, je publierai une copie conforme de votre réponse là où je publie cette lettre.

Je vous remercie de votre attention.

Cordialement,

Chris Frey

Réponse ouverte à Chris Frey à propos de la GFDL 1.3

An open response to Chris Frey regarding GFDL 1.3

Richard Stallman – 3 décembre 2008 – FSF.org
(Traduction Framalang : Olivier, Siltaar et Don Rico)

Cher M. Frey,

Votre lettre concernant les modifications récentes apportées à la GFDL, qui permettent aux administrateurs de certains wikis sous licences GFDL de modifier la licence de leur contenu sous licence Creative Commons BY-SA, soulève des questions cruciales vis-à-vis des modifications, de la manière dont elles ont été conduites et de leurs implications quant à la gestion par la FSF de nos licences à l’avenir.

De mon point de vue, et c’est aussi celui du conseil de la FSF, cette modification de la licence est totalement en accord avec nos valeurs, notre éthique et nos engagements, et c’est une nouvelle démonstration que la FSF mérite toujours votre confiance. Les licences comportant la clause « ou toute version ultérieure » nous permettent de donner de nouvelles permissions qui répondent aux besoins de la communauté et de contrer les nouvelles menaces qui pèsent contre la liberté des utilisateurs.

Cette option de changement de licence introduite par la GFDL 1.3 est complètement en accord avec l’esprit et les objectifs de la GFDL. Certains sites Web pourront ainsi passer de la GFDL à une autre licence libre, une autre licence qui diffère sous certains aspects mais qui est très proche globalement de la GFDL. Cette disposition permet à ces sites de rendre leur licence compatible avec de vastes collections de contenu sous licence libre avec lesquelles ils veulent coopérer.

L’impact de ce changement est limité car l’option de changement de licence ne s’applique qu’à un nombre de cas limité : les wikis, telle Wikipédia, qui ne font pas usage de certaines clauses particulières de la GFDL, comme les sections invariantes (NdT : contenu qui n’est modifiable que par l’auteur lui-même) et les textes de couverture, qui n’ont pas d’équivalent dans la licence CC-BY-SA.

Nous avons offert aux wikis une option à durée limitée dans le temps leur permettant de passer sous CC-BY-SA les contenus issus de la contribution du public. La fondation Wikimedia a initié un débat public quant à la décision à prendre : les participants de Wikipédia peuvent donner leur avis pour ou contre le changement. Nous n’avons joué aucun rôle dans cette décision, nous avons simplement donné à Wikipédia l’opportunité de la prendre.

Ce changement ne s’est pas fait dans la précipitation. La FSF s’est entretenue pendant plus d’un an avec la Wikimedia Foundation, Creative Commons et le Software Freedom Law Center pour planifier ce changement.

Ces discussions sont restées secrètes pour une raison que, je l’espère, vous approuverez : limiter l’applicabilité de cette option et éviter l’éventualité d’un changement de licence massif d’autres contenus placés sous licence GFDL. Cette option a été pensée uniquement pour les wikis bénéficiant d’une collaboration publique. Nous ne souhaitions pas que tout le monde puisse changer la licence des œuvres couvertes par la GFDL en les « blanchissant » au travers de Wikipédia ou d’autres sites similaires avant la date butoir.

Si un wiki exerce son option de changement de licence, cela implique qu’il accorde sa confiance aux Creative Commons plutôt qu’à la Free Software Foundation pour ce qui est des modifications futures de la licence. En théorie ,on pourrait y voir une source d’inquiétude, mais je pense que nous pouvons faire confiance à Creative Commons pour continuer sa mission à l’occasion des mises à jours de ses licences. Des millions d’utilisateurs font déjà confiance aux Creative Commons à ce sujet et je pense que nous pouvons faire de même.

Vous avez qualifié notre modification de licence de « trahison », mais si vous examinez ce que nous avons entrepris, vous verrez que nous sommes restés fidèles à nos principes.

Nous n’avons jamais affirmé que nous ne changerions pas nos licences, ou que nous ne ferions pas de modifications comme celle-ci. Nous nous sommes en revanche engagés à effectuer ces changements en respectant l’esprit de nos licences, et en garantissant les objectifs de ces licences. C’est ce que nous avons fait avec la GFDL 1.3 et, à plus grande échelle, avec la GPLv3, et c’est ce que nous continuerons à faire.

Vous avez entièrement raison d’attendre de la FSF une éthique irréprochable. J’espère que les modifications apportées à la licence GFDL vous convaincront que nous respectons cette éthique.

Cordialement,

Richard Stallman
Président de la Free Software Foundation

Notes

[1] Crédit photo : Cambodia4kidsorg (Creative Commons By)




L’Angleterre se pose la question du Libre dans l’éducation

Superbomba - CC by-saAprès Barack Obama et l’Open Source, voici une autre traduction émanant de la BBC, autour du Libre et l’éducation cette fois.

C’est un plaisir non dissimulé de voir un tel grand média s’intéresser à la question et lui donner ainsi un fort coup de projecteur dans l’opinion (avec analyses, témoignages, perspectives… du vrai travail de journaliste en somme, tout simplement). Mais c’est également une belle satisfaction de constater la maturité du discours et de l’évaluation du logiciel libre chez la Perfide Albion[1].

Il me tarde de voir pareille situation traverser la Manche. Puissent tous les articles connexes de ce blog modestement y contribuer…

La question du Libre dans l’éducation

Open source question for schools

Andrew Miller – 26 janvier – BBC News
(Traduction Framalang : Daria, Olivier, Don Rico)

Andrew Miller se demande si les logiciels Open Source ne pourraient pas aider les écoles à mieux gérer leur budget.

Au salon British Education Training and Technology, BETT 2009, un rapide coup d’œil suffisait pour se convaincre, par la dimension de l’évènement, que les technologies de l’éducation bénéficient d’un budget plus que conséquent.

Sachant que les logiciels Open Source disponibles gratuitement et librement couvrent l’essentiel des exigences du programme national, on peut se demander pourquoi les écoles n’y ont pas plus recours, avec une économie potentielle de plusieurs millions de livres à la clé.

Comme leur nom le suggère, les logiciels Open Source sont des logiciels communautaires et leur code source est ouvert à tous. N’importe qui peut modifier le logiciel selon ses besoins et ensuite partager ces modifications avec tout le monde.

En entendant parler de logiciel Open Source, nombreux sont ceux qui pensent Linux – le système d’exploitation alternatif disponible sous différentes distributions comme Ubuntu, openSUSE ou Fedora.

Linux propulse les serveurs depuis longtemps, mais l’Open Source touche à toutes sortes de projets. Le navigateur Web Firefox et la suite bureautique OpenOffice en sont de bons exemples.

Promotion ouverte

Dans le secteur de l’éducation, seule une poignée de technophiles, agissant de leur propre initiative, font la promotion des logiciels Open Source et les utilisent pour employer au mieux leur budget technologie.

Les critiques accusent Becta – une agence gouvernementale qui supervise les acquisitions de toutes les technologies pour les écoles – de n’avoir pas assez œuvré à la promotion des logiciels Open Source.

Peter Hughes, responsable des accords d’acquisition au Becta, a assuré à la BBC que Becta sera plus actif dans ce sens.

« En tant qu’organisation, on nous a principalement reproché de ne pas avoir présenté comme il se devait les solutions Open Source et de trop favoriser les solutions propriétaires, comme celles de Microsoft. Nous avons tenu compte de ces critiques et, dans l’exercice de nos conseils en matière de stratégie et de distribution de la technologie dans l’éducation, nous avons tenté de rester impartiaux dans les avis que nous émettons pour aider les écoles à faire les meilleurs choix », a-t-il indiqué.

Fin 2008, le Becta a collaboré avec l’organisation gouvernementale des services d’acquisition OGCBuying.Solutions pour approuver 12 fournisseurs, lesquels ont en commun la capacité à équiper les écoles avec des logiciels Open Source.

Le Becta considère la désignation de Sirius comme un « grand pas en avant » et comme un message envoyé à la communauté : « Nous prenons les logiciels Open Source au sérieux ».

John Spencer, chef du développement commercial de Sirius, a confié à la BBC que l’Open Source est encore trop méconnu, pas seulement dans les écoles, et que Linux souffre d’un problème d’image.

« Beaucoup d’établissements scolaires sont restés bloqués en l’an 2000, quand il est devenu évident que la connaissance de l’outil informatique deviendrait une nécessité, mais depuis ils n’ont rien fait. Ils ont peur d’avancer en terrain inconnu, et il ne s’agit pas seulement de Linux mais également de Vista et d’Office 2007. Les bons professeurs chercheront toujours à aller de l’avant mais ils sont si occupés qu’ils préfèrent souvent s’en tenir à ce qu’ils connaissent », a précisé Mr. Spencer.

Sirius a déjà installé des logiciels libres dans beaucoup d’établissements au Royaume-Uni.

Dans le cadre d’un projet mené à Twickenham, on autorise les portables et ultra-portables appartenant à l’établissement ou aux élèves à démarrer sur le réseau pour leur donner accès aux fichiers et aux programmes dont ils ont besoin.

« Le réseau coûte moitié moins que ce que RM peut proposer et les économies d’énergie réalisées permettent au système de s’autofinancer en moins de 3 ans », affirme Mr. Spencer

Le temps de la compétition

Une autre initiative du Becta est centrée sur le site opensourceschools.org.uk, lancé fin 2008. Il a pour objectif de fournir des informations essentielles et des conseils aux professeurs pour une bonne utilisation des logiciels Open Source.

Cependant, le Becta émet quelques réserves.

« Nous voulons que les professeurs se rendent compte qu’ils peuvent, et doivent, considérer les logiciels Open Source comme une alternative solide », a déclaré Mr. Hughes.

« Les établissements doivent malgré tout bien se renseigner. Les mises en garde à l’égard de l’Open Source sont aussi nombreuses qu’à l’égard des logiciels propriétaires. »

Et que pensent les grosses entreprises informatiques des logiciels Open Source qui marchent sur leurs plate-bandes ?

Steve Beswick, le directeur de l’éducation pour Microsoft Royaume-Uni, a déclaré à la BBC que même si les logiciels Open Source peuvent, sur la valeur nominale, permettre des économies, il faut se méfier des coûts cachés, pécuniaires et autres.

« Beaucoup de monde est habitué à utiliser les outils Microsoft, et il faut donc re-former les gens à l’utilisation des solutions Open Source, ce qui peut avoir un coût élevé », affirme-t-il.

« Pour faire le bon choix, les établissements colaires et les universités doivent avoir toutes les informations en main. »

M. Beswick a prétendu que Microsoft n’est pas opposé à l’Open Source, et cite leur « engagement en faveur l’interopérabilité » démontré par le support du format Open Document Format dans le Service Pack 2 d’Office 2007.

Il a aussi mentionné le travail que Microsoft a réalisé en acquérant IIS, son logiciel de serveur phare, pour travailler avec le langage PHP.

Le ministre de l’Éducation, Jim Knight, s’est fait l’écho du point de vue de Becta. Dans une déclaration, il a annoncé : « Les établissements scolaires et les universités doivent maîtriser les tenants et les aboutissants du problème pour faire le bon choix – qu’il se porte vers l’Open Source ou le propriétaire –, et doivent être conscients du coût total de la solution adoptée, en n’oubliant pas le support à long terme et la formation. Je pense que c’est le rôle du Becta de travailler avec les fournisseurs de logiciels, aussi bien Open Source que propriétaires, afin que les écoles et universités puissent tirer au mieux parti des logiciels pour appuyer l’enseignement et l’apprentissage. »

Et du côté de la communauté Open Source alors ?

Gerry Gavigan, le président du consortium Open Source, a dit à la BBC que l’adoption des logiciels Open Source ne pouvait que passer par un changement des mentalités.

« Les coûts de la formation continue ne disparaissent pas simplement grâce au passage des logiciels propriétaires aux logiciels gratuits et Open Source. En revanche, les coûts associés aux formations induites par les mises à niveau encouragées ou forcées par une tierce partie ne sont plus d’actualité », a-t-il indiqué.

On parle aussi fréquemment du problème du verrouillage technologique, une des explications principales, pour les défenseurs de l’Open Source, à la domination prolongée de Windows.

« L’un des paramètres qui n’est pas toujours pris en compte dans le calcul des contrats d’achat de logiciels sont les coûts à long terme résultant des licences ou du verrouillage technologique », a déclaré Mr. Gavigan.

Mr. Gavigan admet que la gratuité des logiciels Open Source leur a parfois nui.

« Annoncer que vous avez essayé de régler un problème en dépensant des sommes faramineuses a plus d’impact sur votre public que de dire que vous avez utilisé une solution gratuite. D’après une croyance malheureuse, si ça ne coûte rien, ça ne vaut rien », a-t-il déploré.

Le monde connecté

Quoiqu’il en soit, certaines écoles se mettent aux logiciels Open Source. Le lycée Highworth, à Ashford, propose à la fois des logiciels propriétaires et des logiciels Open Source à ses étudiants.

L’administrateur réseau de l’école, Marc Blake, a confié que bien qu’il soit important que les élèves connaissent des alternatives à Windows, il convient de reconnaître qu’ils vivent dans un monde dominé par Microsoft.

Mais il a annoncé à la BBC que d’importantes économies pourraient être réalisées en utilisant des alternatives Open Source.

« Nous proposons à la fois Office 2003 et OpenOffice, de sorte que les clients aient le choix. J’estime que 98% des clients choisissent Microsoft Office à la place d’OpenOffice, mais au moins ce choix existe », a précisé Mr. Blake.

« La seule mise à jour vers Office 2007 de toute l’école nous coûterait environ 27000£, mais ce montant n’inclut pas le coût de remise à niveau des utilisateurs ni les mises à jour des documents associés ou du matériel pédagogique. Acquérir l’équivalent de Moodle (logiciel libre d’e-apprentissage) pour nos 1200 étudiants nous aurait coûter plus de 3000£ par an. Pour ce prix-là on n’a pas le support professionnel, mais si on est prêt à faire ce sacrifice, c’est beaucoup d’argent économisé », a-t-il ajouté.

Avant d’adopter Linux, Mr. Blake s’inquiétait de la compatibilité de certaines des plus récentes technologies du Web. Ses inquiétudes se sont envolées puisque son établissement a maintenant plusieurs Asus EeePC fonctionnant sous Linux qui sont utilisés majoritairement pour les projets Web 2.0.

Cette année au BETT, un nombre non négligeable de logiciels pédagogiques ont fait le grand saut vers le Web 2.0 pour s’assurer une compatibilité avec toutes les plateformes.

L’utilisation de l’Open Source pourrait permettre aux écoles de réaliser d’importantes économies, mais cela implique un gros investissement en temps, en recherche et en formation. Mais allier logiciels commerciaux et logiciels Open Source, comme le fait le lycée Highworth, peut permettre une réduction des coûts tout en donnant le choix aux étudiants.

Voilà un bon point à faire figurer sur le bulletin scolaire des écoles.

Notes

[1] Crédit photo : Superbomba (Creative Commons By-Sa)




Cloud computing, logiciel libre et service public

Per Ola Wiberg - CC byEn ce début d’investiture Obama, de nombreux internautes expriment souhaits et desiderata à la nouvelle administration.

Le vœu de William Hurley a retenu notre attention. « Je suggère que vous créiez un cloud computing financé par l’État, mis à la disposition des facultés et des universités », nous dit-il. Nous n’en saurons pas vraiment plus car il n’est pas entré dans les détails mais nous avons néanmoins saisi la perche pour en faire un billet où nous pourrions nous interroger ensemble sur les relations entre l‘informatique dans les nuages, le logiciel libre et un éventuel rôle de la puissance publique.

Placer nos données personnelles, nos fichiers, nos liens, etc. sur le Grand Internet présente en effet de nombreux avantages pratiques à l’heure où l’on peut « quasiment » se connecter partout tout le temps. Mais ce n’est pas sans poser quelques questions pour ne pas dire quelques problèmes. Je pense par exemple à la mésaventure récente de ce pauvre Marc L***[1] que l’on pouvait suivre au jour le jour à la trace via Facebook et consorts. Je pense également à notre récent billet La tête dans les nuages mais les pieds sur terre. Je pense enfin à la toile tissée méthodiquement par Google avec tous ses services en ligne (Gmail, Reader, Maps, Earth, Picasa, Calendar, Docs, YouTube…) que nous sommes nombreux à utiliser au quotidien.

Et puisqu’il est question d’éducation supérieure et d’université[2], je dois bien vous avouer que, l’année dernière, lorsqu’il a été question de créer en deux-trois coups de cuillère à pot des adresses de messagerie (avec ou sans chat) pour tous les enseignants et étudiants de mon établissement scolaire, de se doter d’agendas partagés et d’une suite bureautique en ligne (fichiers tableurs et traitements de texte potentiellement accessibles en lecture écriture, selon les droits, à toute la communauté, et disponibles au format ODF), je me suis tourné vers… Google Apps Education sans avoir « malheureusement » à le regretter.

En tant que responsable TICE de mon lycée J’ai donc osé confier les données de mes élèves à Google ! Est-ce grave docteur ? Oui ça l’est ! J’en ai bien conscience et je compte bien un jour me soigner (quand bien même Google n’affiche bien entendu pas de publicités pour ce service spécifique au monde éducatif). Il faut tout de même dire, à ma décharge, que par rapport à ma problématique et à mes besoins (temps limité, budget nul et situation particulière d’un lycée à l’étranger) je ne pouvais raisonnablement pas m’appuyer sur un quelconque Espace Numérique de Travail (ENT) dont je doute de plus en plus de leur pertinence et efficience à mesure que le temps passe (surtout si l’on continue à s’obstiner à les développer académie par académie).

Les partisans du logiciel libre peuvent sensibiliser sur les risques encourus à confier nos documents et informations numériques à des services en ligne « gratuits » proposés par des sociétés commerciales « web 2.0 » qui n’offrent pas de garanties sur l’avenir et sont souvent opaques au niveau de nos droits et des formats. Ils peuvent pousser à ce que des licences plus adaptées et plus transparentes soient adoptées (telle la licence AGPL). Mais, contrairement à un Microsoft où il « suffisait » de proposer des alternatives logicielles libres, ils ne peuvent absolument pas concurrencer un Google sur son terrain, c’est-à-dire justement le cloud computing, qui nécessite des investissements très très lourds ne serait-ce que pour pour installer et maintenir les batteries de serveurs disséminés un peu partout sur le réseau. Et alors je crois effectivement que le politique et le secteur public (national ou supra-national) peuvent nous être d’un grand secours pour modifier la donne (si tant est que l’on juge que la donne mérite modification).

C’est certainement l’alliance « logiciel libre + secteur public » qui pourra faire en sorte de ne pas laisser le champ libre aux seules sociétés privées. Ne privatisons pas la totalité du cloud computing (surtout dans le domaine éducatif), voilà par extrapolation, le sujet du billet du jour. Un peu comme ce qu’a voulu faire le projet de bibliothèque numérique européenne Europeana pour contrarier Google Books avec pour le moment le succès que l’on sait

L’enseignement supérieur a besoin d’un nuage informatique national

Higher education needs a national computing cloud

William Hurley – 26 janvier 2009 – InfoWorld
(Traduction Framalang : Don Rico)

Le cloud computing (ou informatique dématérialisée ou informatique dans les nuages), est vital pour l’avenir de l’enseignement supérieur aux États-Unis, et j’invite le Président Obama à agir

Le 26 janvier 2009
M. le Président Barack Obama
La Maison Blanche
Washington, DC 20500-0001

M. le Président,

Je tiens à vous adresser mes plus sincères félicitations, Monsieur, pour votre récente investiture à la fonction de 44ème Président des États-Unis d’Amérique. Votre victoire est la preuve de la grandeur de notre démocratie, mais aussi de la capacité de transformation de cette même démocratie. Comme des millions de mes semblables du monde entier, j’ai regardé avec une grande fierté votre prestation de serment, lors de laquelle vous êtes devenu un exemple vivant de l’impact que peut avoir un seul citoyen américain.

Vous avez déclaré « Le monde change, et nous devons changer avec lui ». Je suis on ne peut plus d’accord, M. le Président, et je crois que la politique que mènera votre administration sera une fontaine d’innovation. Je sais que le vice-président et vous êtes profondément favorables au développement des initiatives de recherche dans les instituts d’enseignement supérieur qui sont au cœur de l’innovation américaine. Pour ces instituts, l’avenir est déjà là. Mais, comme l’a écrit William Gibson « il n’est pas encore tout à fait équitablement réparti ».

Nous avons laissé le coût de la technologie entraver notre capacité à innover. Les chercheurs ne sont plus limités par le manque d’idées ou de connaissances, mais plutôt par les moyens informatiques nécessaires pour conduire des expériences et en analyser les résultats.

Je suggère donc que vous créiez un cloud computing financé par l’État, mis à la disposition des facultés et des universités. Une telle ressource aurait le mérite de niveler le terrain universitaire. Les chercheurs qui travaillent d’arrache-pied dans des milliers d’instituts de taille modeste auraient alors accès à une puissance informatique qui n’est pour l’instant accessible qu’à une poignée de privilégiés. Il nous est impossible de prédire d’où viendra la prochaine grande innovation, mais des ressources informatiques dématérialisées publiques amélioreraient de façon extraordinaire nos moyens de coopérer et d’innover au niveau national.

Les grandes avancées technologiques et sociales peuvent se produire presque simultanément. En septembre 1962, un jeune chercheur publiait ce qui donnerait naissance aux plus grandes avancées technologiques de notre temps, et au même moment, un autre jeune homme originaire de Kosciusko, dans le Missouri, amorçait un itinéraire personnel qui aboutirait à un moment charnière dans la lutte pour les droits civiques. D’aucuns peuvent y voir une coïncidence, mais en ce qui me concerne j’y vois la providence. Les recommandations de Paul Baran en faveur d’une structure nationale publique destinée à transporter des données informatiques et l’entrée de James Meredith à l’université du Mississipi ont, du point de vue technologique et social, changé les États-Unis en profondeur.

Votre administration, par sa connaissance des nouvelles technologies, tient l’occasion d’accomplir un autre grand bond en avant. On ne peut comparer ma lettre à l’article de Baran, mais j’espère suggérer cette idée au moment opportun. Une idée trop en avance sur son temps a aussi peu de valeur qu’une idée avancée après que des engagements ont déjà été pris. J’espère donc attirer votre attention maintenant, avant que vos projets de réformes pour l’éducation aient été élaborés, et tant qu’il reste du temps pour prévoir le financement d’un cloud computing ayant le potentiel de transformer des chercheurs dispersés et inégaux en une locomotive d’innovation la plus puissante du monde.

Encore une fois, M. le Président, je tiens à vous féliciter, votre équipe et vous, pour votre victoire grandiose acquise grâce aux nouvelles technologies, ainsi que pour votre investiture inattendue, exaltante et triomphante.

Notes

[1] J’en profite pour saluer ici le très libre curieux magazine curieux Le Tigre.

[2] Crédit photo : Per Ola Wiberg (Creative Commons By)




Quand Mozilla participe à la libération de la vidéo

Theilr - CC by-saEt si les vidéos en streaming Flash et le casse-tête actuel des formats (.mov, .wmv, .mpeg, .avi…) ne constituaient qu’une parenthèse dans l’histoire du multimédia numérique ?

Nous n’en sommes pas encore là (loin de là), mais merci à Mozilla, en pleine cohérence avec son manifeste, de contribuer grandement à tenter d’améliorer une situation qui évoluera d’autant plus favorablement que nous, utilisateurs, serons nombreux à lui emboiter le pas[1].

Et quelle satisfaction de voir Mozilla, Wikipédia et Xiph.org (Ogg Theora/Vorbis) s’associer pour construire le monde que nous voulons et non celui que nous avons !

Pourquoi libérer la vidéo ?

Why open video?

Christopher Blizzard – 26 janvier 2009
(Traduction FrenchMozilla : Goofy)

Chacun se rend bien compte que le Web ouvert devient de plus en plus important dans nos relations avec les autres. Nos applications, nos conversations et nos échanges tendent à se passer en ligne, et Mozilla se trouve de plus en plus au cœur même de ce phénomène, bien placée pour définir à la fois la technologie sous-jacente et la pratique des usagers du Web. C’est un rôle crucial, et c’est l’une des raisons pour lesquelles il est important de nous comporter comme une entreprise à but non-lucratif en pleine conscience de notre mission et de notre impact.

En prenant un peu de recul, on se rend compte que l’arrivée du Web ouvert comme plateforme technologique est un phénomène dont l’histoire donne peu d’exemples. L’imprimerie nous a permis de reproduire les connaissances facilement et à bas prix. La télévision et la radio ont abaissé le coût de diffusion des médias. Le Web a fait disparaître la centralisation par de grands médias de masse, et chacun peut maintenant produire et diffuser. Les coûts de reproduction, de diffusion et d’interactivité par des commentaires sont devenus presque négligeables.

Je pense quant à moi que c’est possible grâce aux choix technologiques qui ont été faits dès les premières années de l’évolution du Web. Des formats lisibles par l’être humain, des applications simples fournies avec leur code source et la possibilité pour chacun de publier et de créer. Il n’existait pas en ces temps reculés de tours d’ivoire ni de développeurs professionnels, aussi le processus de création devait-il être simple. La technologie du Web exigeait d’avoir une forme d’esprit très orientée vers la technique, mais vous n’aviez pas besoin d’un long apprentissage pour vous lancer. Si l’on ajoute à ça le principe du bout en bout avec Internet, et le fait que le premier venu pouvait installer un serveur ou un client, cela signifie que le Web n’a pas pris son envol grâce au soutien de grands acteurs, mais est devenu une immense ressource partagée, fondée sur les petits efforts de milliers d’individus.

Il en est résulté une explosion générale de créativité et d’investissements, depuis les simples particuliers jusqu’aux plus grandes entreprises. Chacun peut avoir une impact et chacun peut influencer la technologie du Web. Car quiconque parle la lingua franca (NdT : un langage de communication, comme le latin autrefois, ou l’anglais basique aujourd’hui) du Web peut construire ses propres outils sans demander la permission, vous pouvez trouver des outils pour faire absolument tout vous voulez. C’est véritablement une place de marché très animée.

Mais il existe une exception notable : la vidéo sur le Web. Bien que les vidéos soient disponibles en ligne sur des sites comme Youtube, elles ne bénéficient pas des caractéristiques d’accessibilité au plus grand nombre qui ont assuré au Web sa vitalité et sa diffusion. Et ça se voit. La centralisation a entraîné quelques problèmes intéressants dont les symptômes sont la censure après des violations de DMCA et la concentration excessive du public sur un petit nombre de sites qui ont les capacités et la technologie nécessaires pour héberger des vidéos. Je crois que des problèmes comme ceux que nous voyons autour de YouTube sont l’indice d’un problème bien plus important, celui de l’absence de déconcentration comme de compétition dans les technologies vidéos — ce qui est très éloigné de tout ce qui existe sur le Web d’aujourd’hui.

Selon moi il existe deux choses qui peuvent aider à mener cette décentralisation :

  • Il devrait être facile de comprendre comment passer d’un format de document lisible par un ordinateur à un contenu tel qu’il est présenté à l’utilisateur. Par exemple, convertir un fichier HTML en document, un fichier JPEG en image sur l’écran, ou pouvoir utiliser le protocole HTTP pour télécharger un fichier.
  • Il doit être possible d’implémenter et de distribuer cette technologie sans avoir à demander l’autorisation ou la licence de quiconque. En termes concrets cela veut dire qu’elle doit être disponible sans avoir à payer de droits et sans documentation accablante.

Dans le monde de la vidéo, on trouve des formats qui remplissent la première condition : certains formats sont bien documentés, identifiés et même largement répandus. Mais bien trop souvent ils sont soumis à des droits à payer à l’unité, ou de lourds tributs dès le départ, si bien que la création de contenus sous ces formats (pour les coder) est souvent chère au point d’être prohibitive pour tous, si ce n’est pour des firmes aux poches bien lestées et des startups les mieux dorées sur tranche. Et il existe bien peu de formats vidéo qui remplissent la seconde condition. Ce n’est pas ce genre de décentralisation qui profite au Web. Ce serait plutôt l’inverse.

Nous voilà donc dans cette histoire au moment où Mozilla joue son rôle : voici ce que nous allons faire.

  • Dans Firefox 3.1, nous ajoutons la prise en charge native du conteneur OGG avec les codecs audio et vidéo Vorbis et Theora, pour la balise <video>. Il s’agit d’une des rares associations de formats qui remplisse les deux conditions ci-dessus. Ce ne sont pas des formats parfaits, mais ils sont certainement d’une qualité amplement suffisante pour l’usage de la vidéo sur Internet de nos jours. Et ils vont aller en s’améliorant.
  • Nous assurons également le développement de la vidéo ouverte avec une subvention de 100 000 dollars qui sera gérée par la fondation Wikimedia pour soutenir et développer Theora. Vous pouvez espérer voir sortir de grandes choses de ce financement. Et ce travail finira par profiter tout autant à Firefox.
  • Encore une chose que nous pouvons accomplir : donner pleinement droit de cité à la vidéo sur le Web. Cela signifie que nous pouvons faire des choses avec la vidéo et la faire interagir avec d’autres types de contenus (SVG, Canvas, HTML) comme il était impossible de le faire jusqu’à présent. Nous espérons qu’en libérant la vidéo du carcan imposé par les plugins pour qu’elle puisse jouer en harmonie avec le reste, nous pourrons lancer une nouvelle vague de créativité autour de la vidéo. J’en dirai plus long dans un autre billet.

Nous n’espérons pas qu’en faisant cela nous allons tout changer du jour au lendemain. Loin de là — les changements de cet ordre prennent du temps. Mais nous pouvons certainement jouer notre rôle, du moins rendre possible le développement de ce genre de phénomènes. Nous voulons voir émerger un marché de la vidéo comme nous l’avons vu émerger pour le Web. Telle est notre contribution pour lancer le mouvement.

Notes

[1] Crédit photo : Theilr (Creative Commons By-Sa)