Wikipédia et éducation : un exemple de réconciliation 6/6

Cet article clôt le dossier Wikipédia et éducation : un exemple de réconciliation.

Il propose une sélections de liens pour informer, débattre et aller plus loin.

Liens francophones connexes

Revue de « presse » de ce dossier

  • Wikipédia comme support de travail universitaire ? – Adrienne Alix – Compteurdedit – 17 février 2009
    « Il va encore plus loin en se demandant s’il est plus formateur et plus utile à un étudiant de savoir argumenter sur un sujet donné (cadre d’une dissertation) ou de savoir présenter les connaissances liées à ce sujet, d’être capable de faire des recherches sur un sujet, de synthétiser des sources, de confronter son travail au regard des autres et de travailler en collaboration. C’est le genre de débat qui créerait immédiatement des hurlements dans une assemblée d’enseignants, mais je crois que c’est très intéressant si on se demande un peu ce que Wikipédia peut apporter à l’enseignement universitaire. Le volet argumentation pure, très académique, est une chose sans doute essentielle à maîtriser. Mais l’écriture collaborative, avec des exigences de qualité formelle et de sourçage, la synthétisation du savoir existant, la confrontation au regard des autres, toutes ces choses qui sont le principe même du fonctionnement de Wikipédia, je crois très sincèrement que c’est une part de pédagogie qui n’existe pas dans l’enseignement et qui serait pourtant très bonne pour l’esprit et très utile dans le monde professionnel, où on argumente rarement par dissertation. »
  • Une expérience canadienne réconcilie Wikipedia et éducation – Mathieu Grégoire-Racicot – Le Quotidien Jurassien – 20 février 2009
    « Avenir et partage de la connaissance pour les uns, royaume du plagiat et l’opinion mal formulée pour les autres, l’encyclopédie collaborative Wikipedia a une réputation controversée, sulfureuse, spécialement dans le monde de l’éducation. Or une petite histoire, rapportée par le très fouillé et très actif Framablog, tenu par un professeur de lycée français, montre à quel point des projets pédagogiques pourraient se trouver enrichis, encadrés et davantage formateurs en utilisant Wikipedia, non comme une source, mais comme aboutissement de travaux de recherche. »

Autour de l’éducation

  • Projets pédagogiques – Wikipédia
    « Si vous êtes un enseignant dans une école ou dans une université, nous vous encourageons à utiliser Wikipédia dans votre classe non seulement comme source d’information mais comme espace de rédaction et de construction de connaissances. »
  • Wikipédia : la rejeter ou la domestiquer ? – Eric Bruillard – Médialog 61 – mars 2007
    « Le phénomène Wikipédia interpelle le monde enseignant. Quelle confiance peut-on accorder à une encyclopédie rédigée par ses lecteurs et dont les articles sont modifiés en permanence ? Quelle place l’École peut-elle lui faire ? »
  • D’un Club Histoire à un Club Wikipédia – Sylvain Négrier – septembre 2008
    « Quels usages vos élèves font-ils de Wikipédia ? Wikipédia est visiblement une source d’information importante pour eux. Sa valorisation par les moteurs de ucation-a-education-exemple-projet-pedagogique-6exemple-projet-pedagogique-6recherche (dont Google) en fait un point de départ quasi obligé. C’est particulièrement net pour les TPE et l’ECJS. Le problème majeur, mais ce n’est pas une découverte, c’est le manque de recul (voire de compréhension) de certains élèves. Cela leur joue parfois des tours : lors d’une composition à faire à la maison (…) Ceci dit les élèves ne sont pas totalement naïfs, et je les invite à exercer leur esprit critique, y compris envers ce que je leur enseigne : je ne me considère pas comme infaillible. »
  • Wikipédia et le cours d’histoire – Les Clionautes – septembre 2008
    « L’encyclopédie en ligne est devenue un des pôles majeurs sur le web, et une référence de choix pour beaucoup d’élèves et enseignants. Elle fait néanmoins l’objet de réticences et a suscité des débats très vifs ces dernières années. Ce premier article, qui prolonge la page Wikipédia en débats, a pour objectif de revisiter les étapes et les enjeux d’un débat très médiatisé, sur fond de divergences quant à la vision de la société et de l’éducation. Une réflexion sur la place de Wikipedia à l’école invite à interroger nos pratiques, et à proposer des pistes pragmatiques, à court et à moyen terme. »
  • L’histoire peut-elle être Open Source ? Les historiens et Wikipedia – Roy Rosenzweig (traduction Clioweb) – juin 2006
    « L’histoire est un art (un métier ?) éminemment individualiste. Les travaux signés d’une seule personne sont la règle dans la profession (…) Cet individualisme qui caractérise la recherche en histoire est aussi très possessif. Afin de travailler honnêtement, et éviter les accusations de plagiat, nous autres historiens devons attribuer idées et expressions à ceux qui les ont émises (…) Il est donc presque impossible d’envisager dans notre culture professionnelle des travaux historiques dénués de propriétaire, effectués par une multitude d’auteurs anonymes. C’est pourtant la définition exacte de Wikipedia. »
  • Wikipédia tente de pénétrer le milieu éducatif – François Jarraud – Café Pédagogique – décembre 2005
    « Le problème c’est que Wikipédia n’est malheureusement plus un outil recommandable pour les enseignants. Le projet, fort sympathique au départ, sert des intérêts qui suscitent des interrogations (…) Tant que la clarté ne sera pas faite sur le fonctionnement de Wikipédia et le ménage dans ses articles, nous déconseillons aux enseignants de l’utiliser avec les élèves. »
  • Wikipédia, une encyclopédie sans auteurs ? – Serge Pouts-Lajus – Les dossiers de l’Ingénierie Educative n°58 – juin 2007
    « Wikipédia est un projet apparemment sympathique. Il possède des qualités qui ne peuvent lui être contestées et auxquelles je suis, comme tout le monde, sensible : l’encyclopédie libre est utile, gratuite et d’accès facile. Mais justement, lorsqu’il s’agit de savoirs, d’œuvres de l’esprit et de culture, les considérations utilitaristes ne suffisent pas. Tant que l’on reste attaché au principe de responsabilité des individus et des collectifs particuliers relativement aux œuvres qu’ils produisent, il n’est pas possible d’adhérer à un tel projet. »
  • De sévères critiques de Wikipédia – Alithia – Blog : Wikipédia ou le mythe de la neutralité – janvier 2007
    « Cet article et le suivant qui le complète, cite un très grand nombre de critiques faites à wikipedia, par des professionnels de l’enseignement, de la recherche et de l’éducation. »
  • L’édition de référence libre et collaborative : le cas de Wikipédia – INRP – mars 2006 (le dossier complet en pdf)
    « Selon Cormac Lawler, Wikipedia n’est pas simplement une encyclopédie, ni même un nouveau modèle éditorial : le projet présente en effet les caractéristiques d’une organisation apprenante tant dans sa structure que dans son fonctionnement. A la lumière des recherches sur les communautés virtuelles ou les communautés de pratique, il identifie les éléments de convergence suivants : Wikipedia est auto-gérée, auto-sélective et auto-évolutive. Le potentiel de la communauté réside selon lui dans la promotion d’une pédagogie de la découverte et dans le développement de l’esprit critique nécessaire à son fonctionnement. Le conflit est perçu comme un ingrédient nécessaire à la négociation car il requiert une mise en perspective des différents points de vue et une prise en compte des différences culturelles (…) La confrontation des partis-pris culturels est un signe d’action critique manifeste dans un contexte où l’adhésion à la règle de neutralité est partagée et où la convivialité est assumée comme essentielle. »
  • Le phénomène Wikipédia : une utopie en marche – Christian Vandendorpe – Le Débat, no 148 – janvier 2008
    « Au lieu d’élever un pare-feu autour de Wikipédia, l’École aurait donc tout intérêt à s’en servir comme d’un outil pédagogique. Outil d’éducation pour apprendre à respecter le bien public et à ne pas vandaliser des articles ; outil de formation à la lecture critique, surtout, afin d’apprendre à ne pas prendre pour argent comptant tout ce qui s’écrit : en vérifiant la présence de sources crédibles, en comparant divers états d’un article, en comparant la version française avec des versions rédigées dans d’autres langues, en faisant des recherches complémentaires dans d’autres sources, numériques ou imprimées. Une telle attitude critique est plus nécessaire que jamais, alors que le mensonge et la dissimulation s’épanouissent dans la culture anonyme du web et que les plus hautes sphères de l’administration de pays qui se présentent comme des modèles de démocratie pratiquent la désinformation à grande échelle, comme on l’a vu lors de la campagne qui a conduit les États-Unis à envahir l’Iraq. »
  • Wikipédia, un objet problème en information-documentation – Pascal Duplessis et Laure Endrizzi – mai 2008
    « En premier lieu, certainement, Wikipédia s’affiche en tant qu’objet documentaire, support de ressources informationnelles, et dont l’usage doit pouvoir être garanti : l’information offerte, même si elle est gratuite et facilement accessible, est-elle pour autant « consommable », c’est-à-dire sans risque de préjudice pour la santé intellectuelle ? Si de nombreux collègues de discipline ne s’offusquent pas de cette incertitude, sans doute par insuffisance d’expertise, le garant de l’information documentaire en circulation dans l’établissement, lui, s’en inquiète. Quel statut accorder à cet apport d’information au regard des autres ressources disponibles dans ou à partir du CDI ? Quelles précautions prendre ? Quel type d’accompagnement proposer aux élèves ? Quel discours tenir au sujet de Wikipédia ? »
  • Wikipédia – Une encyclopédie libre, gratuite et écrite coopérativement – Alain Caraco – BBF – août 2004
    « Wikipédia est-elle l’encyclopédie qu’attendaient les bibliothèques publiques françaises ? J’aurais tendance à répondre oui et non à la fois. Non dans son état actuel : trop de domaines sont insuffisamment couverts, trop d’articles sont encore à l’état d’une ébauche rédigée hâtivement. Mais, très certainement, oui dans un état futur (…) La Wikipédia en ligne ne peut être qu’en travaux permanents. C’est une sorte de chaudron bouillonnant, où l’on produit la matière première, toujours instable. Des éditions stabilisées, monolingues ou multilingues, sur cédérom, sur papier ou en ligne pourraient en être dérivées. Elles pourraient même être vendues par des éditeurs commerciaux, avec de la valeur ajoutée, notamment en matière de présentation ou d’illustration. Ce modèle économique existe déjà pour les logiciels libres : on peut télécharger Linux auprès de la communauté des développeurs, ou bien acheter une version commerciale, avec un mode d’emploi et une assistance téléphonique. »
  • C’est rien qu’à cause de Wikipédia si nos enfants échouent ! – Framablog – octobre 2008
    « Hier on apprenait en Écosse que c’est Internet qu’il faut blâmer pour le taux d’échec aux examens (…) Wikipédia, parmi d’autres sources, était cité comme étant la raison pour laquelle les étudiants échouent. Est-ce que Internet les rend stupides ? Ou bien est-ce que les étudiants ont seulement besoin d’apprendre à utiliser les nouveaux outils de recherche du Web de façon plus appropriée ? »
  • Ceux qui disent non… à Wikipédia – Astrid Girardeau – Les Écrans – janvier 2008
    « Diaboliser et interdire des sites Internet sous prétexte que les étudiants n’utilisent pas assez leurs propres cerveaux et les contenus académiques, on a vu plus constructif et efficace. Quand on observe l’ergonomie ou la disponibilité des outils d’information académiques accessibles à l’université pour les étudiants, fait remarquer Ertzcheid, on comprend hélas très facilement pourquoi ils préfèrent utiliser Wikipédia ou Google. S’en désoler ne servira à rien. »
  • Wikipédia est un projet encyclopédique et un bien commun de l’humanité – Astrid Girardeau – Les Écrans – janvier 2008
    « Pour 1 enseignant ou 1 université interdisant d’utiliser Wikipédia, 100 autres forment les étudiants à son usage, les aident à décrypter ses contenus. Ce faux-procès en incompétence qui est de plus en plus souvent fait à Wikipédia est d’autant plus horripilant que Wikipédia affiche clairement sur sa page d’accueil le fait qu’elle ne doit pas être utilisée comme une source primaire d’information. »

Plus général

  • Wikipédia – Wikipédia
    « Comme l’indique la première ligne de sa page d’accueil, Wikipédia a pour slogan : Le projet d’encyclopédie librement distribuable que chacun peut améliorer. Ce projet est décrit par son cofondateur Jimmy Wales comme un effort pour créer et distribuer une encyclopédie libre de la meilleure qualité possible à chaque personne sur la terre dans sa langue maternelle (…) En revanche, Wikipédia n’a pas pour but de présenter des informations inédites. Comme pour les encyclopédies classiques, son ambition se limite à exposer des connaissances déjà établies et reconnues. Les travaux personnels ou originaux n’ont pas leur place dans Wikipédia. »
  • Critiques de Wikipédia – Wikipédia
    « Sébastien Blondeel, dans un livre sur Wikipédia, a écrit en 2006 : Wikipédia est un projet avec lequel il faudra compter. Et si les critiques commencent à se faire entendre, c’est paradoxalement plutôt bon signe : justifiées, elles permettent de prendre conscience des problèmes ; gratuites ou exagérées, elles confirment l’influence et le succès du projet. »
  • Wikipédia : constats et propositions – Nat Makarevitch – avril 2006
    « Ce document expose des problèmes et incohérences de Wikipedia, projet d’encyclopédie libre publiée sur le Web, dans le but de l’améliorer, non de dénigrer. Nous y montrons le caractère abusif de certaines actions menées par certains contributeurs. »
  • WikiGrill – Les articles de Wikipédia passés sur le gril de Books
    « Pour remarquable qu’elle soit, et globalement salutaire, l’entreprise Wikipédia invite à la critique. Si beaucoup d’articles de cette encyclopédie d’inspiration démocratique sont de grande qualité, d’autres ne résistent pas à un examen attentif. Soit parce que leur contenu est léger ou inconsistant, soit parce qu’il est manipulé, parfois avec une grande habileté, par des internautes ou des lobbies qui défendent un intérêt. Or, Wikipédia est devenu le premier mode d’accès au savoir pour les jeunes et les moins jeunes qui, sans avoir reçu de formation universitaire poussée, naviguent quotidiennement sur le web. Avec sa rubrique WikiGrill, Books souhaite attirer l’attention sur l’existence de biais qui influencent de manière plus ou moins cryptée la qualité ou l’objectivité de certains articles de Wikipédia. »
  • La réponse de Sylvain Négrier à l’initiative WikiGrill (décembre 2008) : Une lecture critique de Wikigrill
    « Les wikipédiens s’interrogent depuis longtemps sur ce qu’est un bon article. Ils ont défini progressivement deux labels, attribués après un vote des contributeurs, représentant chacun un palier dans le niveau des articles. Il s’agit du label Article de Qualité, le plus prestigieux, pour le moment décerné à un peu plus de 500 articles, et du label Bon Article, qui concerne près de 500 articles et qui récompense ceux qui sont satisfaisants mais qui paraissent encore améliorables. Les conditions d’attribution de ces labels se sont considérablement durcies ces derniers mois, au grand dam de certains wikipédiens, essentiellement pour que ces articles, proposés comme vitrine de Wikipédia (notamment en page d’accueil), puissent échapper aux critiques les plus évidentes. Cela ne constitue toutefois pas une garantie totale : ces articles ne sont que très rarement relus par d’authentiques spécialistes, et les discussions lors des votes se portent assez volontiers sur les aspects formels. Il aurait donc été particulièrement intéressant que les auteurs de Wikigrill™ s’attachent prioritairement à ces articles labellisés. Sont-ils réellement d’un bon niveau ? La procédure d’attribution des labels telle qu’elle existe est-elle à même de repérer les meilleurs articles ? Ne faudrait-il pas la remplacer par une relecture par un/des spécialiste(s) ? »
  • La réponse de Jean-Claude Guédon à l’initiative WikiGrill (janvier 2009) : Wikipedia ? Moi, j’aime plutôt bien
    « Wikipedia n’est pas un produit textuel fixe offert à la consommation; il s’agit d’un processus incessant qui nous convie à la table du plus grand banquet intellectuel jamais construit dans l’histoire de l’humanité. Déjà étonnamment utile, essayons d’imaginer ce que ce sera dans dix ou vingt ans. »
  • L’encyclopédie de non-référence – Denis Berger – février 2005
    « On sait que l’idée de Wikipedia, comme sa licence LGPL, viennent de l’univers du logiciel libre, tendance Stallman, et visent à reproduire dans le domaine de la connaissance ce qui a si bien réussi dans celui de l’informatique : l’élaboration d’un bien commun par la participation de tous, en fonction des moyens de chacun, puisque tout un chacun est présupposé dépositaire d’une parcelle de connaissance qui, si menue soit-elle, est susceptible d’intéresser l’ensemble. Mais la ressemblance entre un programme et une encyclopédie se limite au fait que, dans un cas comme dans l’autre, il faut commencer par les écrire ; le programme, lui, ensuite, s’exécute, et dispose donc de son propre système de correction d’erreurs, brutal mais efficace : s’il est mal écrit, il plante. Il offre donc, paradoxalement pour un logiciel libre par définition livré sans, une garantie quant à son fonctionnement, la disponibilité des sources comme des programmeurs permettant, de plus, en l’espèce, de résoudre rapidement les problèmes. Autrement dit, l’exportation de ce concept, tel qu’il est présenté, vers un projet encyclopédique se révèle privé de pertinence puisque, là, rien, en dehors d’une éventuelle relecture d’un participant qui pourra peut-être se trouver contredite un peu plus tard par un autre, ne garantit la qualité de l’information publiée ; ici, le mécanisme cumulatif et automatique qui permet l’amélioration continue du logiciel libre ne joue pas.  »
  • Inside Wikipédia – Camille Gévaudan – Les Écrans – juillet 2008
    « Ecrans.fr s’invite à l’intérieur de Wikipédia et vous propose d’aller voir comment un projet aussi pharaonique peut fonctionner au quotidien. »
  • Wikifeuilleton – Le Tigre
    « Les coulisses de l’encyclopédie collaborative Wikipedia. »
  • À propos de Wikipédia – Rui Nibau – Framasoft – mars 2006
    « Ici, je n’ai fait que voir un verre à moitié vide en n’abordant qu’un unique aspect des critiques formulées à l’encontre de Wikipédia. D’autres internautes peuvent – à juste titre – le voir à moitié plein. A un moment de son histoire où l’encyclopédie acquiert une visibilité croissante dans d’autres médias, et attire donc l’attention d’acteurs aux intérêts divergents, l’avenir proche nous dira si ce verre finira par se remplir ou par se briser. » (et la réponse de Nojhan : Wikipédia, l’encylopédie asymptotique)
  • Wikipédia : le refus du pouvoir – Mémoire de fin d’étude de Sylvain Firer-Blaess – Institut d’Etudes Politiques de Lyon – 2006/2007
    « Wikipédia refuse le pouvoir : elle refuse la possession de l’information aux plus fortuné, en rendant l’information libre. Elle refuse aussi la production du savoir par quelque uns, en donnant ce pouvoir à tous. Elle refuse dans son organisation les statuts spéciaux, elle refuse la centralisation de la surveillance et de la décision. Ainsi elle dissout le pouvoir et en donne une parcelle à chacun : le pouvoir de décider, le pouvoir de créer le savoir, le pouvoir de s’informer. Elle empêche ainsi fortement les processus de domination dans son organisation interne. Elle a aussi un impact sur le monde réel, impact certes minime, mais donner la possibilité aux personnes qui disposent d’une connexion internet de disposer d’un savoir libre et gratuit, c’est déjà quelque chose. »
  • D’Amour & de Neutralité : Ce(ux) qui résiste(nt) – Martin Erpicum – Mémoire universitaire – juillet 2005
    « L’objet empirique de ce mémoire est l’encyclopédie libre Wikipédia. De tout temps, les encyclopédies ont été un support à l’apprentissage d’un intérêt certain. L’apparition d’un type d’encyclopédie rédigée coopérativement par des pairs sur le réseau Internet a entraîné bon nombre de questionnements : critères de validation de la connaissance, contrôle des actes de vandalisme, régulation des contributeurs, etc. Afin d’éclairer en partie ces questionnements, le présent travail va tenter de décrire les pratiques de régulations inhérentes à la tâche de rédacteur encyclopédique, et de rendre compte des contraintes et normes émergentes qui encadrent l’activité des pairs. »

Succincte bibliographie

  • « Wikipédia, Découvrir, utiliser, contribuer » – Florence Devouard et Guillaume Paumier – Presses universitaires de Grenoble – janvier 2009
    « Ce livre vous guide à la découverte de cette gigantesque fourmilière et vous explique comment utiliser efficacement son contenu. Il vous incite ensuite à devenir acteur et à participer à la rédaction de l’encyclopédie, quels que soient votre âge et vos domaines de compétences. »
  • Wikipédia, Média de la connaissance démocratique ? Quand le citoyen lambda devient encyclopédiste – Marc Foglia – FYP Éditions – novembre 2007
    « Cherchez n’importe quel mot sur Google… Les deux premières pages de résultat, celles qui comptent, renvoient presque invariablement à un article de Wikipédia. Comment cette encyclopédie d’un nouveau genre s’est-elle installée comme une source universelle de connaissance, et désormais comme un réflexe intellectuel ? L’origine de ce phénomène, son fonctionnement et son évolution fulgurante sont autant d’appels à la réflexion.Wikipédia c’est la dématérialisation de la connaissance et la progression de son accessibilité : peut-on parler d’un nouveau média ? d’une Toile dans la Toile ? Que devient la propriété intellectuelle dans ce partage gratuit de la connaissance ? Pourra-t-on parler d’une « génération Wikipedia » ? Quels sont les risques que fait courir l’encyclopédie libre à la connaissance, au jugement et à l’esprit critique ? Ces interrogations nous permettent d’éclairer d’autres phénomènes contemporains comme le travail collaboratif en réseau, la frontière entre biens marchands et biens non-marchands, la frontière entre travail et bénévolat, la démocratie à l’ère du numérique, etc. Par une approche critique, philosophique et sociologique, l’ouvrage analyse en profondeur cette « l’encyclopédie collaborative » comme un phénomène émergent, comme expression de tendances de fond de la modernité au XXIe siècle, et une innovation remarquable susceptible d’éclairer d’autres évolutions de la société contemporaine. »
  • Wikipédia – Comprendre et participer – Sébastien Blondeel – Eyrolles – avril 2006
    « Qui n’a entendu parler de Wikipédia, l’encyclopédie collaborative de l’Internet la plus vaste et la plus consultée ? Qui ne connaît ce projet international auquel des experts de tous domaines contribuent ? Née en 2001, Wikipédia compte plus de trois millions d’articles début 2006, 120 langues actives, un million d’articles en anglais, 250 000 en français. Ce livre explique comment l’explorer et y participer, dans quelles limites réutiliser son contenu et quels sont ses secrets de fonctionnement (financement, contexte politique). »

El Senor Presidente - Accueil Wikipédia - 5 mai 2008

Les autres articles du dossier

  • 1/6 – Introduction
    Un projet pédagogique « de qualité ».
  • 3/6 – Le projet vu par un éditeur de Wikipédia
    Le point de vue d’un éditeur de Wikipédia, membre de « l’équipe des Articles de Qualité », ayant accompagné et soutenu les étudiants pendant la durée de leurs travaux.
  • 6/6 – Liens connexes
    Une sélection de liens francophones autour de Wikipédia et l’éducation.



Le désastre Vista n’a pas forcément favorisé Linux

Hamed Masoumi - CC byL’article du jour, ou plutôt la traduction du jour, évoque un phénomène que nous sommes nombreux à avoir constaté : la perte initiale de « l’avantage » qu’avait GNU/Linux chez les netbooks au bénéfice non pas de Vista (il est bien incapable de tourner sur ces petites machines) mais de Windows XP.

Il suffit en effet de s’en aller faire un tour chez un grand revendeur d’informatique pour se rendre compte que, dans la grande majorité des cas, les netbooks sous Linux ne sont pas mis en valeur (aussi bien côté présentation que côté personnel de l’échoppe qui aura vite fait de vous conseiller le netbook Windows si tant est que vous lui posiez la question).

Et c’est d’autant plus dommage que nous avions là une belle opportunité de montrer au « grand public » que Linux était désormais une alternative réelle et crédible[1]. Raison de plus pour « pousser Linux côté marketing » sachant que l’arrivée prochaine du nouveau système d’exploitation Windows 7 (justement là pour faire oublier l’accident industriel Vista) risque de compliquer encore un peu plus la donne…

En quoi le désastre Vista a nui à Linux

How Vista’s total failure hurt Linux

Steven J. Vaughan-Nichols – 28 janvier 2009 – ComputerWorld.com
(Traduction Framalang : Yonell et Don Rico)

Après avoir bien examiné Vista, j’ai compris que le desktop Linux avait de beaux jours devant lui. Vista était, et demeure, l’incarnation du désastre pour un système d’exploitation. Là aussi, j’avais raison. Et quand les netbooks ont fait leur apparition, c’était Linux, et pas Vista, qui a d’abord triomphé.

Mais ce que je n’avais pas prévu, c’était que les ventes de Vista seraient si faibles que Microsoft ferait carrément marche arrière, en ranimant d’abord XP Familial, puis, en décembre 2008, XP Pro.

Certes, Microsoft n’a pas fait de déclaration fracassante du genre « Vista est une bouse, on a pigé, prenez plutôt XP », mais dans les faits, c’est exactement ce qu’ils ont fait. Et c’est une des raisons pour lesquelles ils veulent sortir leur nouveau système d’exploitation Windows 7, alias Vista light, au plus vite.

Windows 7, à la différence de Vista, pourra tourner sur les netbooks. Et une fois que Windows 7 sera en service, Microsoft reprendra son entreprise de mise au placard de XP.

Entre-temps, Linux est passé de propriétaire de la niche des netbooks à actionnaire même pas majoritaire. Que s’est-il passé ?

Selon Gary Marshall de Tech Radar, c’est parce qu’on demande aux utilisateurs de choisir entre « Windows XP et tout un tas de distributions différentes ».

Je n’adhère pas à cette idée. Seul un linuxien connaît les différences, ou même le nom, des différentes distributions Linux proposées sur les netbooks. Ce qu’un client ou un commercial sait d’un netbook, c’est à quoi il ressemble, la quantité de RAM et la taille du disque dur, plus son prix. Et c’est à peu près tout.

Alors, pourquoi XP fait-il un tel retour en force ? Eh bien, je crois que Microsoft offre de sacrées ristournes aux fabricants, pour s’assurer que XP ait une présence suffisante. Les fabricants, qui ont l’impression que Microsoft leur doit quelque chose après leur avoir balancé la boule puante Vista, sont contents d’avoir un XP à prix d’ami.

Même dans ce cas de figure, les netbooks sous Linux restent moins chers que ceux pourvus de XP, mais les fabricants, à l’exception de Dell avec son matériel sous Ubuntu, ne font pas grand chose pour les mettre en avant. Oui, tous ceux qui comptent dans le marché des PC proposent maintenant Linux, mais ils n’en font aucune publicité.

Je les soupçonne tous d’être contents d’avoir adopté Linux. Mais je soupçonne aussi qu’en grande partie, il en est ainsi pour qu’ils puissent dire à Microsoft de leur faire un bon prix pour les licences XP et Windows 7, parce que si Microsoft ne se positionne pas, ils peuvent toujours leur préférer Linux.

Alors, que faire pour Linux ? D’une part, nous devons propager l’idée que le desktop Linux est disponible, largement à la hauteur de Windows, et souvent meilleur.

La Linux Foundation fait tout son possible pour y parvenir, en avançant avec son concours de vidéos « We’re Linux ». Le desktop Linux est allé à peu près au bout de ce qu’il pouvait faire sans le soutien du marché plus large des non-techniciens. Avec les pubs issues du travail de la Linux Foundation, avec les distributions accessibles, et avec les ordinateurs et portables pré-installés Linux, c’est aux fans et aux distributeurs de faire reprendre l’avancée de Linux pour le grand public.

Notes

[1] Crédit photo : Hamed Masoumi (Creative Commons By)




Ou toute autre version ultérieure de la licence…

Cambodia4kidsorg - CC byCe billet est un peu technique, au sens juridique du terme, mais la problématique abordée est loin d’être inintéressante (et n’étant pas des spécialistes comme Veni Vidi Libri, nous vous remercions par avance des précisions, compléments et corrections que vous apporterez dans les commentaires).

Il évoque les risques potentiels encourus par une création (logicielle, culturelle, etc.) à adopter une licence portant la mention « ou toute autre version ultérieure » (de la-dite licence). Dit autrement, il s’agit de la confiance que vous, auteurs ou utilisateurs, accordez à ceux qui rédigent la licence choisie, puisque vous vous engagez ainsi non seulement au moment présent mais également dans le futur, avec une licence susceptible d’être modifiée au cours du temps. Ce que vous créez ou utilisez aujourd’hui peut donc ne pas suivre exactement les mêmes règles demain.

Prenons l’exemple de la plus célèbre des licences de logiciels libres, la GNU General Public License (ou GNU GPL). Voici ce que l’on peut lire dans la traduction non officielle du paragraphe 9 de la version 2 datant de 1991 :

La Free Software Foundation se réserve le droit de publier périodiquement des mises à jour ou de nouvelles versions de la Licence. Rédigées dans le même esprit que la présente version, elles seront cependant susceptibles d’en modifier certains détails à mesure que de nouveaux problèmes se font jour.

Chaque version possède un numéro distinct. Si le Programme précise un numéro de version de cette Licence et « toute version ultérieure », vous avez le choix de suivre les termes et conditions de cette version ou de toute autre version plus récente publiée par la Free Software Foundation. Si le Programme ne spécifie aucun numéro de version, Vous pouvez alors choisir l’une quelconque des versions publiées par la Free Software Foundation.

Donc si vous placez votre logiciel sous GNU GPL sans préciser la version ou en version 2 avec la mention « ou toute version ultérieure », alors « vous avez le choix de suivre les termes et conditions de cette version ou de toute autre version plus récente publiée par la Free Software Foundation », version plus récente dont on nous assure, et c’est là que ça peut coincer, qu’elle sera « rédigée dans le même esprit ».

Or, justement, dans l’intervalle, la GNU GPL est passée en version 3 en 2007 (sa version actuelle). Extrait de la FAQ de cette nouvelle version, à la question Pourquoi les programmes doivent-ils se référer à « la version 3 de la GPL ou toute version ultérieure » ? :

De temps en temps, après quelques années, il nous arrive de modifier la GPL—quelquefois simplement pour éclaircir un point, quelquefois pour autoriser certaines utilisations alors qu’elles ne l’étaient pas auparavant, et quelquefois pour renforcer une exigence. (Les deux derniers changements datent de 2007 et 1991). L’utilisation de ce « pointeur indirect » dans chaque programme nous permet de changer les conditions de distribution de l’ensemble des logiciels GNU, lorsque nous modifions la GPL.

Si aucun programme ne contenait ce pointeur indirect, nous serions forcés de longuement discuter du changement avec de très nombreux détenteurs de copyright, ce qui serait virtuellement impossible. En pratique, la probabilité d’aboutir à un mode de distribution unifié pour les logiciels GNU serait nulle.

Supposez qu’un programme dise « Version 3 de la GPL ou toute version ultérieure » et qu’une nouvelle version de la GPL soit publiée. Si la nouvelle version de la GPL donne une permission supplémentaire, cette permission est immédiatement disponible pour tous les utilisateurs du programme. Mais, si la nouvelle version de la GPL comporte une exigence plus restrictive, cela ne limitera pas l’utilisation de la version courante du programme, car ce dernier peut toujours être utilisé sous GPL Version 3. Lorsqu’un programme dit « Version 3 de la GPL ou toute version ultérieure », les utilisateurs seront toujours autorisés à l’utiliser, et même à le modifier, selon les termes de la GPL Version 3—même après que d’autres versions de la GPL auront été rendues disponibles.

Si une exigence plus forte dans une nouvelle version de la GPL n’est pas obligatoire pour les logiciels existants, à quoi sert-elle ? Lorsque la version 4 de la GPL est disponible, les développeurs de la plupart des programmes sous GPL distribueront les versions suivantes de leur programme en spécifiant « Version 4 de la GPL ou toute version ultérieure ». Les utilisateurs devront se conformer aux clauses plus restrictives de la GPL Version 4, pour les versions suivantes de ce programme.

Les développeurs ne sont toutefois pas dans l’obligation d’agir ainsi ; ils peuvent continuer à autoriser l’utilisation de la version précédente de la GPL, si c’est leur souhait.

Le fait qu’une licence évolue n’est en rien critiquable puisque depuis 1991 il s’en est passé des choses dans le monde numérique (à commencer par l’avènement d’Internet). De plus cette nouvelle version a été le fruit d’un long processus de concertation publique (voir la lettre de Chris Frey plus bas), la FSF ayant le souci de donner confiance et ne pas donner l’impression qu’on lui signait un chèque en blanc pour les « versions ultérieures » de ses licences.

Il n’empêche que ces modifications « rédigées dans le même esprit » sont laissées à la libre appréciation de chacun. C’est ainsi que Linus Torvalds, conformément au dernier paragraphe de notre extrait ci-dessus, n’a toujours pas passé le noyau Linux en GPL v3 et préfère rester en GPL v2, au grand dam de la FSF.

Mais prenons désormais l’exemple d’une autre licence de la FSF, la GNU Free Documentation License (ou GNU FDL). À l’origine cette licence avait été pensée pour la documentation de logiciels libres mais elle a été adoptée, faute d’existence d’autres licences mieux adaptées à l’époque, par le poids lourd de la culture libre que constitue l’encyclopédie Wikipédia.

Or, depuis, une licence clairement mieux adaptée est apparue : la licence Creative Commons By-Sa[1]. Ces deux licences n’étant pas compatibles, que pouvait-on faire ? C’est justement la réponse à cette question que nous avons évoqué dans notre récent billet dédié : Wikipédia en route vers la licence Creative Commons By-Sa. Ce billet explique pourquoi et comment la FSF a accepté de modifier sa licence GNU FDL (version intermédiaire 1.3) pour que Wikipédia puisse légalement passer sous Creative Commons, passage justement rendu possible parce que la licence de Wikipédia est la GNU FDL sans mention de version (acceptant donc implicitement « toute version ultérieure » de la licence).

Le problème c’est que contrairement au passage de la GNU GPL de la version 2 à la version 3, il n’y a pas eu de concertation publique et de long processus de maturation transparent et « démocratique ». De plus les modifications apportées ont clairement été rédigées dans l’unique but de satisfaire la Wikimedia Foundation (et Creative Commons) puisqu’elles ne s’adressent qu’aux wikis crées avant novembre 2008 qui ont jusqu’en juin 2009 pour se décider à migrer. Une mise à jour « sur mesure » en quelque sorte.

Aussi nobles soient les intentions des uns et des autres, il y a tout de même ici un peu d’arbitraire et d’opacité aussi bien sur le fond que dans la forme. C’est ce que critique Chris Frey dans cette « lettre ouverte à Richard Stallman » que nous avons choisi de traduire et vous proposer ci-dessous, accompagnée par la réponse toute aussi ouverte de Richard Stallman.

Lettre ouverte à Richard Stallman

Open Letter to Richard Stallman

Chris Frey – 4 novembre 2008 – Advogato.org
(Traduction Framalang : Olivier, Siltaar et Don Rico)

Cher M. Stallman,

Je vous écris pour exprimer la déception que j’ai ressentie à l’égard de la Free Software Foundation par rapport à la publication récente de la version 1.3 de la GNU Free Documentation License .

Cette nouvelle version introduit à la section 11 une nouvelle clause qui, selon la FAQ, accorde aux wikis le droit de modifier la licence de certains contenus pour les faire passer de la licence GFDL 1.3 à la licence CC-BY-SA 3.0, pour les ajouts datant d’avant le 1er novembre 2008. Ils peuvent appliquer ce changement de licence jusqu’au 1er août 2009.

Cela constitue à mon sens une erreur morale importante et un abus de confiance. Même si cette nouvelle clause n’est pas dangereuse, elle n’en reste pas moins mauvaise.

Il y a de nombreuses années, j’ai lu des critiques visant les recommandations quant à l’application de la licence GNU GPL aux logiciels. On critiquait la formule « version 2 of the License, or (at your option) any later version » (NdT : version 2 de la licence, ou, selon votre choix, toute version ultérieure) avançant l’argument que cette formulation conférait trop de pouvoir à la FSF, et que cela revenait à signer un chèque en blanc permettant le détournement futur de l’œuvre licenciée.

Ces critiques ont à mes yeux perdu de leur sens après que j’ai été témoin de la transparence et de l’attention extrême portée à la rédaction de la nouvelle GPL version 3. Tous les commentaires furent enregistrés sur un site Web et débattus de manière tout à fait transparente. La rédaction a été longue et méticuleuse, réalisée en prenant en compte l’opinion des utilisateurs de la licence, et dans l’objectif de servir l’intérêt des logiciels libres. C’était magnifique.

Je commençais à comprendre les avantages d’une licence ouverte. J’avais compris les intentions de la FSF. Ils ne fléchissaient pas concernant les principes des logiciels libres, mais au contraire se montraient toujours plus fermes. Seule la FSF pouvant modifier la GPL, et étant donné le sérieux de sa méthode pour la mettre à jour, je me suis dit que je pouvais lui accorder ma confiance.

Hélas, ce changement apparemment précipité apporté à la GFDL vient tout gâcher. Cette modification va à l’encontre de la clause tacite selon laquelle c’est l’auteur qui choisit la licence pour son travail, mais elle introduit en outre un nouvel acteur. Non seulement la FSF peut changer les termes de la GFDL, mais voilà que la Creative Commons Corporation peut à présent modifier les termes qui régissent des travaux plus anciens auparavant placés sous GFDL.

Fort heureusement, cette situation ne durera que jusqu’au 1er août 2009. Mais les anciens wikis placés sous GFDL ont désormais une double licence.

Peut-être ai-je vécu coupé du monde légal, mais je n’ai pas non plus vu d’appel à contribution pour cette révision. Si je l’ai manqué, je regrette de n’avoir pu donner mon avis plus tôt. Si la période de discussion était plus courte, voire inexistante, c’est une faille dans le processus de mise à jour de la GFDL, et j’espère que la FSF y remédiera.

Concrètement, cette requalification de licence importe peu. Le cadre de ce qui peut être soumis à une requalification de licence est bien délimité, et ces deux licences ont en gros la même fonction. Certains auteurs ont peut-être préféré la GFDL à la licence CC-BY-SA pour des raisons spécifiques, l’une d’entre elles étant le fait que la licence doit être jointe à l’œuvre. Cette condition de la GFDL est à la fois une caractéristique et un défaut de conception. Mais ce choix, qui auparavant revenait à l’auteur, lui est à présent retiré.

Au final, les conséquences sont sûrement minimes. En effet, beaucoup voient en ce changement un grand pas en avant. Je pense que c’est simplement la réputation de la FSF qui s’en trouve affectée. Quel message cela adresse-t-il aux utilisateurs d’autres licences de la FSF ? Est-on sûr que la FSF ne permettra pas la modification des licences de nos œuvres au profit de licences non-FSF si l’on opte pour la clause « version ultérieure » ? Dans le passé je ne me serais même pas posé la question. À présent, j’ai un doute.

J’ai hâte de connaître votre sentiment à ce propos et, si vous le permettez, je publierai une copie conforme de votre réponse là où je publie cette lettre.

Je vous remercie de votre attention.

Cordialement,

Chris Frey

Réponse ouverte à Chris Frey à propos de la GFDL 1.3

An open response to Chris Frey regarding GFDL 1.3

Richard Stallman – 3 décembre 2008 – FSF.org
(Traduction Framalang : Olivier, Siltaar et Don Rico)

Cher M. Frey,

Votre lettre concernant les modifications récentes apportées à la GFDL, qui permettent aux administrateurs de certains wikis sous licences GFDL de modifier la licence de leur contenu sous licence Creative Commons BY-SA, soulève des questions cruciales vis-à-vis des modifications, de la manière dont elles ont été conduites et de leurs implications quant à la gestion par la FSF de nos licences à l’avenir.

De mon point de vue, et c’est aussi celui du conseil de la FSF, cette modification de la licence est totalement en accord avec nos valeurs, notre éthique et nos engagements, et c’est une nouvelle démonstration que la FSF mérite toujours votre confiance. Les licences comportant la clause « ou toute version ultérieure » nous permettent de donner de nouvelles permissions qui répondent aux besoins de la communauté et de contrer les nouvelles menaces qui pèsent contre la liberté des utilisateurs.

Cette option de changement de licence introduite par la GFDL 1.3 est complètement en accord avec l’esprit et les objectifs de la GFDL. Certains sites Web pourront ainsi passer de la GFDL à une autre licence libre, une autre licence qui diffère sous certains aspects mais qui est très proche globalement de la GFDL. Cette disposition permet à ces sites de rendre leur licence compatible avec de vastes collections de contenu sous licence libre avec lesquelles ils veulent coopérer.

L’impact de ce changement est limité car l’option de changement de licence ne s’applique qu’à un nombre de cas limité : les wikis, telle Wikipédia, qui ne font pas usage de certaines clauses particulières de la GFDL, comme les sections invariantes (NdT : contenu qui n’est modifiable que par l’auteur lui-même) et les textes de couverture, qui n’ont pas d’équivalent dans la licence CC-BY-SA.

Nous avons offert aux wikis une option à durée limitée dans le temps leur permettant de passer sous CC-BY-SA les contenus issus de la contribution du public. La fondation Wikimedia a initié un débat public quant à la décision à prendre : les participants de Wikipédia peuvent donner leur avis pour ou contre le changement. Nous n’avons joué aucun rôle dans cette décision, nous avons simplement donné à Wikipédia l’opportunité de la prendre.

Ce changement ne s’est pas fait dans la précipitation. La FSF s’est entretenue pendant plus d’un an avec la Wikimedia Foundation, Creative Commons et le Software Freedom Law Center pour planifier ce changement.

Ces discussions sont restées secrètes pour une raison que, je l’espère, vous approuverez : limiter l’applicabilité de cette option et éviter l’éventualité d’un changement de licence massif d’autres contenus placés sous licence GFDL. Cette option a été pensée uniquement pour les wikis bénéficiant d’une collaboration publique. Nous ne souhaitions pas que tout le monde puisse changer la licence des œuvres couvertes par la GFDL en les « blanchissant » au travers de Wikipédia ou d’autres sites similaires avant la date butoir.

Si un wiki exerce son option de changement de licence, cela implique qu’il accorde sa confiance aux Creative Commons plutôt qu’à la Free Software Foundation pour ce qui est des modifications futures de la licence. En théorie ,on pourrait y voir une source d’inquiétude, mais je pense que nous pouvons faire confiance à Creative Commons pour continuer sa mission à l’occasion des mises à jours de ses licences. Des millions d’utilisateurs font déjà confiance aux Creative Commons à ce sujet et je pense que nous pouvons faire de même.

Vous avez qualifié notre modification de licence de « trahison », mais si vous examinez ce que nous avons entrepris, vous verrez que nous sommes restés fidèles à nos principes.

Nous n’avons jamais affirmé que nous ne changerions pas nos licences, ou que nous ne ferions pas de modifications comme celle-ci. Nous nous sommes en revanche engagés à effectuer ces changements en respectant l’esprit de nos licences, et en garantissant les objectifs de ces licences. C’est ce que nous avons fait avec la GFDL 1.3 et, à plus grande échelle, avec la GPLv3, et c’est ce que nous continuerons à faire.

Vous avez entièrement raison d’attendre de la FSF une éthique irréprochable. J’espère que les modifications apportées à la licence GFDL vous convaincront que nous respectons cette éthique.

Cordialement,

Richard Stallman
Président de la Free Software Foundation

Notes

[1] Crédit photo : Cambodia4kidsorg (Creative Commons By)




L’Angleterre se pose la question du Libre dans l’éducation

Superbomba - CC by-saAprès Barack Obama et l’Open Source, voici une autre traduction émanant de la BBC, autour du Libre et l’éducation cette fois.

C’est un plaisir non dissimulé de voir un tel grand média s’intéresser à la question et lui donner ainsi un fort coup de projecteur dans l’opinion (avec analyses, témoignages, perspectives… du vrai travail de journaliste en somme, tout simplement). Mais c’est également une belle satisfaction de constater la maturité du discours et de l’évaluation du logiciel libre chez la Perfide Albion[1].

Il me tarde de voir pareille situation traverser la Manche. Puissent tous les articles connexes de ce blog modestement y contribuer…

La question du Libre dans l’éducation

Open source question for schools

Andrew Miller – 26 janvier – BBC News
(Traduction Framalang : Daria, Olivier, Don Rico)

Andrew Miller se demande si les logiciels Open Source ne pourraient pas aider les écoles à mieux gérer leur budget.

Au salon British Education Training and Technology, BETT 2009, un rapide coup d’œil suffisait pour se convaincre, par la dimension de l’évènement, que les technologies de l’éducation bénéficient d’un budget plus que conséquent.

Sachant que les logiciels Open Source disponibles gratuitement et librement couvrent l’essentiel des exigences du programme national, on peut se demander pourquoi les écoles n’y ont pas plus recours, avec une économie potentielle de plusieurs millions de livres à la clé.

Comme leur nom le suggère, les logiciels Open Source sont des logiciels communautaires et leur code source est ouvert à tous. N’importe qui peut modifier le logiciel selon ses besoins et ensuite partager ces modifications avec tout le monde.

En entendant parler de logiciel Open Source, nombreux sont ceux qui pensent Linux – le système d’exploitation alternatif disponible sous différentes distributions comme Ubuntu, openSUSE ou Fedora.

Linux propulse les serveurs depuis longtemps, mais l’Open Source touche à toutes sortes de projets. Le navigateur Web Firefox et la suite bureautique OpenOffice en sont de bons exemples.

Promotion ouverte

Dans le secteur de l’éducation, seule une poignée de technophiles, agissant de leur propre initiative, font la promotion des logiciels Open Source et les utilisent pour employer au mieux leur budget technologie.

Les critiques accusent Becta – une agence gouvernementale qui supervise les acquisitions de toutes les technologies pour les écoles – de n’avoir pas assez œuvré à la promotion des logiciels Open Source.

Peter Hughes, responsable des accords d’acquisition au Becta, a assuré à la BBC que Becta sera plus actif dans ce sens.

« En tant qu’organisation, on nous a principalement reproché de ne pas avoir présenté comme il se devait les solutions Open Source et de trop favoriser les solutions propriétaires, comme celles de Microsoft. Nous avons tenu compte de ces critiques et, dans l’exercice de nos conseils en matière de stratégie et de distribution de la technologie dans l’éducation, nous avons tenté de rester impartiaux dans les avis que nous émettons pour aider les écoles à faire les meilleurs choix », a-t-il indiqué.

Fin 2008, le Becta a collaboré avec l’organisation gouvernementale des services d’acquisition OGCBuying.Solutions pour approuver 12 fournisseurs, lesquels ont en commun la capacité à équiper les écoles avec des logiciels Open Source.

Le Becta considère la désignation de Sirius comme un « grand pas en avant » et comme un message envoyé à la communauté : « Nous prenons les logiciels Open Source au sérieux ».

John Spencer, chef du développement commercial de Sirius, a confié à la BBC que l’Open Source est encore trop méconnu, pas seulement dans les écoles, et que Linux souffre d’un problème d’image.

« Beaucoup d’établissements scolaires sont restés bloqués en l’an 2000, quand il est devenu évident que la connaissance de l’outil informatique deviendrait une nécessité, mais depuis ils n’ont rien fait. Ils ont peur d’avancer en terrain inconnu, et il ne s’agit pas seulement de Linux mais également de Vista et d’Office 2007. Les bons professeurs chercheront toujours à aller de l’avant mais ils sont si occupés qu’ils préfèrent souvent s’en tenir à ce qu’ils connaissent », a précisé Mr. Spencer.

Sirius a déjà installé des logiciels libres dans beaucoup d’établissements au Royaume-Uni.

Dans le cadre d’un projet mené à Twickenham, on autorise les portables et ultra-portables appartenant à l’établissement ou aux élèves à démarrer sur le réseau pour leur donner accès aux fichiers et aux programmes dont ils ont besoin.

« Le réseau coûte moitié moins que ce que RM peut proposer et les économies d’énergie réalisées permettent au système de s’autofinancer en moins de 3 ans », affirme Mr. Spencer

Le temps de la compétition

Une autre initiative du Becta est centrée sur le site opensourceschools.org.uk, lancé fin 2008. Il a pour objectif de fournir des informations essentielles et des conseils aux professeurs pour une bonne utilisation des logiciels Open Source.

Cependant, le Becta émet quelques réserves.

« Nous voulons que les professeurs se rendent compte qu’ils peuvent, et doivent, considérer les logiciels Open Source comme une alternative solide », a déclaré Mr. Hughes.

« Les établissements doivent malgré tout bien se renseigner. Les mises en garde à l’égard de l’Open Source sont aussi nombreuses qu’à l’égard des logiciels propriétaires. »

Et que pensent les grosses entreprises informatiques des logiciels Open Source qui marchent sur leurs plate-bandes ?

Steve Beswick, le directeur de l’éducation pour Microsoft Royaume-Uni, a déclaré à la BBC que même si les logiciels Open Source peuvent, sur la valeur nominale, permettre des économies, il faut se méfier des coûts cachés, pécuniaires et autres.

« Beaucoup de monde est habitué à utiliser les outils Microsoft, et il faut donc re-former les gens à l’utilisation des solutions Open Source, ce qui peut avoir un coût élevé », affirme-t-il.

« Pour faire le bon choix, les établissements colaires et les universités doivent avoir toutes les informations en main. »

M. Beswick a prétendu que Microsoft n’est pas opposé à l’Open Source, et cite leur « engagement en faveur l’interopérabilité » démontré par le support du format Open Document Format dans le Service Pack 2 d’Office 2007.

Il a aussi mentionné le travail que Microsoft a réalisé en acquérant IIS, son logiciel de serveur phare, pour travailler avec le langage PHP.

Le ministre de l’Éducation, Jim Knight, s’est fait l’écho du point de vue de Becta. Dans une déclaration, il a annoncé : « Les établissements scolaires et les universités doivent maîtriser les tenants et les aboutissants du problème pour faire le bon choix – qu’il se porte vers l’Open Source ou le propriétaire –, et doivent être conscients du coût total de la solution adoptée, en n’oubliant pas le support à long terme et la formation. Je pense que c’est le rôle du Becta de travailler avec les fournisseurs de logiciels, aussi bien Open Source que propriétaires, afin que les écoles et universités puissent tirer au mieux parti des logiciels pour appuyer l’enseignement et l’apprentissage. »

Et du côté de la communauté Open Source alors ?

Gerry Gavigan, le président du consortium Open Source, a dit à la BBC que l’adoption des logiciels Open Source ne pouvait que passer par un changement des mentalités.

« Les coûts de la formation continue ne disparaissent pas simplement grâce au passage des logiciels propriétaires aux logiciels gratuits et Open Source. En revanche, les coûts associés aux formations induites par les mises à niveau encouragées ou forcées par une tierce partie ne sont plus d’actualité », a-t-il indiqué.

On parle aussi fréquemment du problème du verrouillage technologique, une des explications principales, pour les défenseurs de l’Open Source, à la domination prolongée de Windows.

« L’un des paramètres qui n’est pas toujours pris en compte dans le calcul des contrats d’achat de logiciels sont les coûts à long terme résultant des licences ou du verrouillage technologique », a déclaré Mr. Gavigan.

Mr. Gavigan admet que la gratuité des logiciels Open Source leur a parfois nui.

« Annoncer que vous avez essayé de régler un problème en dépensant des sommes faramineuses a plus d’impact sur votre public que de dire que vous avez utilisé une solution gratuite. D’après une croyance malheureuse, si ça ne coûte rien, ça ne vaut rien », a-t-il déploré.

Le monde connecté

Quoiqu’il en soit, certaines écoles se mettent aux logiciels Open Source. Le lycée Highworth, à Ashford, propose à la fois des logiciels propriétaires et des logiciels Open Source à ses étudiants.

L’administrateur réseau de l’école, Marc Blake, a confié que bien qu’il soit important que les élèves connaissent des alternatives à Windows, il convient de reconnaître qu’ils vivent dans un monde dominé par Microsoft.

Mais il a annoncé à la BBC que d’importantes économies pourraient être réalisées en utilisant des alternatives Open Source.

« Nous proposons à la fois Office 2003 et OpenOffice, de sorte que les clients aient le choix. J’estime que 98% des clients choisissent Microsoft Office à la place d’OpenOffice, mais au moins ce choix existe », a précisé Mr. Blake.

« La seule mise à jour vers Office 2007 de toute l’école nous coûterait environ 27000£, mais ce montant n’inclut pas le coût de remise à niveau des utilisateurs ni les mises à jour des documents associés ou du matériel pédagogique. Acquérir l’équivalent de Moodle (logiciel libre d’e-apprentissage) pour nos 1200 étudiants nous aurait coûter plus de 3000£ par an. Pour ce prix-là on n’a pas le support professionnel, mais si on est prêt à faire ce sacrifice, c’est beaucoup d’argent économisé », a-t-il ajouté.

Avant d’adopter Linux, Mr. Blake s’inquiétait de la compatibilité de certaines des plus récentes technologies du Web. Ses inquiétudes se sont envolées puisque son établissement a maintenant plusieurs Asus EeePC fonctionnant sous Linux qui sont utilisés majoritairement pour les projets Web 2.0.

Cette année au BETT, un nombre non négligeable de logiciels pédagogiques ont fait le grand saut vers le Web 2.0 pour s’assurer une compatibilité avec toutes les plateformes.

L’utilisation de l’Open Source pourrait permettre aux écoles de réaliser d’importantes économies, mais cela implique un gros investissement en temps, en recherche et en formation. Mais allier logiciels commerciaux et logiciels Open Source, comme le fait le lycée Highworth, peut permettre une réduction des coûts tout en donnant le choix aux étudiants.

Voilà un bon point à faire figurer sur le bulletin scolaire des écoles.

Notes

[1] Crédit photo : Superbomba (Creative Commons By-Sa)




Cloud computing, logiciel libre et service public

Per Ola Wiberg - CC byEn ce début d’investiture Obama, de nombreux internautes expriment souhaits et desiderata à la nouvelle administration.

Le vœu de William Hurley a retenu notre attention. « Je suggère que vous créiez un cloud computing financé par l’État, mis à la disposition des facultés et des universités », nous dit-il. Nous n’en saurons pas vraiment plus car il n’est pas entré dans les détails mais nous avons néanmoins saisi la perche pour en faire un billet où nous pourrions nous interroger ensemble sur les relations entre l‘informatique dans les nuages, le logiciel libre et un éventuel rôle de la puissance publique.

Placer nos données personnelles, nos fichiers, nos liens, etc. sur le Grand Internet présente en effet de nombreux avantages pratiques à l’heure où l’on peut « quasiment » se connecter partout tout le temps. Mais ce n’est pas sans poser quelques questions pour ne pas dire quelques problèmes. Je pense par exemple à la mésaventure récente de ce pauvre Marc L***[1] que l’on pouvait suivre au jour le jour à la trace via Facebook et consorts. Je pense également à notre récent billet La tête dans les nuages mais les pieds sur terre. Je pense enfin à la toile tissée méthodiquement par Google avec tous ses services en ligne (Gmail, Reader, Maps, Earth, Picasa, Calendar, Docs, YouTube…) que nous sommes nombreux à utiliser au quotidien.

Et puisqu’il est question d’éducation supérieure et d’université[2], je dois bien vous avouer que, l’année dernière, lorsqu’il a été question de créer en deux-trois coups de cuillère à pot des adresses de messagerie (avec ou sans chat) pour tous les enseignants et étudiants de mon établissement scolaire, de se doter d’agendas partagés et d’une suite bureautique en ligne (fichiers tableurs et traitements de texte potentiellement accessibles en lecture écriture, selon les droits, à toute la communauté, et disponibles au format ODF), je me suis tourné vers… Google Apps Education sans avoir « malheureusement » à le regretter.

En tant que responsable TICE de mon lycée J’ai donc osé confier les données de mes élèves à Google ! Est-ce grave docteur ? Oui ça l’est ! J’en ai bien conscience et je compte bien un jour me soigner (quand bien même Google n’affiche bien entendu pas de publicités pour ce service spécifique au monde éducatif). Il faut tout de même dire, à ma décharge, que par rapport à ma problématique et à mes besoins (temps limité, budget nul et situation particulière d’un lycée à l’étranger) je ne pouvais raisonnablement pas m’appuyer sur un quelconque Espace Numérique de Travail (ENT) dont je doute de plus en plus de leur pertinence et efficience à mesure que le temps passe (surtout si l’on continue à s’obstiner à les développer académie par académie).

Les partisans du logiciel libre peuvent sensibiliser sur les risques encourus à confier nos documents et informations numériques à des services en ligne « gratuits » proposés par des sociétés commerciales « web 2.0 » qui n’offrent pas de garanties sur l’avenir et sont souvent opaques au niveau de nos droits et des formats. Ils peuvent pousser à ce que des licences plus adaptées et plus transparentes soient adoptées (telle la licence AGPL). Mais, contrairement à un Microsoft où il « suffisait » de proposer des alternatives logicielles libres, ils ne peuvent absolument pas concurrencer un Google sur son terrain, c’est-à-dire justement le cloud computing, qui nécessite des investissements très très lourds ne serait-ce que pour pour installer et maintenir les batteries de serveurs disséminés un peu partout sur le réseau. Et alors je crois effectivement que le politique et le secteur public (national ou supra-national) peuvent nous être d’un grand secours pour modifier la donne (si tant est que l’on juge que la donne mérite modification).

C’est certainement l’alliance « logiciel libre + secteur public » qui pourra faire en sorte de ne pas laisser le champ libre aux seules sociétés privées. Ne privatisons pas la totalité du cloud computing (surtout dans le domaine éducatif), voilà par extrapolation, le sujet du billet du jour. Un peu comme ce qu’a voulu faire le projet de bibliothèque numérique européenne Europeana pour contrarier Google Books avec pour le moment le succès que l’on sait

L’enseignement supérieur a besoin d’un nuage informatique national

Higher education needs a national computing cloud

William Hurley – 26 janvier 2009 – InfoWorld
(Traduction Framalang : Don Rico)

Le cloud computing (ou informatique dématérialisée ou informatique dans les nuages), est vital pour l’avenir de l’enseignement supérieur aux États-Unis, et j’invite le Président Obama à agir

Le 26 janvier 2009
M. le Président Barack Obama
La Maison Blanche
Washington, DC 20500-0001

M. le Président,

Je tiens à vous adresser mes plus sincères félicitations, Monsieur, pour votre récente investiture à la fonction de 44ème Président des États-Unis d’Amérique. Votre victoire est la preuve de la grandeur de notre démocratie, mais aussi de la capacité de transformation de cette même démocratie. Comme des millions de mes semblables du monde entier, j’ai regardé avec une grande fierté votre prestation de serment, lors de laquelle vous êtes devenu un exemple vivant de l’impact que peut avoir un seul citoyen américain.

Vous avez déclaré « Le monde change, et nous devons changer avec lui ». Je suis on ne peut plus d’accord, M. le Président, et je crois que la politique que mènera votre administration sera une fontaine d’innovation. Je sais que le vice-président et vous êtes profondément favorables au développement des initiatives de recherche dans les instituts d’enseignement supérieur qui sont au cœur de l’innovation américaine. Pour ces instituts, l’avenir est déjà là. Mais, comme l’a écrit William Gibson « il n’est pas encore tout à fait équitablement réparti ».

Nous avons laissé le coût de la technologie entraver notre capacité à innover. Les chercheurs ne sont plus limités par le manque d’idées ou de connaissances, mais plutôt par les moyens informatiques nécessaires pour conduire des expériences et en analyser les résultats.

Je suggère donc que vous créiez un cloud computing financé par l’État, mis à la disposition des facultés et des universités. Une telle ressource aurait le mérite de niveler le terrain universitaire. Les chercheurs qui travaillent d’arrache-pied dans des milliers d’instituts de taille modeste auraient alors accès à une puissance informatique qui n’est pour l’instant accessible qu’à une poignée de privilégiés. Il nous est impossible de prédire d’où viendra la prochaine grande innovation, mais des ressources informatiques dématérialisées publiques amélioreraient de façon extraordinaire nos moyens de coopérer et d’innover au niveau national.

Les grandes avancées technologiques et sociales peuvent se produire presque simultanément. En septembre 1962, un jeune chercheur publiait ce qui donnerait naissance aux plus grandes avancées technologiques de notre temps, et au même moment, un autre jeune homme originaire de Kosciusko, dans le Missouri, amorçait un itinéraire personnel qui aboutirait à un moment charnière dans la lutte pour les droits civiques. D’aucuns peuvent y voir une coïncidence, mais en ce qui me concerne j’y vois la providence. Les recommandations de Paul Baran en faveur d’une structure nationale publique destinée à transporter des données informatiques et l’entrée de James Meredith à l’université du Mississipi ont, du point de vue technologique et social, changé les États-Unis en profondeur.

Votre administration, par sa connaissance des nouvelles technologies, tient l’occasion d’accomplir un autre grand bond en avant. On ne peut comparer ma lettre à l’article de Baran, mais j’espère suggérer cette idée au moment opportun. Une idée trop en avance sur son temps a aussi peu de valeur qu’une idée avancée après que des engagements ont déjà été pris. J’espère donc attirer votre attention maintenant, avant que vos projets de réformes pour l’éducation aient été élaborés, et tant qu’il reste du temps pour prévoir le financement d’un cloud computing ayant le potentiel de transformer des chercheurs dispersés et inégaux en une locomotive d’innovation la plus puissante du monde.

Encore une fois, M. le Président, je tiens à vous féliciter, votre équipe et vous, pour votre victoire grandiose acquise grâce aux nouvelles technologies, ainsi que pour votre investiture inattendue, exaltante et triomphante.

Notes

[1] J’en profite pour saluer ici le très libre curieux magazine curieux Le Tigre.

[2] Crédit photo : Per Ola Wiberg (Creative Commons By)




Quand Mozilla participe à la libération de la vidéo

Theilr - CC by-saEt si les vidéos en streaming Flash et le casse-tête actuel des formats (.mov, .wmv, .mpeg, .avi…) ne constituaient qu’une parenthèse dans l’histoire du multimédia numérique ?

Nous n’en sommes pas encore là (loin de là), mais merci à Mozilla, en pleine cohérence avec son manifeste, de contribuer grandement à tenter d’améliorer une situation qui évoluera d’autant plus favorablement que nous, utilisateurs, serons nombreux à lui emboiter le pas[1].

Et quelle satisfaction de voir Mozilla, Wikipédia et Xiph.org (Ogg Theora/Vorbis) s’associer pour construire le monde que nous voulons et non celui que nous avons !

Pourquoi libérer la vidéo ?

Why open video?

Christopher Blizzard – 26 janvier 2009
(Traduction FrenchMozilla : Goofy)

Chacun se rend bien compte que le Web ouvert devient de plus en plus important dans nos relations avec les autres. Nos applications, nos conversations et nos échanges tendent à se passer en ligne, et Mozilla se trouve de plus en plus au cœur même de ce phénomène, bien placée pour définir à la fois la technologie sous-jacente et la pratique des usagers du Web. C’est un rôle crucial, et c’est l’une des raisons pour lesquelles il est important de nous comporter comme une entreprise à but non-lucratif en pleine conscience de notre mission et de notre impact.

En prenant un peu de recul, on se rend compte que l’arrivée du Web ouvert comme plateforme technologique est un phénomène dont l’histoire donne peu d’exemples. L’imprimerie nous a permis de reproduire les connaissances facilement et à bas prix. La télévision et la radio ont abaissé le coût de diffusion des médias. Le Web a fait disparaître la centralisation par de grands médias de masse, et chacun peut maintenant produire et diffuser. Les coûts de reproduction, de diffusion et d’interactivité par des commentaires sont devenus presque négligeables.

Je pense quant à moi que c’est possible grâce aux choix technologiques qui ont été faits dès les premières années de l’évolution du Web. Des formats lisibles par l’être humain, des applications simples fournies avec leur code source et la possibilité pour chacun de publier et de créer. Il n’existait pas en ces temps reculés de tours d’ivoire ni de développeurs professionnels, aussi le processus de création devait-il être simple. La technologie du Web exigeait d’avoir une forme d’esprit très orientée vers la technique, mais vous n’aviez pas besoin d’un long apprentissage pour vous lancer. Si l’on ajoute à ça le principe du bout en bout avec Internet, et le fait que le premier venu pouvait installer un serveur ou un client, cela signifie que le Web n’a pas pris son envol grâce au soutien de grands acteurs, mais est devenu une immense ressource partagée, fondée sur les petits efforts de milliers d’individus.

Il en est résulté une explosion générale de créativité et d’investissements, depuis les simples particuliers jusqu’aux plus grandes entreprises. Chacun peut avoir une impact et chacun peut influencer la technologie du Web. Car quiconque parle la lingua franca (NdT : un langage de communication, comme le latin autrefois, ou l’anglais basique aujourd’hui) du Web peut construire ses propres outils sans demander la permission, vous pouvez trouver des outils pour faire absolument tout vous voulez. C’est véritablement une place de marché très animée.

Mais il existe une exception notable : la vidéo sur le Web. Bien que les vidéos soient disponibles en ligne sur des sites comme Youtube, elles ne bénéficient pas des caractéristiques d’accessibilité au plus grand nombre qui ont assuré au Web sa vitalité et sa diffusion. Et ça se voit. La centralisation a entraîné quelques problèmes intéressants dont les symptômes sont la censure après des violations de DMCA et la concentration excessive du public sur un petit nombre de sites qui ont les capacités et la technologie nécessaires pour héberger des vidéos. Je crois que des problèmes comme ceux que nous voyons autour de YouTube sont l’indice d’un problème bien plus important, celui de l’absence de déconcentration comme de compétition dans les technologies vidéos — ce qui est très éloigné de tout ce qui existe sur le Web d’aujourd’hui.

Selon moi il existe deux choses qui peuvent aider à mener cette décentralisation :

  • Il devrait être facile de comprendre comment passer d’un format de document lisible par un ordinateur à un contenu tel qu’il est présenté à l’utilisateur. Par exemple, convertir un fichier HTML en document, un fichier JPEG en image sur l’écran, ou pouvoir utiliser le protocole HTTP pour télécharger un fichier.
  • Il doit être possible d’implémenter et de distribuer cette technologie sans avoir à demander l’autorisation ou la licence de quiconque. En termes concrets cela veut dire qu’elle doit être disponible sans avoir à payer de droits et sans documentation accablante.

Dans le monde de la vidéo, on trouve des formats qui remplissent la première condition : certains formats sont bien documentés, identifiés et même largement répandus. Mais bien trop souvent ils sont soumis à des droits à payer à l’unité, ou de lourds tributs dès le départ, si bien que la création de contenus sous ces formats (pour les coder) est souvent chère au point d’être prohibitive pour tous, si ce n’est pour des firmes aux poches bien lestées et des startups les mieux dorées sur tranche. Et il existe bien peu de formats vidéo qui remplissent la seconde condition. Ce n’est pas ce genre de décentralisation qui profite au Web. Ce serait plutôt l’inverse.

Nous voilà donc dans cette histoire au moment où Mozilla joue son rôle : voici ce que nous allons faire.

  • Dans Firefox 3.1, nous ajoutons la prise en charge native du conteneur OGG avec les codecs audio et vidéo Vorbis et Theora, pour la balise <video>. Il s’agit d’une des rares associations de formats qui remplisse les deux conditions ci-dessus. Ce ne sont pas des formats parfaits, mais ils sont certainement d’une qualité amplement suffisante pour l’usage de la vidéo sur Internet de nos jours. Et ils vont aller en s’améliorant.
  • Nous assurons également le développement de la vidéo ouverte avec une subvention de 100 000 dollars qui sera gérée par la fondation Wikimedia pour soutenir et développer Theora. Vous pouvez espérer voir sortir de grandes choses de ce financement. Et ce travail finira par profiter tout autant à Firefox.
  • Encore une chose que nous pouvons accomplir : donner pleinement droit de cité à la vidéo sur le Web. Cela signifie que nous pouvons faire des choses avec la vidéo et la faire interagir avec d’autres types de contenus (SVG, Canvas, HTML) comme il était impossible de le faire jusqu’à présent. Nous espérons qu’en libérant la vidéo du carcan imposé par les plugins pour qu’elle puisse jouer en harmonie avec le reste, nous pourrons lancer une nouvelle vague de créativité autour de la vidéo. J’en dirai plus long dans un autre billet.

Nous n’espérons pas qu’en faisant cela nous allons tout changer du jour au lendemain. Loin de là — les changements de cet ordre prennent du temps. Mais nous pouvons certainement jouer notre rôle, du moins rendre possible le développement de ce genre de phénomènes. Nous voulons voir émerger un marché de la vidéo comme nous l’avons vu émerger pour le Web. Telle est notre contribution pour lancer le mouvement.

Notes

[1] Crédit photo : Theilr (Creative Commons By-Sa)




Barack Obama sera-t-il un président Open Source ?

Acaben - CC by-saScott McNealy, PDG de Sun, vient tout juste d’être chargé par la Maison Blanche d’élaborer une étude sur l’Open Source. L’occasion pour la BBC d’évoquer dans un récent article la question d’une éventuelle « gouvernance Open Source » de la nouvelle administration américaine, en interrogeant aussi bien l’intéressé que Michael Tiemann (de l’OSI et de Red Hat).

Quelques citations extraites de l’article, traduit par nos soins, pour vous mettre en appétit[1] : « C’est par un accident de l’histoire que les standards propriétaires se sont si tôt et si fortement imposés, entraînant des dépenses colossales dans le budget gouvernemental (…) La philosophie de la démocratie américaine n’est pas simplement par le peuple et pour le peuple, mais aussi avec le peuple (…) Errol Louis décrit M. Obama comme notre premier président Open Source, un dirigeant désireux de voir tout un chacun se demander comment, quand et où s’impliquer. Il a remarqué que la stratégie popularisée par les entreprises de logiciels, qui consiste à donner à d’autres une application pour qu’ils l’améliorent, a maintenant été transposée dans le domaine politique. »

Appels à une gouvernance Open Source

Calls for open source government

Maggie Shiels – 21 janvier 2009 – BBC News
(Traduction Framalang : Goofy, Don Rico)

Le secret d’une gouvernance plus économe et plus sûre consiste à passer par des technologies et logiciels Open Source.

Cette proclamation vient d’une des figures les plus respectées parmi les entrepreneurs de la Silicon Valley, le cofondateur de Sun Microsystems Scott McNealy.

Il a révélé qu’on lui avait demandé de préparer un rapport sur cette question pour la nouvelle administration.

« Intuitivement, il est évident que l’Open Source est moins coûteux et plus efficace que le logiciel propriétaire », a-t-il déclaré.

« L’Open Source ne vous réclame pas de verser le moindre centime, ni à Microsoft, ni à IBM ou Oracle, pas la moindre somme à une quelconque entreprise de logiciels propriétaires. »

Améliorations

M. McNealy a déclaré à la BBC qu’il voulait s’assurer que le gouvernement ne serait pas pieds et poings liés à un fournisseur unique ni à une entreprise particulière.

« Le gouvernement devrait préconiser des applications basées sur des références Open Source pour améliorer la sécurité, gagner en qualité logicielle, baisser les coûts, augmenter la fiabilité – tous les bénéfices inhérents aux logiciels Open Source. »

Le langage de programmation Java créé par Sun Microsystems est un produit Open Source qu’utilisent des milliards d’appareils comme les téléphones portables et les ordinateurs. Au lieu d’être une application payante sous copyright, le logiciel Open Source est généralement disponible pour tous, sous une licence qui permet l’usage gratuit et sans restriction, et son code est ouvert à tous pour être consulté, copié et adapté gratuitement.

L’idée sous-jacente, c’est que grâce aux contributions d’un grand nombre de gens, une application va s’améliorer à pas de géant et conserver toute sa pertinence. Un rapport de XMG, société de recherche en technologie globale, mentionne que les entreprises « s’intéressaient aux avantages des logiciels Open Source » en raison du « coût prohibitif » des logiciels propriétaires.

« Des dépenses colossales »

Le président Obama a déclaré être prêt à scruter le budget « ligne par ligne » pour éliminer les dépenses inutiles, mais jusqu’à présent n’a donné aucune indication précise sur la manière dont il comptait procéder.

L’Initiative Open Source (ou OSI) est pleinement solidaire des propositions de M. McNealy, qui constituent à leurs yeux une des solutions majeures que le nouveau président ne peut pas se permettre d’ignorer.

« Scott a tout à fait raison de souligner les avantages qui ont été démontrés tant et plus », confirme Michael Tiemann, le président de l’OSI.

« C’est par un accident de l’histoire que les standards propriétaires se sont si tôt et si fortement imposés, entraînant des dépenses colossales dans le budget gouvernemental. »

Selon M. Tiemann, même si quelques départements utilisent déjà des technologies Open Source, on estime que globalement les sommes perdues dans les logiciels propriétaires se monteraient « à plus d’un trillion de dollars par an » (NdT : soit un million de millions de dollars).

Il a déclaré que le coût minimum pour les États-Unis est de « 400 milliards de dollars, estimation basse. »

« Passer à l’Open Source réduira les coûts et augmentera la productivité, » ajoute M. Tiemann, qui est également vice-président de Red Hat, le prestataire de solutions technologiques Open source leader sur le marché international.

« C’est le genre de changement dont nous avons besoin si nous espérons voir un jour le gouvernement réformer ses capacités opérationnelles et maîtriser ses dépenses. S’ils n’y parviennent pas, c’est encore un coup d’épée dans l’eau. Étant donné l’état actuel des marchés des capitaux, nous ne pouvons plus nous permettre d’en rester au status quo », a-t-il déclaré.

L’Alliance pour les Solutions Libres (Open Solutions Alliance) a estimé que la crise économique actuelle « va conduire à adopter de plus en plus des solutions libres, en raison de leur flexibilité, de leur extensibilité et de leur faible coût. »

Dans le même temps la société de recherche Gartner a bien prévenu que les bénéfices escomptés de l’Open Source ne seraient pas au rendez-vous sans une saine gestion.

« N’espérez pas économiser systématiquement de l’argent avec un logiciel Open Source (OSS), ou avec une quelconque technologie sans une gestion financière efficace », a déclaré l’analyste Mark Driver.

Microsoft et Oracle ont ouvert aux développeurs le code de quelques-uns de leurs logiciels et protocoles.

« Un président Open Source »

Reste à savoir jusqu’à quel point le 44ème président sera réceptif à l’idée de développer les travaux de la nouvelle administration avec les standards Open Source ?

« Le concept d’Open Source est en passe de devenir sous-jacent dans presque tout ce que qu’entreprend l’administration, » a déclaré Michael Tiemann de l’OSI.

« La philosophie de la démocratie américaine n’est pas simplement par le peuple et pour le peuple, mais aussi avec le peuple. »

Il souligne que nous avons déjà vu à l’œuvre l’attachement à cet esprit d’ouverture dans la campagne électorale du président Obama.

« Je pense que nous allons à présent assister à une meilleure acceptation du modèle Open Source dans l’esprit des gens, en Amérique et dans le monde entier. »

Errol Louis, du quotidien New York Daily News, semble d’accord.

Il décrit M. Obama comme « notre premier président Open Source, un dirigeant désireux de voir tout un chacun se demander comment, quand et où s’impliquer. »

Il a remarqué que la stratégie popularisée par les entreprises de logiciels, qui consiste à donner à d’autres une application pour qu’ils l’améliorent, a maintenant été transposée dans le domaine politique.

Bien entendu, le nouveau site Web change.gov se présente comme un portail pour une «gouvernance interactive » et une « démocratie Open Source. »

« Superviser »

M. McNealy a déclaré qu’un nouveau poste de haut responsable de l’information (CIO) était nécessaire pour mener un changement de fond en comble.

Il a ajouté que le CIO devrait avoir « un droit de veto, le droit d’éliminer tout matériel, logiciel ou application en réseau qui affecterait le réseau fédéral. Il ou elle devrait avoir un pouvoir véritable, celui de superviser vraiment et de prendre des mesures effectives à l’encontre de ceux qui ne se conformeraient pas à l’architecture globale. C’est ce que font toutes les entreprises mais que ne fait pas le gouvernement », a-t-il conclu.

M. Tiemann a estimé au contraire qu’un poste de CIO serait « du gaspillage de pouvoir exécutif ».

« Connaissant comme je les connais la structure et la nature du gouvernement fédéral, je ne peux croire à l’intérêt de nommer un CIO qui aurait à imposer sa voix par-dessus des départements qui, indépendamment des obstacles matériels, ont souvent du mal à collaborer. »

« Nommer un CIO reviendrait seulement à créer un poste improductif pour les quatre prochaines années », a déclaré M. Tiemann.

Notes

[1] Crédit photo : Acaben (Creative Commons By-Sa)




Allongement des droits de 50 à 95 ans : bon pour les artistes, les Majors, l’Europe ?

Gisela Giardino - CC by-sa« La Commission européenne, par la voix du libéral-rigide Charlie McGreevy, veut allonger la durée des droits des artistes-interprètes à 95 ans contre 50 ans aujourd’hui. Champagne chez Charles Aznavour, Johnny Hallyday et autres chanteurs dont la carrière a débuté à un époque où la télévision était encore un objet de luxe. Leurs premiers tubes, encore vendus aujourd’hui, ne tomberont pas dans le domaine public, selon l’expression dépréciative commune. Ils ne pourront circuler sur des CD pressés par tout un chacun ou être téléchargés sur le Net sans qu’ils puissent réclamer leur dîme. Sur le papier, ce n’est que justice : pourquoi Charles Aznavour devrait-il ne plus toucher un centime de la vente de ses premiers enregistrements ?[1] Comme bien souvent en matière de propriété intellectuelle, les bons sentiments masquent de mauvaises arrière-pensées. »

C’est ainsi que début un éclairant (et édifiant) article de Florent Latrive Qui veut la peau du domaine public pour faire plaisir à Aznavour ? paru il y a près d’un an sur le site des Écrans. Deux autres articles ont suivi sur le même site permettant d’affiner encore la question et son décryptage : Pétition : Contre l’allongement des droits des artistes-interprètes et Musique : 95 ans de droits pour les interprètes.

Quant à nous, dans la mesure où il n’est pas encore trop tard, nous avons décidé de relayer cet appel à mobilisation de l’Electronic Frontier Foundation en traduisant non seulement le récent communiqué ci-dessous mais en sous-titrant également une vidéo expliquant bien de quoi il en retourne et pourquoi il est important de manifester notre réprobation.

Faites passer et n’oubliez pas de visiter le site Sound Copyright pour signer la pétition !

Prolongement des droits d’auteur dans l’UE : aidez les eurodéputés à entendre un autre son de cloche

EU Copyright Extension: Help MEPs Hear the Other Side

Danny O’Brien – 20 janvier 2009 – Electronic Frontier Foundation
(Traduction et sous-titrage Framalang : Olivier, Don Rico, Xavier et Yostral)

À la lecture de la documentation officielle de la Commission européenne sur la directive prévoyant l’allongement du copyright, on pourrait croire que porter la durée des droits des artistes à 95 ans au lieu de 50 en Europe est une décision généreuse sans aucun effet néfaste. C’est sans doute l’image que souhaite en donner le membre de la commission Charlie McCreevy, lui qui incite le Parlement à mettre au vote cette directive au mois de mars de cette année.

Mais les législateurs de Bruxelles n’entendent qu’un seul son de cloche de la part de ce commissaire. C’est pourquoi, dans le cadre de la campagne contre l’allongement de la durée des droits d’auteur, une réunion va être organisée à Bruxelles où vous et vos eurodéputés êtes cordialement conviés.

Les experts en droits d’auteur européens les plus réputés affirment eux-mêmes que la Commission induit en erreur les Conseil et Parlement européens. Nul n’a encore expliqué aux eurodéputés en quoi cette mesure coûterait des milliards d’euros aux consommateurs européens, alors qu’elle ne rapporterait à la plupart des artistes concernés guère plus de trente euros par an, le plus gros des bénéfices revenant aux plus grosses maisons de disques, les majors. Ils ne se sont pas non plus inquiété des dégâts qu’elle infligerait à un domaine public solide et à l’accès démocratique à l’héritage culturel des pays membres.

En tant qu’acteur de la campagne Sound Copyright, l’Open Rights Group organise une réunion publique le 27 janvier à Bruxelles pour fournir aux eurodéputés des informations objectives sur l’allongement de la durée des droits d’auteur. Écrivez à votre eurodéputé pour lui demander d’y assister, ou mieux encore, faites le déplacement et venez donner vous-même votre avis sur la question.

Si vous désirez connaître davantage de détails sur les dangers de l’allongement de la durée des droits d’auteur, rendez-vous sur le site Sound Copyright, ou regardez le guide vidéo ci-après. Envoyez ensuite ces liens à vos amis européens, et écrivez sans plus tarder à votre eurodéputé.

—> La vidéo au format webm

Notes

[1] Crédit photo : Gisela Giardino (Creative Commons By-Sa)