« Vous êtes trop cons, je laisse tomber ! »

Nils Geylen - CC by-saDans notre récent billet Du choix risqué du logiciel propriétaire et étranger pour sa défense nationale, nous avions évoqué le cas de Conficker, ce ver informatique qui a récemment affecté (et infecté) bon nombre d’ordinateurs sous Windows.

Carla Schroder a fait sa petite revue de presse autour du sujet[1] et… les bras lui en sont tombés ! À dire vrai, elle en a carrément gros sur la patate. Tout y passe : les journalistes, les militaires, les sociétés d’antivirus, les clients de Microsoft et bien sûr ce « système d’exploitation de merde ».

Ce qui nous donne, vous l’aurez compris, un article coup de gueule et coup de sang un « brin » polémique qui ne manquera pas de faire réagir dans les commentaires[2].

J’abandonne. Windows ou la preuve que les gens sont trop cons pour utiliser des ordinateurs.

I Give Up. Windows Is Proof That People Are Too Stupid To Use Computers.

Carla Schroder – 12 février 2009 – LinuxToday Blog
(Traduction Framalang : Olivier et Don Rico)

Et trop cons ou faux-culs pour reconnaître en Windows l’échec qu’il est vraiment. S’il s’agissait de n’importe quel autre type de produit, on l’aurait banni de tous les pays du monde depuis des lustres. Pour parler de la dernière attaque virale affectant Windows, le ver Conficker, la BBC prend son ton nonchalant habituel, ne le décrit comme un ver spécifique à Windows qu’au bout de plusieurs paragraphes, cite des vendeurs d’antivirus comme si leur avis avait un quelconque intérêt, alors que ce ne sont que des nuisibles, pour finir par rejeter la faute sur les utilisateurs :

« Le ver se répand par les réseaux peu sécurisés, les cartes mémoires et les PC qui ne sont pas à jour (…) Microsoft a fait son travail en protégeant les ordinateurs familiaux, mais le ver continue sa progression dans les entreprises qui ont ignoré la mise à jour (…) Bien sûr, le vrai problème vient des utilisateurs n’ayant pas appliqué le correctif sur leurs ordinateurs », ajoute-t-il.

Veuillez m’excuser, il faut que j’aille me défouler sur quelque chose.

BIEN SÛR que c’est la faute des utilisateurs. Ils continuent à utiliser le pourriciel le plus cher et le plus mal conçu de tout le Système solaire. Mais ses défauts incurables ne leurs sont pas imputables. Abandonnez aussi l’idée que ces utilisateurs puissent être secourus par Linux, nous ne voulons PAS qu’ils utilisent Linux. « It is impossible to make anything foolproof, because fools are ingenious » (NdT : « Il est impossible de concevoir un produit infaillible, car les idiots sont ingénieux » Jeu de mots sur foolproof, infaillible et fool, imbécile).

Quand on parle de logiciels malveillants, ce sont des logiciels malveillants pour WINDOWS, PAS des logiciels malveillants pour les ordinateurs

Les armées américaine et anglaise sont mises à mal par des logiciels malveillants pour WINDOWS. Pas des logiciels malveillants pour ordinateurs, des logiciels malveillants pour WINDOWS. Chers journalistes, prenez note. C’est un fait de la plus haute importance. Je sais à quel point vous détestez les faits et les recherches, je vous l’apporte donc sur un plateau. Ne me remerciez pas. Même Wired, dont on attend pourtant mieux, s’est fendu de ces quelques lignes, du mauvais journalisme de première classe :

« La progression rapide d’un ver au sein du réseau de la Défense donne des sueurs froides aux ingénieurs informaticiens du ministère de la Défense. L’utilisation des clés USB, des CD, des cartes mémoire et de tout autre support de stockage est donc prohibée sur leurs réseaux pour essayer d’enrayer la progression du ver. »

À aucun moment l’article ne fait mention de Windows ou de Microsoft. Ça nous a bien fait marrer quand la Royal Navy a mis Windows sur ses sous-marins il y a tout juste quelques semaines. Mais la plaisanterie a assez duré :

« Le ministère de la Défense a confirmé aujourd’hui qu’il a été victime d’un virus ayant causé l’arrêt d’un "petit nombre" de serveurs de la Défense dont, en particulier, le réseau d’administration des bâtiments de la Royal Navy. »

Ils minimisent évidemment le problème, ne vous faites pas de bile, ce n’est rien de grave, circulez il n’y a rien à voir. Après tout, les têtes nucléaires sont à jour avec le SP4 ou une autre connerie du genre. Et là non plus personne n’évoque le mot tabou Windows.

Des avions de chasse cloués au sol par une infection bénigne, sans importance

Celle-là, elle est à se tordre :

« Des avions de chasse français n’étaient pas en mesure de décoller après que des ordinateurs militaires ont été infectés par un virus… Les appareils étaient dans l’incapacité de télécharger leur plan de vol après que les bases de données ont été infectées par un virus Microsoft malgré une alerte donnée quelques mois auparavant. »

Et là encore le problème est minimisé : « L’échange d’informations a été affecté, mais aucune donnée n’a été perdue. C’est un problème de sécurité que nous avions déjà simulé. » Il faut reconnaître que le reporter a eu le courage de dire Microsoft et Windows. Mais malheureusement c’est encore l’utilisateur qui est pointé du doigt.

Microsoft ameute les troupes !

Je vous ai réservé la meilleure histoire pour la fin. Je n’invente RIEN ! Microsoft elle-même, la plus grosse entreprise de logiciel, connue pour les milliers de milliards de dollars qu’elle a engrangé dans ses coffres-forts, qui dépense des milliards de dollars pour le développement de Windows mais dont les codeurs ne parviennent pas à se sortir de ce pétrin, offre donc une récompense :

Microsoft ameute les troupes pour choper Conficker
« Dans un effort coordonné à l’échelle mondiale pour venir à bout de ce que les experts désignent comme ce qui pourrait être le pire logiciel malveillant, des grands noms de l’industrie, du monde universitaire et des services de police joignent leurs efforts dans la chasse au ver Conficker… Microsoft coordonne des actions visant à arracher la tête du ver – offrant une récompense de 250 000 dollars à quiconque pourrait fournir des informations menant à l’arrestation et à la condamnation des responsables de la propagation de Conficker sur Internet. »

Vous devez vraiment lire cet article, on le croirait extrait du Journal des aberrations. Il nous conte comment cette ligue d’experts s’est mise en branle pour combattre ce ver : vendeurs d’antivirus, services secrets, ICANN, Verisign et les universités. Voici la chute de l’histoire :

« Conficker utilise la fonction Autorun de Windows – celle qui lance automatiquement les CD-Rom ou les DVD quand on les insère dans l’ordinateur.
Autorun facilite la vie des utilisateurs, mais désactiver AutoRun, c’est enquiquinant, d’après Nazario. »

Enquiquinant ? J’ai bien lu ? ENQUIQUINANT ???

Je ne sais pas trop, je suis tiraillé entre l’envie d’utiliser un langage peu châtié et celle de me mettre à pleurer. J’imagine alors que Conficker n’est « qu’un léger désagrément ». Et j’imagine que s’ils finissent pas attraper et punir les auteurs de Conficker, les 36 millions d’autres vers Windows, chevaux de Troie Windows et autres logiciels malveillants Windows disparaîtront tous.

Personne ne rejette la faute sur Microsoft

Faut-il donc être un petit génie pour comprendre que « Tiens, si j’arrête d’utiliser ce système d’exploitation de merde je n’aurai plus ces problèmes ! Tiens, peut-être que le fabricant mérite bien un petit procès pour avoir fait subir au monde cette bouse, une bouse qui a engendré des milliards de dollars de dégâts et qui a mis en danger la sécurité publique ! »

Pensez-vous. Après avoir vu le même scénario se répéter des centaines de fois au cours des 13 dernières années, tout ce qu’on peut en conclure, c’est que :

  • Les journalistes sont des crétins.
  • Les militaires sont des crétins.
  • L’industrie des antivirus n’est qu’un énorme parasite qui se satisfait bien de son inefficacité.
  • Les clients de Microsoft sont des crétins.
  • Tout le monde est corrompu… des corrompus bon marché qui plus est.

La seule hypothétique lueur d’espoir que nous ayons, c’est que les milliers de vers Windows vont se mettre en guerre les uns contre les autres et détruiront chaque machine Windows sur Terre. Mais le remède ne serait que de courte durée, car même après un holocauste nucléaire Windows la première chose que les gens feraient serait de se relever, de s’épousseter et d’essayer de redémarrer leur machine pour voir si ça ressuscite leur système.

Notes

[1] Pour comparer, voici une revue de presse francophone (by Google) parlant de Conficker. Est-ce mieux décrit que ce qu’évoque Carla ?

[2] Crédit photo : Nils Geylen (Creative Commons By-Sa)




La loi Création et Internet, le chant du cygne et le maquis

Tempo no tempo - CC byCette loi « Création et Internet » s’apparente de plus en plus au chant du cygne d’une industrie culturelle totalement dépassée par les événements et qui s’arc-boute sur ce qu’il lui reste encore de privilèges hérités du siècle dernier. Associée avec la politique web 1.0 d’un Sarkozy, tout est réuni pour casser la société numérique en deux et voir les éléments les plus progressistes du pays prendre le maquis virtuel pour tenter de sauver ce qui peut encore l’être tant que la neutralité du Net sera garantie.

Un peu emphatique ce premier paragraphe non ? Allez, tant, pis, je le garde quand même 😉

En fait il s’agissait juste d’introduire cet article du collectif Libre Accès, qui fait justement partie de ceux qui sont bien décidés à ne pas s’en laisser compter[1].

Edit : Dans un autre registre, on pourra également lire cette gore mais assez désopilante BD de Flock.

La libre circulation de l’Art est la garantie de notre liberté

Libre Accès – Lettre d’information – février 2009
Article sous Licence Art Libre

La préface de La crise de la culture d’Hannah Arendt commence par cette citation d’un poème de René Char : « Notre héritage n’est précédé d’aucun testament », faisant référence à son choix d’entrer en résistance, à la prise de conscience que lutter contre la tyrannie restitue à chacun, au sein de l’espace public, sa liberté.

La circulation des œuvres de l’esprit a toujours été un enjeu majeur ; les amateurs du totalitarisme ont une forte passion morbide pour brûler des livres et imposer leur pensée unique aux masses. Le hacker Soljenitsyne en a su quelque chose : la parution de L’Archipel du Goulag, qui arriva en Europe de l’Ouest sous la forme d’un microfilm, est un des premiers exemples de l’enjeu que représente la numérisation des livres pour notre civilisation.

Il reste encore des hommes et des femmes dans le monde pour qui les actes de création constituent autant d’actes de résistances à la tyrannie. Actes de dignité où écrire, filmer, peindre, peut constituer un véritable crime passible de la peine de mort. Il est important de garder cette idée présente à l’esprit et de ne pas oublier qu’Internet représente rien de moins que de notre liberté de créer, d’échanger et de partager.

L’essence et l’avantage d’Internet est sa décentralisation. C’est l’outil rêvé de tous les amoureux de la liberté, encyclopédistes des Lumières, amis de l’éducation populaire et de l’art, leur permettant de diffuser leurs idées et les conserver. Bibliothèque-monde de toutes les cultures, lieu de production et de circulation de la pensée, l’art pour tous accessible, outil de pair à pair par excellence, Internet est un idéal des Lumières. C’est un espace d’expression, de réciprocité, de critique et donc de création.

En termes économiques, il serait temps de prendre conscience de faits essentiels qui se dessinent depuis son apparition :

  • l’ancien modèle des médias était basé sur la diffusion et la consommation, tandis que le nouveau modèle s’est développé sur la participation et l’expression;
  • l’élément critique de l’ancienne chaîne de valeur reposait sur la distribution, tandis que la nouvelle chaîne de valeur est centrée sur la découverte et la propagation;
  • il faut porter son attention là où l’argent s’est déplacé, là où les gens dépensent leur argent, sans occulter dans le même temps que les circuits financiers et produits dérivés se sont globalisés, hors de tout contrôle des Etats-nations et des territoires.

Ce sont là des données de base, familières à tout acteur informé de l’économie numérique. Il est donc particulièrement inquiétant pour nos démocraties de constater que ces mêmes lobbies financiers n’ont de cesse de vouloir contrôler Internet par des méthodes non seulement arbitraires et irrationnelles mais également tout à fait dépassées.

Les arguments justifiant la mise sous contrôle du réseau se réclament paradoxalement de la défense de la culture, alors que c’est justement elle qui est attaquée ; au même titre qu’ils invoquent des raisons pseudo-économiques, alors que par essence l’économie numérique refuse radicalement un contrôle central. Ce paradoxe a d’ailleurs été brillamment dénoncé par les situationnistes qui écrivaient dès 1967 : « la fin de l’histoire de la culture se manifeste par deux côtés opposés : le projet de son dépassement dans l’histoire totale, et l’organisation de son maintien en tant qu’objet mort, dans la contemplation spectaculaire »

Ces objets morts, stars télévisuelles qui ont l’odeur des icônes des églises mais sans leur efficacité, sont mis en avant pour justifier tous les abus du contrôle d’Internet. La mort de notre liberté est préparée dans une tentative vaine et pitoyable de conjurer la mort de l’artiste télévisé.

La loi « Création et Internet » souhaiterait que l’on installât un logiciel sur chacun de nos ordinateurs pour prouver que nous ne sommes pas des copieurs d’œuvres numériques interdites. Absurdité fondamentale : l’informatique, Internet, sont intrinsèquement copie, comme le rappelait Intel Corporation dans son Amicus brief lors du procès MGM vs Grokster.

L’argument de la culture en danger, servi à satiété, est un mensonge. La culture foisonne, les créateurs, de plus en plus nombreux, ne cessent de créer. Le public a soif d’œuvres auxquelles il accède de plus en plus en amateur, participant, co-créateur, et non plus en consommateur. La dissémination et l’accès de tous et par tous à la culture, voilà ce qui est en danger.
Et il est déconcertant de voir que c’est au nom du droit d’auteur, pour défendre la création, que l’on s’apprête à faire voter le projet de loi « Création et Internet », loi liberticide par excellence. Les comités de censure sont-il en train d’être remplacés par les Majors à qui le gouvernement français veut déléguer des pouvoirs arbitraires de police de l’Internet ?
Le pouvoir oligopolistique des Majors renforcé par la puissance publique pourrait contrôler l’ensemble des diffusions culturelles par une intégration verticale anti-économique et anti-concurrentielle : des tuyaux Internet, des radios, des télévisions, des journaux, des salles de concert…

C’est donc bien la liberté de l’auteur et son indépendance qui sont attaquées. Il n’est guère étonnant que de plus en plus d’auteurs et d’interprètes, voulant expérimenter d’autres dispositifs de création, quittent la SACEM (dans la musique) et les circuits classiques de distribution, pour mieux maîtriser leurs créations. Tout le monde n’est pas un adepte de la chanson à 2 minutes 30. La SACEM, influencée par les Majors ne sait pas rémunérer équitablement les auteurs occasionnellement diffusés sur les radios, par exemple. Ses modèles de répartitions sont basés sur des données partielles, accordant une prime aux plus gros diffusés. La production de la création doit correspondre au moule marketing de l’industrie culturelle ou ne pas exister.

De fait, il y a de plus en plus d’artistes qui, pour être en accord avec leur processus créatif, s’auto-produisent et s’auto-diffusent via Internet. Pour protéger leurs œuvres et garantir le partage de celles-ci, ils utilisent différentes licences telles la Licence Art Libre ou les Creative Commons.
Ils retrouvent ainsi leurs libertés premières d’auteurs : choisir les possibilités de modification de leurs œuvres, d’utilisation, de collaboration, de rémunération. Certains auteurs souhaitent privilégier la diffusion et la pérennisation de leurs œuvres, plutôt que leur rétribution financière.

Antoine Moreau, fondateur de la Licence Art Libre écrit : « Je crois pouvoir dire alors que le copyleft participe bien de ce récit des rêves ou des visions qui va à contre-temps de tout ce qui prétend dominer le cours de la création. C’est une liberté intempestive qui ne se soumet pas à l’injonction de l’actualité mais envisage un temps élargi, qui va très loin dans le passé, très loin dans l’avenir et très profondément dans le présent ».

Un musicien qui vient de terminer la création d’une œuvre musicale peut en un clic être écouté d’Afrique en Asie. Internet offre aux artistes un moyen de propagation inédit auquel les Majors ne s’étaient pas préparés. La plupart des plateformes de téléchargement d’œuvres sont multilingues. Il n’est plus rare qu’un artiste qui ne trouve pas son public localement le trouve à l’autre bout du monde.

C’est une vraie chance pour les auteurs, et pour l’humanité. Des groupes de musique comme Nine Inch Nails sont en passe de démontrer que la libre diffusion des œuvres n’empêche pas les artistes de trouver des modes de rémunérations concrets via la vente de places de concert ou de disques, avec toute une gamme possible de services et de produits dérivés.

Il y a bien un imaginaire défaillant dans les débats actuels sur la rémunération des auteurs et artistes-interprètes. Les moines copistes de l’industrie du DVD tentent d’imposer le même rapport de force que lors de la naissance de l’imprimerie, voulant casser une technologie brisant leur monopole. Frédéric Bastiat, économiste libéral français, les décrivit fort bien dans sa Pétition des Fabricants de Chandelles geignant contre la concurrence indue du soleil.

C’est l’auteur/artiste interprète à qui nous devons garantir une rémunération et non pas à l’industrie culturelle. La démocratisation des outils d’autoproduction et d’autodiffusion dans tous les Arts (cinématographique, musical, graphique, etc.) doit être prise en considération. Il appartient aux pouvoirs publics de savoir s’ils veulent soutenir les Majors ou les auteurs. N’en déplaise aux moines copistes de l’industrie du DVD et à leurs icônes télévisées, la création est foisonnante sur Internet et il est temps qu’elle soit reconnue.

S’il est fondamental de garantir cette liberté de choix de diffusion des œuvres et de leur circulation, nous devons être capables d’adapter le financement de l’art à l’heure d’Internet, sachant que sa défense ne peut être, ni en contradiction avec les valeurs démocratiques, ni avec les technologies actuelles. Comme le disait Michel Vivant en 2003 au Colloque de l’UNESCO ”Droit d’auteur et droits voisins dans la société de l’information” : « Il ne s’agit pas de s’incliner devant le fait. Il s’agit de ne pas nier la réalité. ».

La libre circulation de l’Art garantit notre humanité, le pouvoir de se penser homme, voire humanité. On a besoin de se connaître à travers les grottes de Lascaux, dans les ruines de Babel. Antoine Moreau rappelle : « Il n’y a pas d’ouvrages de Platon et il n’y en aura pas. Ce qu’à présent l’on désigne sous ce nom est de Socrate au temps de sa belle jeunesse. Adieu et obéis-moi. Aussitôt que tu auras lu et relu cette lettre, brûle-la. La notion d’auteur, qui n’existe pas dans la Grèce Antique ni au Moyen-Âge où l’autorité émanait des dieux ou de Dieu, apparut. ». Garantir la libre circulation des œuvres d’Art, avec comme seul propriétaire, en dernier ressort, l’humanité, est donc essentiel. Pas de Copyright sur les œuvres de Lascaux, mais des amateurs d’Art archéologues entretenant notre patrimoine.

Le devoir de garantir la circulation de l’Art comme patrimoine de l’humanité oblige à penser sa préservation. Pas les salaires mirobolant des icônes télévisés mais de ceux qui, en premiers garantissent une pratique artistique : professeurs d’Art (plastique, musique, cinéma…), Maisons de la Culture, bibliothèques, espaces de pratique artistique, cinémas indépendants, universités… Il s’agit de multiplier les lieux ou les Artistes et les amateurs d’Art peuvent créer, échanger, écouter, pour maintenir à chaque Art les amateurs éclairés qui soutiendront toujours les Artistes/Auteurs.

Le financement de l’Art (pour les artistes souhaitant en bénéficier), doit être repensé par les puissances publiques. Préserver le seul intérêt des Majors, quand le statut des intermittents est menacé et le statut des artistes peintres est presque inexistant, démontre l’abandon de toute politique culturelle ambitieuse.
Si l’on songe que nous, citoyens, par les impôts, taxes et redevances que nous payons, sommes certainement le plus grand producteur culturel français, comment expliquer que l’on nous dénie toute participation aux débats en cours, et que l’on prétende privatiser et nous faire payer des œuvres que nous avons déjà financées? Est-il par exemple normal que l’Éducation Nationale, selon les accords sectoriels post-DADVSI, paye 4 millions d’euro par an pour n’avoir le droit, en ce qui concerne les œuvres audiovisuelles, que d’utiliser les chaînes hertziennes classiques ? Cela doit changer.
C’est en tant qu’amateurs d’Art et citoyens exigeants que nous devons être comptables des politiques culturelles et de leur diffusion. Il en va de nos identités et cultures plurielles, dont il faut empêcher l’uniformisation par une industrie culturelle qui, de TF1, à France 2 ou M6, montre les mêmes séries télévisées et les mêmes discours autistes du Président du tout nouveau Conseil de la création artistique.

Il incombe de défendre nos libertés concomitantes d’un accès à l’art pour tous. De ce point de vue, il est intéressant de noter que les Majors essaient d’imposer, comme les semenciers de Monsanto, un catalogue des œuvres dites protégées, au mépris du droit d’auteur censé protéger tout auteur d’une oeuvre de l’esprit. Il y a donc bien des logiques de domination économique qui sont à l’œuvre pour la privatisation des biens communs, contre lesquelles nous devons résister.

L’aboutissement des projets de Monsanto, comme le fameux « catalogue des semences » interdisant aux agriculteurs et jardiniers le droit de conserver, utiliser, échanger et vendre les semences ou du matériel de multiplication reproduits à la ferme, doit nous rendre vigilants sur les tentatives des Majors d’imposer le leur, fait du même petit nombre d’œuvres et rééditions formatées et sans risque.

Il y a un foisonnement d’Auteurs/Artistes talentueux qui autorisent la diffusion de leurs œuvres via la Licence Art Libre et les Creative Commons, plus de 30 000 œuvres musicales sur la plateforme Dogmazic, 10 000 œuvres littéraires sur le site de la maison d’édition InLibroVeritas, et dans le monde, d’après des estimations minimales, 130 millions d’œuvres et documents sous Creative Commons en juin 2008. Il est de notre devoir de les soutenir, car ils sont à l’avant-garde d’un mouvement de résistance, se livrant à la lutte pour la libre circulation de l’Art et donc notre liberté.

Pour Libre Accès, Jérémie Nestel (MACAQ, Radio du Ministère de la Crise du Logement), Bituur Esztreym (co-fondateur de Musique Libre ! et de dogmazic.net), Eric Aouanès (président de l’association Musique Libre ! et co-fondateur de la plateforme Dogmazic), Didier Guillon-Cottard (Festival Art is chaud) Mathieu Pasquini (gérant et fondateur de la maison d’édition InLibroVeritas).

Notes

[1] Crédit photo : Tempo no tempo (Creative Commons By)




Je veux la même chose sur mon Eee PC !

Faites passer pour montrer à quoi peut ressembler GNU/Linux aujourd’hui, qui plus est sur un netbook (ici le célèbre Eee PC).

Même ma compagne a été impressionnée, c’est vous dire…

—> La vidéo au format webm

Il s’agit de la distribution GNU/Linux Elive (Debian + Enlightenment) gentiment customisée pour faire tourner le flashy and sexy Compiz dessus (pour en savoir plus).

La musique est de Arena Of Electronic Music (licence Creative Commons By-Nc-Nd).




Wikipédia et éducation : un exemple de réconciliation 6/6

Cet article clôt le dossier Wikipédia et éducation : un exemple de réconciliation.

Il propose une sélections de liens pour informer, débattre et aller plus loin.

Liens francophones connexes

Revue de « presse » de ce dossier

  • Wikipédia comme support de travail universitaire ? – Adrienne Alix – Compteurdedit – 17 février 2009
    « Il va encore plus loin en se demandant s’il est plus formateur et plus utile à un étudiant de savoir argumenter sur un sujet donné (cadre d’une dissertation) ou de savoir présenter les connaissances liées à ce sujet, d’être capable de faire des recherches sur un sujet, de synthétiser des sources, de confronter son travail au regard des autres et de travailler en collaboration. C’est le genre de débat qui créerait immédiatement des hurlements dans une assemblée d’enseignants, mais je crois que c’est très intéressant si on se demande un peu ce que Wikipédia peut apporter à l’enseignement universitaire. Le volet argumentation pure, très académique, est une chose sans doute essentielle à maîtriser. Mais l’écriture collaborative, avec des exigences de qualité formelle et de sourçage, la synthétisation du savoir existant, la confrontation au regard des autres, toutes ces choses qui sont le principe même du fonctionnement de Wikipédia, je crois très sincèrement que c’est une part de pédagogie qui n’existe pas dans l’enseignement et qui serait pourtant très bonne pour l’esprit et très utile dans le monde professionnel, où on argumente rarement par dissertation. »
  • Une expérience canadienne réconcilie Wikipedia et éducation – Mathieu Grégoire-Racicot – Le Quotidien Jurassien – 20 février 2009
    « Avenir et partage de la connaissance pour les uns, royaume du plagiat et l’opinion mal formulée pour les autres, l’encyclopédie collaborative Wikipedia a une réputation controversée, sulfureuse, spécialement dans le monde de l’éducation. Or une petite histoire, rapportée par le très fouillé et très actif Framablog, tenu par un professeur de lycée français, montre à quel point des projets pédagogiques pourraient se trouver enrichis, encadrés et davantage formateurs en utilisant Wikipedia, non comme une source, mais comme aboutissement de travaux de recherche. »

Autour de l’éducation

  • Projets pédagogiques – Wikipédia
    « Si vous êtes un enseignant dans une école ou dans une université, nous vous encourageons à utiliser Wikipédia dans votre classe non seulement comme source d’information mais comme espace de rédaction et de construction de connaissances. »
  • Wikipédia : la rejeter ou la domestiquer ? – Eric Bruillard – Médialog 61 – mars 2007
    « Le phénomène Wikipédia interpelle le monde enseignant. Quelle confiance peut-on accorder à une encyclopédie rédigée par ses lecteurs et dont les articles sont modifiés en permanence ? Quelle place l’École peut-elle lui faire ? »
  • D’un Club Histoire à un Club Wikipédia – Sylvain Négrier – septembre 2008
    « Quels usages vos élèves font-ils de Wikipédia ? Wikipédia est visiblement une source d’information importante pour eux. Sa valorisation par les moteurs de ucation-a-education-exemple-projet-pedagogique-6exemple-projet-pedagogique-6recherche (dont Google) en fait un point de départ quasi obligé. C’est particulièrement net pour les TPE et l’ECJS. Le problème majeur, mais ce n’est pas une découverte, c’est le manque de recul (voire de compréhension) de certains élèves. Cela leur joue parfois des tours : lors d’une composition à faire à la maison (…) Ceci dit les élèves ne sont pas totalement naïfs, et je les invite à exercer leur esprit critique, y compris envers ce que je leur enseigne : je ne me considère pas comme infaillible. »
  • Wikipédia et le cours d’histoire – Les Clionautes – septembre 2008
    « L’encyclopédie en ligne est devenue un des pôles majeurs sur le web, et une référence de choix pour beaucoup d’élèves et enseignants. Elle fait néanmoins l’objet de réticences et a suscité des débats très vifs ces dernières années. Ce premier article, qui prolonge la page Wikipédia en débats, a pour objectif de revisiter les étapes et les enjeux d’un débat très médiatisé, sur fond de divergences quant à la vision de la société et de l’éducation. Une réflexion sur la place de Wikipedia à l’école invite à interroger nos pratiques, et à proposer des pistes pragmatiques, à court et à moyen terme. »
  • L’histoire peut-elle être Open Source ? Les historiens et Wikipedia – Roy Rosenzweig (traduction Clioweb) – juin 2006
    « L’histoire est un art (un métier ?) éminemment individualiste. Les travaux signés d’une seule personne sont la règle dans la profession (…) Cet individualisme qui caractérise la recherche en histoire est aussi très possessif. Afin de travailler honnêtement, et éviter les accusations de plagiat, nous autres historiens devons attribuer idées et expressions à ceux qui les ont émises (…) Il est donc presque impossible d’envisager dans notre culture professionnelle des travaux historiques dénués de propriétaire, effectués par une multitude d’auteurs anonymes. C’est pourtant la définition exacte de Wikipedia. »
  • Wikipédia tente de pénétrer le milieu éducatif – François Jarraud – Café Pédagogique – décembre 2005
    « Le problème c’est que Wikipédia n’est malheureusement plus un outil recommandable pour les enseignants. Le projet, fort sympathique au départ, sert des intérêts qui suscitent des interrogations (…) Tant que la clarté ne sera pas faite sur le fonctionnement de Wikipédia et le ménage dans ses articles, nous déconseillons aux enseignants de l’utiliser avec les élèves. »
  • Wikipédia, une encyclopédie sans auteurs ? – Serge Pouts-Lajus – Les dossiers de l’Ingénierie Educative n°58 – juin 2007
    « Wikipédia est un projet apparemment sympathique. Il possède des qualités qui ne peuvent lui être contestées et auxquelles je suis, comme tout le monde, sensible : l’encyclopédie libre est utile, gratuite et d’accès facile. Mais justement, lorsqu’il s’agit de savoirs, d’œuvres de l’esprit et de culture, les considérations utilitaristes ne suffisent pas. Tant que l’on reste attaché au principe de responsabilité des individus et des collectifs particuliers relativement aux œuvres qu’ils produisent, il n’est pas possible d’adhérer à un tel projet. »
  • De sévères critiques de Wikipédia – Alithia – Blog : Wikipédia ou le mythe de la neutralité – janvier 2007
    « Cet article et le suivant qui le complète, cite un très grand nombre de critiques faites à wikipedia, par des professionnels de l’enseignement, de la recherche et de l’éducation. »
  • L’édition de référence libre et collaborative : le cas de Wikipédia – INRP – mars 2006 (le dossier complet en pdf)
    « Selon Cormac Lawler, Wikipedia n’est pas simplement une encyclopédie, ni même un nouveau modèle éditorial : le projet présente en effet les caractéristiques d’une organisation apprenante tant dans sa structure que dans son fonctionnement. A la lumière des recherches sur les communautés virtuelles ou les communautés de pratique, il identifie les éléments de convergence suivants : Wikipedia est auto-gérée, auto-sélective et auto-évolutive. Le potentiel de la communauté réside selon lui dans la promotion d’une pédagogie de la découverte et dans le développement de l’esprit critique nécessaire à son fonctionnement. Le conflit est perçu comme un ingrédient nécessaire à la négociation car il requiert une mise en perspective des différents points de vue et une prise en compte des différences culturelles (…) La confrontation des partis-pris culturels est un signe d’action critique manifeste dans un contexte où l’adhésion à la règle de neutralité est partagée et où la convivialité est assumée comme essentielle. »
  • Le phénomène Wikipédia : une utopie en marche – Christian Vandendorpe – Le Débat, no 148 – janvier 2008
    « Au lieu d’élever un pare-feu autour de Wikipédia, l’École aurait donc tout intérêt à s’en servir comme d’un outil pédagogique. Outil d’éducation pour apprendre à respecter le bien public et à ne pas vandaliser des articles ; outil de formation à la lecture critique, surtout, afin d’apprendre à ne pas prendre pour argent comptant tout ce qui s’écrit : en vérifiant la présence de sources crédibles, en comparant divers états d’un article, en comparant la version française avec des versions rédigées dans d’autres langues, en faisant des recherches complémentaires dans d’autres sources, numériques ou imprimées. Une telle attitude critique est plus nécessaire que jamais, alors que le mensonge et la dissimulation s’épanouissent dans la culture anonyme du web et que les plus hautes sphères de l’administration de pays qui se présentent comme des modèles de démocratie pratiquent la désinformation à grande échelle, comme on l’a vu lors de la campagne qui a conduit les États-Unis à envahir l’Iraq. »
  • Wikipédia, un objet problème en information-documentation – Pascal Duplessis et Laure Endrizzi – mai 2008
    « En premier lieu, certainement, Wikipédia s’affiche en tant qu’objet documentaire, support de ressources informationnelles, et dont l’usage doit pouvoir être garanti : l’information offerte, même si elle est gratuite et facilement accessible, est-elle pour autant « consommable », c’est-à-dire sans risque de préjudice pour la santé intellectuelle ? Si de nombreux collègues de discipline ne s’offusquent pas de cette incertitude, sans doute par insuffisance d’expertise, le garant de l’information documentaire en circulation dans l’établissement, lui, s’en inquiète. Quel statut accorder à cet apport d’information au regard des autres ressources disponibles dans ou à partir du CDI ? Quelles précautions prendre ? Quel type d’accompagnement proposer aux élèves ? Quel discours tenir au sujet de Wikipédia ? »
  • Wikipédia – Une encyclopédie libre, gratuite et écrite coopérativement – Alain Caraco – BBF – août 2004
    « Wikipédia est-elle l’encyclopédie qu’attendaient les bibliothèques publiques françaises ? J’aurais tendance à répondre oui et non à la fois. Non dans son état actuel : trop de domaines sont insuffisamment couverts, trop d’articles sont encore à l’état d’une ébauche rédigée hâtivement. Mais, très certainement, oui dans un état futur (…) La Wikipédia en ligne ne peut être qu’en travaux permanents. C’est une sorte de chaudron bouillonnant, où l’on produit la matière première, toujours instable. Des éditions stabilisées, monolingues ou multilingues, sur cédérom, sur papier ou en ligne pourraient en être dérivées. Elles pourraient même être vendues par des éditeurs commerciaux, avec de la valeur ajoutée, notamment en matière de présentation ou d’illustration. Ce modèle économique existe déjà pour les logiciels libres : on peut télécharger Linux auprès de la communauté des développeurs, ou bien acheter une version commerciale, avec un mode d’emploi et une assistance téléphonique. »
  • C’est rien qu’à cause de Wikipédia si nos enfants échouent ! – Framablog – octobre 2008
    « Hier on apprenait en Écosse que c’est Internet qu’il faut blâmer pour le taux d’échec aux examens (…) Wikipédia, parmi d’autres sources, était cité comme étant la raison pour laquelle les étudiants échouent. Est-ce que Internet les rend stupides ? Ou bien est-ce que les étudiants ont seulement besoin d’apprendre à utiliser les nouveaux outils de recherche du Web de façon plus appropriée ? »
  • Ceux qui disent non… à Wikipédia – Astrid Girardeau – Les Écrans – janvier 2008
    « Diaboliser et interdire des sites Internet sous prétexte que les étudiants n’utilisent pas assez leurs propres cerveaux et les contenus académiques, on a vu plus constructif et efficace. Quand on observe l’ergonomie ou la disponibilité des outils d’information académiques accessibles à l’université pour les étudiants, fait remarquer Ertzcheid, on comprend hélas très facilement pourquoi ils préfèrent utiliser Wikipédia ou Google. S’en désoler ne servira à rien. »
  • Wikipédia est un projet encyclopédique et un bien commun de l’humanité – Astrid Girardeau – Les Écrans – janvier 2008
    « Pour 1 enseignant ou 1 université interdisant d’utiliser Wikipédia, 100 autres forment les étudiants à son usage, les aident à décrypter ses contenus. Ce faux-procès en incompétence qui est de plus en plus souvent fait à Wikipédia est d’autant plus horripilant que Wikipédia affiche clairement sur sa page d’accueil le fait qu’elle ne doit pas être utilisée comme une source primaire d’information. »

Plus général

  • Wikipédia – Wikipédia
    « Comme l’indique la première ligne de sa page d’accueil, Wikipédia a pour slogan : Le projet d’encyclopédie librement distribuable que chacun peut améliorer. Ce projet est décrit par son cofondateur Jimmy Wales comme un effort pour créer et distribuer une encyclopédie libre de la meilleure qualité possible à chaque personne sur la terre dans sa langue maternelle (…) En revanche, Wikipédia n’a pas pour but de présenter des informations inédites. Comme pour les encyclopédies classiques, son ambition se limite à exposer des connaissances déjà établies et reconnues. Les travaux personnels ou originaux n’ont pas leur place dans Wikipédia. »
  • Critiques de Wikipédia – Wikipédia
    « Sébastien Blondeel, dans un livre sur Wikipédia, a écrit en 2006 : Wikipédia est un projet avec lequel il faudra compter. Et si les critiques commencent à se faire entendre, c’est paradoxalement plutôt bon signe : justifiées, elles permettent de prendre conscience des problèmes ; gratuites ou exagérées, elles confirment l’influence et le succès du projet. »
  • Wikipédia : constats et propositions – Nat Makarevitch – avril 2006
    « Ce document expose des problèmes et incohérences de Wikipedia, projet d’encyclopédie libre publiée sur le Web, dans le but de l’améliorer, non de dénigrer. Nous y montrons le caractère abusif de certaines actions menées par certains contributeurs. »
  • WikiGrill – Les articles de Wikipédia passés sur le gril de Books
    « Pour remarquable qu’elle soit, et globalement salutaire, l’entreprise Wikipédia invite à la critique. Si beaucoup d’articles de cette encyclopédie d’inspiration démocratique sont de grande qualité, d’autres ne résistent pas à un examen attentif. Soit parce que leur contenu est léger ou inconsistant, soit parce qu’il est manipulé, parfois avec une grande habileté, par des internautes ou des lobbies qui défendent un intérêt. Or, Wikipédia est devenu le premier mode d’accès au savoir pour les jeunes et les moins jeunes qui, sans avoir reçu de formation universitaire poussée, naviguent quotidiennement sur le web. Avec sa rubrique WikiGrill, Books souhaite attirer l’attention sur l’existence de biais qui influencent de manière plus ou moins cryptée la qualité ou l’objectivité de certains articles de Wikipédia. »
  • La réponse de Sylvain Négrier à l’initiative WikiGrill (décembre 2008) : Une lecture critique de Wikigrill
    « Les wikipédiens s’interrogent depuis longtemps sur ce qu’est un bon article. Ils ont défini progressivement deux labels, attribués après un vote des contributeurs, représentant chacun un palier dans le niveau des articles. Il s’agit du label Article de Qualité, le plus prestigieux, pour le moment décerné à un peu plus de 500 articles, et du label Bon Article, qui concerne près de 500 articles et qui récompense ceux qui sont satisfaisants mais qui paraissent encore améliorables. Les conditions d’attribution de ces labels se sont considérablement durcies ces derniers mois, au grand dam de certains wikipédiens, essentiellement pour que ces articles, proposés comme vitrine de Wikipédia (notamment en page d’accueil), puissent échapper aux critiques les plus évidentes. Cela ne constitue toutefois pas une garantie totale : ces articles ne sont que très rarement relus par d’authentiques spécialistes, et les discussions lors des votes se portent assez volontiers sur les aspects formels. Il aurait donc été particulièrement intéressant que les auteurs de Wikigrill™ s’attachent prioritairement à ces articles labellisés. Sont-ils réellement d’un bon niveau ? La procédure d’attribution des labels telle qu’elle existe est-elle à même de repérer les meilleurs articles ? Ne faudrait-il pas la remplacer par une relecture par un/des spécialiste(s) ? »
  • La réponse de Jean-Claude Guédon à l’initiative WikiGrill (janvier 2009) : Wikipedia ? Moi, j’aime plutôt bien
    « Wikipedia n’est pas un produit textuel fixe offert à la consommation; il s’agit d’un processus incessant qui nous convie à la table du plus grand banquet intellectuel jamais construit dans l’histoire de l’humanité. Déjà étonnamment utile, essayons d’imaginer ce que ce sera dans dix ou vingt ans. »
  • L’encyclopédie de non-référence – Denis Berger – février 2005
    « On sait que l’idée de Wikipedia, comme sa licence LGPL, viennent de l’univers du logiciel libre, tendance Stallman, et visent à reproduire dans le domaine de la connaissance ce qui a si bien réussi dans celui de l’informatique : l’élaboration d’un bien commun par la participation de tous, en fonction des moyens de chacun, puisque tout un chacun est présupposé dépositaire d’une parcelle de connaissance qui, si menue soit-elle, est susceptible d’intéresser l’ensemble. Mais la ressemblance entre un programme et une encyclopédie se limite au fait que, dans un cas comme dans l’autre, il faut commencer par les écrire ; le programme, lui, ensuite, s’exécute, et dispose donc de son propre système de correction d’erreurs, brutal mais efficace : s’il est mal écrit, il plante. Il offre donc, paradoxalement pour un logiciel libre par définition livré sans, une garantie quant à son fonctionnement, la disponibilité des sources comme des programmeurs permettant, de plus, en l’espèce, de résoudre rapidement les problèmes. Autrement dit, l’exportation de ce concept, tel qu’il est présenté, vers un projet encyclopédique se révèle privé de pertinence puisque, là, rien, en dehors d’une éventuelle relecture d’un participant qui pourra peut-être se trouver contredite un peu plus tard par un autre, ne garantit la qualité de l’information publiée ; ici, le mécanisme cumulatif et automatique qui permet l’amélioration continue du logiciel libre ne joue pas.  »
  • Inside Wikipédia – Camille Gévaudan – Les Écrans – juillet 2008
    « Ecrans.fr s’invite à l’intérieur de Wikipédia et vous propose d’aller voir comment un projet aussi pharaonique peut fonctionner au quotidien. »
  • Wikifeuilleton – Le Tigre
    « Les coulisses de l’encyclopédie collaborative Wikipedia. »
  • À propos de Wikipédia – Rui Nibau – Framasoft – mars 2006
    « Ici, je n’ai fait que voir un verre à moitié vide en n’abordant qu’un unique aspect des critiques formulées à l’encontre de Wikipédia. D’autres internautes peuvent – à juste titre – le voir à moitié plein. A un moment de son histoire où l’encyclopédie acquiert une visibilité croissante dans d’autres médias, et attire donc l’attention d’acteurs aux intérêts divergents, l’avenir proche nous dira si ce verre finira par se remplir ou par se briser. » (et la réponse de Nojhan : Wikipédia, l’encylopédie asymptotique)
  • Wikipédia : le refus du pouvoir – Mémoire de fin d’étude de Sylvain Firer-Blaess – Institut d’Etudes Politiques de Lyon – 2006/2007
    « Wikipédia refuse le pouvoir : elle refuse la possession de l’information aux plus fortuné, en rendant l’information libre. Elle refuse aussi la production du savoir par quelque uns, en donnant ce pouvoir à tous. Elle refuse dans son organisation les statuts spéciaux, elle refuse la centralisation de la surveillance et de la décision. Ainsi elle dissout le pouvoir et en donne une parcelle à chacun : le pouvoir de décider, le pouvoir de créer le savoir, le pouvoir de s’informer. Elle empêche ainsi fortement les processus de domination dans son organisation interne. Elle a aussi un impact sur le monde réel, impact certes minime, mais donner la possibilité aux personnes qui disposent d’une connexion internet de disposer d’un savoir libre et gratuit, c’est déjà quelque chose. »
  • D’Amour & de Neutralité : Ce(ux) qui résiste(nt) – Martin Erpicum – Mémoire universitaire – juillet 2005
    « L’objet empirique de ce mémoire est l’encyclopédie libre Wikipédia. De tout temps, les encyclopédies ont été un support à l’apprentissage d’un intérêt certain. L’apparition d’un type d’encyclopédie rédigée coopérativement par des pairs sur le réseau Internet a entraîné bon nombre de questionnements : critères de validation de la connaissance, contrôle des actes de vandalisme, régulation des contributeurs, etc. Afin d’éclairer en partie ces questionnements, le présent travail va tenter de décrire les pratiques de régulations inhérentes à la tâche de rédacteur encyclopédique, et de rendre compte des contraintes et normes émergentes qui encadrent l’activité des pairs. »

Succincte bibliographie

  • « Wikipédia, Découvrir, utiliser, contribuer » – Florence Devouard et Guillaume Paumier – Presses universitaires de Grenoble – janvier 2009
    « Ce livre vous guide à la découverte de cette gigantesque fourmilière et vous explique comment utiliser efficacement son contenu. Il vous incite ensuite à devenir acteur et à participer à la rédaction de l’encyclopédie, quels que soient votre âge et vos domaines de compétences. »
  • Wikipédia, Média de la connaissance démocratique ? Quand le citoyen lambda devient encyclopédiste – Marc Foglia – FYP Éditions – novembre 2007
    « Cherchez n’importe quel mot sur Google… Les deux premières pages de résultat, celles qui comptent, renvoient presque invariablement à un article de Wikipédia. Comment cette encyclopédie d’un nouveau genre s’est-elle installée comme une source universelle de connaissance, et désormais comme un réflexe intellectuel ? L’origine de ce phénomène, son fonctionnement et son évolution fulgurante sont autant d’appels à la réflexion.Wikipédia c’est la dématérialisation de la connaissance et la progression de son accessibilité : peut-on parler d’un nouveau média ? d’une Toile dans la Toile ? Que devient la propriété intellectuelle dans ce partage gratuit de la connaissance ? Pourra-t-on parler d’une « génération Wikipedia » ? Quels sont les risques que fait courir l’encyclopédie libre à la connaissance, au jugement et à l’esprit critique ? Ces interrogations nous permettent d’éclairer d’autres phénomènes contemporains comme le travail collaboratif en réseau, la frontière entre biens marchands et biens non-marchands, la frontière entre travail et bénévolat, la démocratie à l’ère du numérique, etc. Par une approche critique, philosophique et sociologique, l’ouvrage analyse en profondeur cette « l’encyclopédie collaborative » comme un phénomène émergent, comme expression de tendances de fond de la modernité au XXIe siècle, et une innovation remarquable susceptible d’éclairer d’autres évolutions de la société contemporaine. »
  • Wikipédia – Comprendre et participer – Sébastien Blondeel – Eyrolles – avril 2006
    « Qui n’a entendu parler de Wikipédia, l’encyclopédie collaborative de l’Internet la plus vaste et la plus consultée ? Qui ne connaît ce projet international auquel des experts de tous domaines contribuent ? Née en 2001, Wikipédia compte plus de trois millions d’articles début 2006, 120 langues actives, un million d’articles en anglais, 250 000 en français. Ce livre explique comment l’explorer et y participer, dans quelles limites réutiliser son contenu et quels sont ses secrets de fonctionnement (financement, contexte politique). »

El Senor Presidente - Accueil Wikipédia - 5 mai 2008

Les autres articles du dossier

  • 1/6 – Introduction
    Un projet pédagogique « de qualité ».
  • 3/6 – Le projet vu par un éditeur de Wikipédia
    Le point de vue d’un éditeur de Wikipédia, membre de « l’équipe des Articles de Qualité », ayant accompagné et soutenu les étudiants pendant la durée de leurs travaux.
  • 6/6 – Liens connexes
    Une sélection de liens francophones autour de Wikipédia et l’éducation.



Le désastre Vista n’a pas forcément favorisé Linux

Hamed Masoumi - CC byL’article du jour, ou plutôt la traduction du jour, évoque un phénomène que nous sommes nombreux à avoir constaté : la perte initiale de « l’avantage » qu’avait GNU/Linux chez les netbooks au bénéfice non pas de Vista (il est bien incapable de tourner sur ces petites machines) mais de Windows XP.

Il suffit en effet de s’en aller faire un tour chez un grand revendeur d’informatique pour se rendre compte que, dans la grande majorité des cas, les netbooks sous Linux ne sont pas mis en valeur (aussi bien côté présentation que côté personnel de l’échoppe qui aura vite fait de vous conseiller le netbook Windows si tant est que vous lui posiez la question).

Et c’est d’autant plus dommage que nous avions là une belle opportunité de montrer au « grand public » que Linux était désormais une alternative réelle et crédible[1]. Raison de plus pour « pousser Linux côté marketing » sachant que l’arrivée prochaine du nouveau système d’exploitation Windows 7 (justement là pour faire oublier l’accident industriel Vista) risque de compliquer encore un peu plus la donne…

En quoi le désastre Vista a nui à Linux

How Vista’s total failure hurt Linux

Steven J. Vaughan-Nichols – 28 janvier 2009 – ComputerWorld.com
(Traduction Framalang : Yonell et Don Rico)

Après avoir bien examiné Vista, j’ai compris que le desktop Linux avait de beaux jours devant lui. Vista était, et demeure, l’incarnation du désastre pour un système d’exploitation. Là aussi, j’avais raison. Et quand les netbooks ont fait leur apparition, c’était Linux, et pas Vista, qui a d’abord triomphé.

Mais ce que je n’avais pas prévu, c’était que les ventes de Vista seraient si faibles que Microsoft ferait carrément marche arrière, en ranimant d’abord XP Familial, puis, en décembre 2008, XP Pro.

Certes, Microsoft n’a pas fait de déclaration fracassante du genre « Vista est une bouse, on a pigé, prenez plutôt XP », mais dans les faits, c’est exactement ce qu’ils ont fait. Et c’est une des raisons pour lesquelles ils veulent sortir leur nouveau système d’exploitation Windows 7, alias Vista light, au plus vite.

Windows 7, à la différence de Vista, pourra tourner sur les netbooks. Et une fois que Windows 7 sera en service, Microsoft reprendra son entreprise de mise au placard de XP.

Entre-temps, Linux est passé de propriétaire de la niche des netbooks à actionnaire même pas majoritaire. Que s’est-il passé ?

Selon Gary Marshall de Tech Radar, c’est parce qu’on demande aux utilisateurs de choisir entre « Windows XP et tout un tas de distributions différentes ».

Je n’adhère pas à cette idée. Seul un linuxien connaît les différences, ou même le nom, des différentes distributions Linux proposées sur les netbooks. Ce qu’un client ou un commercial sait d’un netbook, c’est à quoi il ressemble, la quantité de RAM et la taille du disque dur, plus son prix. Et c’est à peu près tout.

Alors, pourquoi XP fait-il un tel retour en force ? Eh bien, je crois que Microsoft offre de sacrées ristournes aux fabricants, pour s’assurer que XP ait une présence suffisante. Les fabricants, qui ont l’impression que Microsoft leur doit quelque chose après leur avoir balancé la boule puante Vista, sont contents d’avoir un XP à prix d’ami.

Même dans ce cas de figure, les netbooks sous Linux restent moins chers que ceux pourvus de XP, mais les fabricants, à l’exception de Dell avec son matériel sous Ubuntu, ne font pas grand chose pour les mettre en avant. Oui, tous ceux qui comptent dans le marché des PC proposent maintenant Linux, mais ils n’en font aucune publicité.

Je les soupçonne tous d’être contents d’avoir adopté Linux. Mais je soupçonne aussi qu’en grande partie, il en est ainsi pour qu’ils puissent dire à Microsoft de leur faire un bon prix pour les licences XP et Windows 7, parce que si Microsoft ne se positionne pas, ils peuvent toujours leur préférer Linux.

Alors, que faire pour Linux ? D’une part, nous devons propager l’idée que le desktop Linux est disponible, largement à la hauteur de Windows, et souvent meilleur.

La Linux Foundation fait tout son possible pour y parvenir, en avançant avec son concours de vidéos « We’re Linux ». Le desktop Linux est allé à peu près au bout de ce qu’il pouvait faire sans le soutien du marché plus large des non-techniciens. Avec les pubs issues du travail de la Linux Foundation, avec les distributions accessibles, et avec les ordinateurs et portables pré-installés Linux, c’est aux fans et aux distributeurs de faire reprendre l’avancée de Linux pour le grand public.

Notes

[1] Crédit photo : Hamed Masoumi (Creative Commons By)




J’avais vingt ans, je voulais écrire un opéra et changer le monde

Takacsi75 - CC byJ’aurais pu intituler ce billet « Affaire étrangère, l’opéra très libre de Valentin Villenave » mais j’ai préféré garder la première phrase issue de l’article du blog de son auteur présentant le projet, article qui m’a tant séduit que je me suis permis de le reproduire en intégralité ci-dessous.

Pour ce qui est de changer le monde, nous attendrons encore un peu (mais nous acceptons d’ores et déjà bien volontiers de l’accompagner). Par contre il ne lui aura pas fallu plus de quatre ans pour voir le rêve se concrétiser puisque la ville de Montpellier vient tout récemment d’accueillir les premières représentations de son opéra (dont vous trouverez tous les détails dans ce document).

Pourquoi évoquer cette œuvre sur le Framablog ? D’abord parce qu’il y a des outils et des licences libres dans les coulisses. En effet c’est sous l’éditeur musical LilyPond qu’ont été conçues les partitions de l’opéra[1]. Et puis surtout l’ensemble de l’opéra est placée sous une licence originale, créée m’a-t-il semblé pour l’occasion, la Libre Opera License v.0.2, savant mélange de GNU GPL et de Creative Commons By-Nc-Sa (on se retrouve avec cette double licence parce que, à ce que j’ai compris, LilyPond fonctionnant un peu comme LaTeX, les sources sont sous GPL mais les compilations sont sous CC By-Nc-Sa).

Mais au delà du choix des logiciels et des licences libres (ou ouvertes), c’est surtout l’état d’esprit de Valentin qui m’a impressionné. Je n’en ferai pas un quelconque porte-drapeau mais à 24 ans il témoigne je crois de cette nouvelle génération qui souhaite profiter des nouvelles technologies bien plus pour partager que pour consommer, n’en déplaise à ceux qui aujourd’hui se cramponnent aux rênes de toute l’industrie culturelle et musicale.

PS : Je crois savoir que Valentin Villenave est un lecteur assidu du Framablog. Autrement dit n’hésitez pas à l’encourager et/ou lui poser quelques questions dans les commentaires (par exemple sur son choix de la clause non commerciale), je suis certain qu’il se fera la gentillesse de venir y répondre.

Chronique d’une étrange affaire

URL d’origine de l’article

Alors, voilà.

J’avais vingt ans; je voulais écrire un opéra. Et changer le monde.

De l’influence déplorable du cinéma de René Clair sur une jeune âme trop imaginative.

Dans un de mes films préférés (Les Belles de nuit, René Clair, 1952), Gérard Philipe incarne un jeune professeur de piano, en décalage avec une société contemporaine bureaucratique, conformiste, inhumaine ; tout change subitement le jour où l’on apprend qu’il a écrit… un opéra. Comme par magie, le monde s’illumine alors, les regards se font respectueux, et le héros trouve enfin sa place parmi les personnages, unis dans une même allégresse.

Tel est pour moi l’opéra : un mot magique. Une légitimité, des lettres de noblesse : devenir quelqu’un.

À l’âge de vingt ans (c’était il y a quatre ans), j’avais écrit quelques pièces instrumentales d’envergure très modeste, et qui n’avaient pour ainsi dire jamais été jouées. Je gagnais ma vie – c’est encore le cas – en donnant des cours de piano dans une obscure banlieue parisienne, et j’écrivais chaque année, littéralement, des centaines de petits morceaux dans les cahiers de mes élèves, qui partaient ensuite à tous les vents.

Depuis des années, j’avais été pour ainsi dire adopté par une petite compagnie d’opéra, dont j’avais été le tourneur de pages puis l’accompagnateur en titre, et qui montait chaque année des pièces du grand répertoire, le plus souvent en partenariat avec les écoles du voisinage (où les écoliers, après avoir assisté à une répétition lyrique, posaient souvent des questions judicieuses telles que « pourquoi le monsieur crie comme ça ? »).

Sans vraiment y croire, je caressais l’envie de leur écrire un opéra, en signe de gratitude. Je m’étais mis à la recherche d’un livret qui soit percutant et rythmé – pas évident à trouver dans le théâtre contemporain.

Entrée en scène de Lewis Trondheim, et ce qui s’ensuivit.

Je connaissais l’œuvre de Lewis Trondheim depuis l’âge de dix ans, où j’écumais chaque semaine les rayons bande dessinée de la bibliothèque municipale. Des formidables aventures de Lapinot, qui revisitaient la bande dessinée animalière enfantine avec un humour absurde et satirique, j’étais passé à ses œuvres les plus avant-gardistes –- car Lewis n’était pas que drôle et accessible à tous, mais également en perpétuelle quête de renouveau et d’expérimentation formelle, toujours dans un esprit ludique.

Cet auteur complexe et attachant avait une propension à susciter chez ses fans un véritable culte, auquel je n’ai pas échappé. À vingt ans, j’avais méticuleusement lu la totalité de son œuvre, au besoin en téléchargeant ses albums illégalement sur Internet. Je poursuivais à l’époque, à tout hasard, une maîtrise de Lettres modernes consacrée à son œuvre ; un jour il m’apparut comme une évidence que je ne souhaitais pas tant travailler sur Lewis Trondheim que travailler avec lui.

Peu d’auteurs confirmés et reconnus répondraient à un jeune inconnu qui leur propose de participer à l’écriture d’un opéra ; c’est pourtant ce qui se produisit. Lewis Trondheim accepta immédiatement et avec enthousiasme, et me proposa de partir de l’album Politique étrangère qu’il avait réalisé en 2001 avec Jochen Gerner. Dans son œuvre, toujours influencée par la bande dessinée animalière, c’était une exception : les personnages étaient des êtres humains. De plus, cette histoire de château me renvoyait à toute une tradition opératique (La Clémence de Titus de Mozart, par exemple), entrecroisée en l’occurrence avec Jarry, Ionesco… et un tantinet des Marx Brothers.

Bref, nous nous retrouvions à pied d’œuvre, sans aucune certitude quant à une hypothétique concrétisation du projet, faute de moyens, et en tentant de limiter le nombre de décors et de personnages.

Le livret faisait l’objet d’un véritable ping-pong de courriers électroniques entre Lewis et moi-même (nous ne nous étions jamais rencontrés ni téléphoné). Ouvert à mes suggestions mais sans complaisance, il avait très vite compris la problématique bien particulière de l’opéra, genre tout aussi hybride que la bande dessinée : le texte et la musique participent de façon complémentaire à la construction du sens, et il faut constamment veiller à ce que l’un n’affaiblisse pas l’autre (soit parce que trop insignifiant, soit au contraire parce que trop chargé de sens).

En peu de temps, deux événements vinrent changer complètement la tournure du projet. Le premier fut le décès tragique, à l’été 2005, du metteur en scène de la compagnie, Michel Blin, à qui je dois tout ce que je sais sur l’opéra, et à qui cette œuvre est dédiée. Le second, plus insignifiant, fut que Lewis Trondheim se vit récompenser, début 2006, par le Grand Prix du festival de bande dessinée d’Angoulême.

Les chanteurs de la compagnie eux-mêmes me pressèrent de profiter de cette occasion pour présenter mon projet à une structure plus officielle, et lui donner ainsi une nouvelle envergure. Un dimanche de février, j’envoyai sans trop y croire un mail à l’opéra de Montpellier (simplement parce que c’était la ville de mon librettiste) ; deux heures plus tard, M. René Koering me répondait que l’Opéra se ferait une joie de créer ce projet…

Éléments (en vrac) d’une esthétique (en chantier).

Je ne m’acquitterais pas du minimum syndical sans insérer ici quelques mots sur mon écriture, quitte à enfoncer pas mal de portes ouvertes. Suivant les (rares) personnes à qui j’ai pu la montrer, ma musique suscite les réactions les plus diverses, tantôt qualifiée de dissonante et inaudible, tantôt à l’inverse, de facile, insipide et réactionnaire. J’imagine que mon esthétique (s’il y en a une) se situe quelque part entre les deux – sans espoir de savoir où.

Les répertoires que j’ai joués et lus, certainement, transparaissent, à commencer par les opéras du XVIIIe siècle (Mozart), dont je me sens plus proche que ceux du XIXe siècle. En particulier, la rigueur formelle est pour moi une obsession ; toutes les structures de la pièce, du nombre de tableaux, de mesures, de temps, aux dispositions vocales et instrumentales, ont donné lieu à des contraintes et des jeux mathématiques.

La mise en valeur du texte est un travail avant tout rythmique : dégager de la prosodie les accents, les structures rythmiques, les gestes de tension et de détente (c’est la base de toutes les musiques parlées, de la mélopée antique au rap) ; je les ordonne ensuite suivant des principes très formels, puis les renforce par des motifs mélodiques et harmoniques, toujours suivant des contraintes arbitraires : modes, rapports d’intervalles, etc.

Un autre de mes soucis est de tout faire pour faciliter la vie des interprètes. À commencer par la notation : une partition doit faire sens au premier coup d’œil, sans nécessiter de mode d’emploi. Une certaine musique « contemporaine » arbore sa propre complexité avec fierté, et fait appel à des notations extrêmement complexes (en particulier d’un point de vue rythmique) ; même si je ne suis pas indifférent à la beauté étrange de tels objets, et que je ne nie aucunement leur apport au renouveau des langages musicaux, je crois qu’il est important que la musique « savante » n’en vienne point à se réduire à de telles écritures : faute de quoi elle cessera inéluctablement d’être pratiquée et appréciée par les « simples » citoyens, pour ne demeurer que l’apanage d’une poignée de spécialistes. L’idée d’« être compliqué pour être moderne » n’est ni sage, ni courageuse.

Où l’auteur se hasarde à quelques considérations coupablement politiques.

Je ne sais si je peux me prétendre compositeur ou même musicien ; mais je veux vivre et agir en citoyen.

Puisque j’en suis à accumuler les clichés, je veux mentionner qu’il m’a été donné d’avoir vingt ans à Paris en étant payé deux fois moins que le seuil de pauvreté ; il m’a été donné de chercher un logement des mois durant, en expliquant que j’étais prof de piano, ou bien étudiant, à tout hasard et sans plus de succès ; il m’a été donné de connaître de près notre beau pays où se fait chaque jour plus palpable la peur et la haine des uns à l’égard des autres : riches et pauvres, vieux et jeunes, et ainsi de suite.

De tous ces écartèlements, celui de la culture et de la création m’interpelle le plus. Les dichotomies arbitraires n’y manquent pas : culture du passé contre culture dite actuelle, pratique amateur contre prétendu professionnalisme, art contemporain contre art soi-disant populaire, j’en passe et des meilleures.

J’aimerais croire que de tels morcellements ne profitent à personne. Ce serait hélas ignorer les nombreux enjeux politiques, économiques et médiatiques ; la culture est un champ de bataille où toute initiative doit être défendue pied à pied contre les clichés, les entreprises de ringardisation ou de récupération.

En faisant appel à un auteur de bande dessinée, j’étais bien sûr mû par l’espoir mal dissimulé, sinon de faire sauter quelques barrières, d’amener à l’opéra (et à la musique contemporaine) des publics « non-initiés ». Mais cela ne suffisait pas.

Pour un renouveau des modèles de création.

Nous nous trouvons aujourd’hui face à une situation inédite et merveilleuse : les données immatérielles sont potentiellement accessibles à tous et en tous lieux. Cet immense progrès pourrait être pour les citoyens du monde la promesse de se réapproprier la culture et la connaissance ; au lieu de quoi une poignée d’intérêts privés font de la technologie un outil d’asservissement et de propagation des inégalités. En particulier, l’escroquerie baptisée Propriété Intellectuelle consiste à nous vendre des idées comme l’on vendrait des saucisses.

Hélas ; sans-doute suis-je d’une génération qui ne peut plus se satisfaire d’impostures, à commencer par le terrifiant processus qui conduit aujourd’hui les citoyens à se voir privés de leurs libertés fondamentales, au nom d’une prétendue « protection » des auteurs. Il importe d’agir, non seulement pour que la culture puisse continuer à vivre et à se diffuser, mais également pour préserver notre démocratie même.

Pour ces raisons, Lewis Trondheim et moi-même avons voulu faire un geste symbolique en publiant notre ouvrage sous une licence alternative, qui autorise tout un chacun non seulement à le reproduire, mais également à le diffuser et à le modifier à volonté. La partition est entièrement conçue au moyen du logiciel libre GNU LilyPond, développé depuis treize ans par une communauté de bénévoles enthousiastes, qui constitue pour les musiciens du monde entier l’espoir immense d’accéder librement à toutes les musiques écrites ; plus simplement, c’est pour moi la garantie que les partitions que j’écris sont et demeureront libres et adaptables par tous les interprètes, enseignants, élèves, qui y trouveront le moindre intérêt.

Une œuvre n’appartient à personne, pas plus qu’un enfant n’appartient à ses parents. On peut l’élever du mieux que l’on peut, puis vient un jour où il faut lui souhaiter une longue vie, et le regarder s’éloigner. Je crois que ce moment est venu pour moi.

À Lewis comme à moi-même, restera le souvenir d’une expérience grandiose, et la fierté d’être parvenus à réaliser un projet irréaliste.

Et puis, faut quand même dire qu’on s’est bien marrés.

Valentin Villenave, janvier 2009

Notes

[1] Crédit photo : Takacsi75 (Creative COmmons By)




Ou toute autre version ultérieure de la licence…

Cambodia4kidsorg - CC byCe billet est un peu technique, au sens juridique du terme, mais la problématique abordée est loin d’être inintéressante (et n’étant pas des spécialistes comme Veni Vidi Libri, nous vous remercions par avance des précisions, compléments et corrections que vous apporterez dans les commentaires).

Il évoque les risques potentiels encourus par une création (logicielle, culturelle, etc.) à adopter une licence portant la mention « ou toute autre version ultérieure » (de la-dite licence). Dit autrement, il s’agit de la confiance que vous, auteurs ou utilisateurs, accordez à ceux qui rédigent la licence choisie, puisque vous vous engagez ainsi non seulement au moment présent mais également dans le futur, avec une licence susceptible d’être modifiée au cours du temps. Ce que vous créez ou utilisez aujourd’hui peut donc ne pas suivre exactement les mêmes règles demain.

Prenons l’exemple de la plus célèbre des licences de logiciels libres, la GNU General Public License (ou GNU GPL). Voici ce que l’on peut lire dans la traduction non officielle du paragraphe 9 de la version 2 datant de 1991 :

La Free Software Foundation se réserve le droit de publier périodiquement des mises à jour ou de nouvelles versions de la Licence. Rédigées dans le même esprit que la présente version, elles seront cependant susceptibles d’en modifier certains détails à mesure que de nouveaux problèmes se font jour.

Chaque version possède un numéro distinct. Si le Programme précise un numéro de version de cette Licence et « toute version ultérieure », vous avez le choix de suivre les termes et conditions de cette version ou de toute autre version plus récente publiée par la Free Software Foundation. Si le Programme ne spécifie aucun numéro de version, Vous pouvez alors choisir l’une quelconque des versions publiées par la Free Software Foundation.

Donc si vous placez votre logiciel sous GNU GPL sans préciser la version ou en version 2 avec la mention « ou toute version ultérieure », alors « vous avez le choix de suivre les termes et conditions de cette version ou de toute autre version plus récente publiée par la Free Software Foundation », version plus récente dont on nous assure, et c’est là que ça peut coincer, qu’elle sera « rédigée dans le même esprit ».

Or, justement, dans l’intervalle, la GNU GPL est passée en version 3 en 2007 (sa version actuelle). Extrait de la FAQ de cette nouvelle version, à la question Pourquoi les programmes doivent-ils se référer à « la version 3 de la GPL ou toute version ultérieure » ? :

De temps en temps, après quelques années, il nous arrive de modifier la GPL—quelquefois simplement pour éclaircir un point, quelquefois pour autoriser certaines utilisations alors qu’elles ne l’étaient pas auparavant, et quelquefois pour renforcer une exigence. (Les deux derniers changements datent de 2007 et 1991). L’utilisation de ce « pointeur indirect » dans chaque programme nous permet de changer les conditions de distribution de l’ensemble des logiciels GNU, lorsque nous modifions la GPL.

Si aucun programme ne contenait ce pointeur indirect, nous serions forcés de longuement discuter du changement avec de très nombreux détenteurs de copyright, ce qui serait virtuellement impossible. En pratique, la probabilité d’aboutir à un mode de distribution unifié pour les logiciels GNU serait nulle.

Supposez qu’un programme dise « Version 3 de la GPL ou toute version ultérieure » et qu’une nouvelle version de la GPL soit publiée. Si la nouvelle version de la GPL donne une permission supplémentaire, cette permission est immédiatement disponible pour tous les utilisateurs du programme. Mais, si la nouvelle version de la GPL comporte une exigence plus restrictive, cela ne limitera pas l’utilisation de la version courante du programme, car ce dernier peut toujours être utilisé sous GPL Version 3. Lorsqu’un programme dit « Version 3 de la GPL ou toute version ultérieure », les utilisateurs seront toujours autorisés à l’utiliser, et même à le modifier, selon les termes de la GPL Version 3—même après que d’autres versions de la GPL auront été rendues disponibles.

Si une exigence plus forte dans une nouvelle version de la GPL n’est pas obligatoire pour les logiciels existants, à quoi sert-elle ? Lorsque la version 4 de la GPL est disponible, les développeurs de la plupart des programmes sous GPL distribueront les versions suivantes de leur programme en spécifiant « Version 4 de la GPL ou toute version ultérieure ». Les utilisateurs devront se conformer aux clauses plus restrictives de la GPL Version 4, pour les versions suivantes de ce programme.

Les développeurs ne sont toutefois pas dans l’obligation d’agir ainsi ; ils peuvent continuer à autoriser l’utilisation de la version précédente de la GPL, si c’est leur souhait.

Le fait qu’une licence évolue n’est en rien critiquable puisque depuis 1991 il s’en est passé des choses dans le monde numérique (à commencer par l’avènement d’Internet). De plus cette nouvelle version a été le fruit d’un long processus de concertation publique (voir la lettre de Chris Frey plus bas), la FSF ayant le souci de donner confiance et ne pas donner l’impression qu’on lui signait un chèque en blanc pour les « versions ultérieures » de ses licences.

Il n’empêche que ces modifications « rédigées dans le même esprit » sont laissées à la libre appréciation de chacun. C’est ainsi que Linus Torvalds, conformément au dernier paragraphe de notre extrait ci-dessus, n’a toujours pas passé le noyau Linux en GPL v3 et préfère rester en GPL v2, au grand dam de la FSF.

Mais prenons désormais l’exemple d’une autre licence de la FSF, la GNU Free Documentation License (ou GNU FDL). À l’origine cette licence avait été pensée pour la documentation de logiciels libres mais elle a été adoptée, faute d’existence d’autres licences mieux adaptées à l’époque, par le poids lourd de la culture libre que constitue l’encyclopédie Wikipédia.

Or, depuis, une licence clairement mieux adaptée est apparue : la licence Creative Commons By-Sa[1]. Ces deux licences n’étant pas compatibles, que pouvait-on faire ? C’est justement la réponse à cette question que nous avons évoqué dans notre récent billet dédié : Wikipédia en route vers la licence Creative Commons By-Sa. Ce billet explique pourquoi et comment la FSF a accepté de modifier sa licence GNU FDL (version intermédiaire 1.3) pour que Wikipédia puisse légalement passer sous Creative Commons, passage justement rendu possible parce que la licence de Wikipédia est la GNU FDL sans mention de version (acceptant donc implicitement « toute version ultérieure » de la licence).

Le problème c’est que contrairement au passage de la GNU GPL de la version 2 à la version 3, il n’y a pas eu de concertation publique et de long processus de maturation transparent et « démocratique ». De plus les modifications apportées ont clairement été rédigées dans l’unique but de satisfaire la Wikimedia Foundation (et Creative Commons) puisqu’elles ne s’adressent qu’aux wikis crées avant novembre 2008 qui ont jusqu’en juin 2009 pour se décider à migrer. Une mise à jour « sur mesure » en quelque sorte.

Aussi nobles soient les intentions des uns et des autres, il y a tout de même ici un peu d’arbitraire et d’opacité aussi bien sur le fond que dans la forme. C’est ce que critique Chris Frey dans cette « lettre ouverte à Richard Stallman » que nous avons choisi de traduire et vous proposer ci-dessous, accompagnée par la réponse toute aussi ouverte de Richard Stallman.

Lettre ouverte à Richard Stallman

Open Letter to Richard Stallman

Chris Frey – 4 novembre 2008 – Advogato.org
(Traduction Framalang : Olivier, Siltaar et Don Rico)

Cher M. Stallman,

Je vous écris pour exprimer la déception que j’ai ressentie à l’égard de la Free Software Foundation par rapport à la publication récente de la version 1.3 de la GNU Free Documentation License .

Cette nouvelle version introduit à la section 11 une nouvelle clause qui, selon la FAQ, accorde aux wikis le droit de modifier la licence de certains contenus pour les faire passer de la licence GFDL 1.3 à la licence CC-BY-SA 3.0, pour les ajouts datant d’avant le 1er novembre 2008. Ils peuvent appliquer ce changement de licence jusqu’au 1er août 2009.

Cela constitue à mon sens une erreur morale importante et un abus de confiance. Même si cette nouvelle clause n’est pas dangereuse, elle n’en reste pas moins mauvaise.

Il y a de nombreuses années, j’ai lu des critiques visant les recommandations quant à l’application de la licence GNU GPL aux logiciels. On critiquait la formule « version 2 of the License, or (at your option) any later version » (NdT : version 2 de la licence, ou, selon votre choix, toute version ultérieure) avançant l’argument que cette formulation conférait trop de pouvoir à la FSF, et que cela revenait à signer un chèque en blanc permettant le détournement futur de l’œuvre licenciée.

Ces critiques ont à mes yeux perdu de leur sens après que j’ai été témoin de la transparence et de l’attention extrême portée à la rédaction de la nouvelle GPL version 3. Tous les commentaires furent enregistrés sur un site Web et débattus de manière tout à fait transparente. La rédaction a été longue et méticuleuse, réalisée en prenant en compte l’opinion des utilisateurs de la licence, et dans l’objectif de servir l’intérêt des logiciels libres. C’était magnifique.

Je commençais à comprendre les avantages d’une licence ouverte. J’avais compris les intentions de la FSF. Ils ne fléchissaient pas concernant les principes des logiciels libres, mais au contraire se montraient toujours plus fermes. Seule la FSF pouvant modifier la GPL, et étant donné le sérieux de sa méthode pour la mettre à jour, je me suis dit que je pouvais lui accorder ma confiance.

Hélas, ce changement apparemment précipité apporté à la GFDL vient tout gâcher. Cette modification va à l’encontre de la clause tacite selon laquelle c’est l’auteur qui choisit la licence pour son travail, mais elle introduit en outre un nouvel acteur. Non seulement la FSF peut changer les termes de la GFDL, mais voilà que la Creative Commons Corporation peut à présent modifier les termes qui régissent des travaux plus anciens auparavant placés sous GFDL.

Fort heureusement, cette situation ne durera que jusqu’au 1er août 2009. Mais les anciens wikis placés sous GFDL ont désormais une double licence.

Peut-être ai-je vécu coupé du monde légal, mais je n’ai pas non plus vu d’appel à contribution pour cette révision. Si je l’ai manqué, je regrette de n’avoir pu donner mon avis plus tôt. Si la période de discussion était plus courte, voire inexistante, c’est une faille dans le processus de mise à jour de la GFDL, et j’espère que la FSF y remédiera.

Concrètement, cette requalification de licence importe peu. Le cadre de ce qui peut être soumis à une requalification de licence est bien délimité, et ces deux licences ont en gros la même fonction. Certains auteurs ont peut-être préféré la GFDL à la licence CC-BY-SA pour des raisons spécifiques, l’une d’entre elles étant le fait que la licence doit être jointe à l’œuvre. Cette condition de la GFDL est à la fois une caractéristique et un défaut de conception. Mais ce choix, qui auparavant revenait à l’auteur, lui est à présent retiré.

Au final, les conséquences sont sûrement minimes. En effet, beaucoup voient en ce changement un grand pas en avant. Je pense que c’est simplement la réputation de la FSF qui s’en trouve affectée. Quel message cela adresse-t-il aux utilisateurs d’autres licences de la FSF ? Est-on sûr que la FSF ne permettra pas la modification des licences de nos œuvres au profit de licences non-FSF si l’on opte pour la clause « version ultérieure » ? Dans le passé je ne me serais même pas posé la question. À présent, j’ai un doute.

J’ai hâte de connaître votre sentiment à ce propos et, si vous le permettez, je publierai une copie conforme de votre réponse là où je publie cette lettre.

Je vous remercie de votre attention.

Cordialement,

Chris Frey

Réponse ouverte à Chris Frey à propos de la GFDL 1.3

An open response to Chris Frey regarding GFDL 1.3

Richard Stallman – 3 décembre 2008 – FSF.org
(Traduction Framalang : Olivier, Siltaar et Don Rico)

Cher M. Frey,

Votre lettre concernant les modifications récentes apportées à la GFDL, qui permettent aux administrateurs de certains wikis sous licences GFDL de modifier la licence de leur contenu sous licence Creative Commons BY-SA, soulève des questions cruciales vis-à-vis des modifications, de la manière dont elles ont été conduites et de leurs implications quant à la gestion par la FSF de nos licences à l’avenir.

De mon point de vue, et c’est aussi celui du conseil de la FSF, cette modification de la licence est totalement en accord avec nos valeurs, notre éthique et nos engagements, et c’est une nouvelle démonstration que la FSF mérite toujours votre confiance. Les licences comportant la clause « ou toute version ultérieure » nous permettent de donner de nouvelles permissions qui répondent aux besoins de la communauté et de contrer les nouvelles menaces qui pèsent contre la liberté des utilisateurs.

Cette option de changement de licence introduite par la GFDL 1.3 est complètement en accord avec l’esprit et les objectifs de la GFDL. Certains sites Web pourront ainsi passer de la GFDL à une autre licence libre, une autre licence qui diffère sous certains aspects mais qui est très proche globalement de la GFDL. Cette disposition permet à ces sites de rendre leur licence compatible avec de vastes collections de contenu sous licence libre avec lesquelles ils veulent coopérer.

L’impact de ce changement est limité car l’option de changement de licence ne s’applique qu’à un nombre de cas limité : les wikis, telle Wikipédia, qui ne font pas usage de certaines clauses particulières de la GFDL, comme les sections invariantes (NdT : contenu qui n’est modifiable que par l’auteur lui-même) et les textes de couverture, qui n’ont pas d’équivalent dans la licence CC-BY-SA.

Nous avons offert aux wikis une option à durée limitée dans le temps leur permettant de passer sous CC-BY-SA les contenus issus de la contribution du public. La fondation Wikimedia a initié un débat public quant à la décision à prendre : les participants de Wikipédia peuvent donner leur avis pour ou contre le changement. Nous n’avons joué aucun rôle dans cette décision, nous avons simplement donné à Wikipédia l’opportunité de la prendre.

Ce changement ne s’est pas fait dans la précipitation. La FSF s’est entretenue pendant plus d’un an avec la Wikimedia Foundation, Creative Commons et le Software Freedom Law Center pour planifier ce changement.

Ces discussions sont restées secrètes pour une raison que, je l’espère, vous approuverez : limiter l’applicabilité de cette option et éviter l’éventualité d’un changement de licence massif d’autres contenus placés sous licence GFDL. Cette option a été pensée uniquement pour les wikis bénéficiant d’une collaboration publique. Nous ne souhaitions pas que tout le monde puisse changer la licence des œuvres couvertes par la GFDL en les « blanchissant » au travers de Wikipédia ou d’autres sites similaires avant la date butoir.

Si un wiki exerce son option de changement de licence, cela implique qu’il accorde sa confiance aux Creative Commons plutôt qu’à la Free Software Foundation pour ce qui est des modifications futures de la licence. En théorie ,on pourrait y voir une source d’inquiétude, mais je pense que nous pouvons faire confiance à Creative Commons pour continuer sa mission à l’occasion des mises à jours de ses licences. Des millions d’utilisateurs font déjà confiance aux Creative Commons à ce sujet et je pense que nous pouvons faire de même.

Vous avez qualifié notre modification de licence de « trahison », mais si vous examinez ce que nous avons entrepris, vous verrez que nous sommes restés fidèles à nos principes.

Nous n’avons jamais affirmé que nous ne changerions pas nos licences, ou que nous ne ferions pas de modifications comme celle-ci. Nous nous sommes en revanche engagés à effectuer ces changements en respectant l’esprit de nos licences, et en garantissant les objectifs de ces licences. C’est ce que nous avons fait avec la GFDL 1.3 et, à plus grande échelle, avec la GPLv3, et c’est ce que nous continuerons à faire.

Vous avez entièrement raison d’attendre de la FSF une éthique irréprochable. J’espère que les modifications apportées à la licence GFDL vous convaincront que nous respectons cette éthique.

Cordialement,

Richard Stallman
Président de la Free Software Foundation

Notes

[1] Crédit photo : Cambodia4kidsorg (Creative Commons By)




L’Angleterre se pose la question du Libre dans l’éducation

Superbomba - CC by-saAprès Barack Obama et l’Open Source, voici une autre traduction émanant de la BBC, autour du Libre et l’éducation cette fois.

C’est un plaisir non dissimulé de voir un tel grand média s’intéresser à la question et lui donner ainsi un fort coup de projecteur dans l’opinion (avec analyses, témoignages, perspectives… du vrai travail de journaliste en somme, tout simplement). Mais c’est également une belle satisfaction de constater la maturité du discours et de l’évaluation du logiciel libre chez la Perfide Albion[1].

Il me tarde de voir pareille situation traverser la Manche. Puissent tous les articles connexes de ce blog modestement y contribuer…

La question du Libre dans l’éducation

Open source question for schools

Andrew Miller – 26 janvier – BBC News
(Traduction Framalang : Daria, Olivier, Don Rico)

Andrew Miller se demande si les logiciels Open Source ne pourraient pas aider les écoles à mieux gérer leur budget.

Au salon British Education Training and Technology, BETT 2009, un rapide coup d’œil suffisait pour se convaincre, par la dimension de l’évènement, que les technologies de l’éducation bénéficient d’un budget plus que conséquent.

Sachant que les logiciels Open Source disponibles gratuitement et librement couvrent l’essentiel des exigences du programme national, on peut se demander pourquoi les écoles n’y ont pas plus recours, avec une économie potentielle de plusieurs millions de livres à la clé.

Comme leur nom le suggère, les logiciels Open Source sont des logiciels communautaires et leur code source est ouvert à tous. N’importe qui peut modifier le logiciel selon ses besoins et ensuite partager ces modifications avec tout le monde.

En entendant parler de logiciel Open Source, nombreux sont ceux qui pensent Linux – le système d’exploitation alternatif disponible sous différentes distributions comme Ubuntu, openSUSE ou Fedora.

Linux propulse les serveurs depuis longtemps, mais l’Open Source touche à toutes sortes de projets. Le navigateur Web Firefox et la suite bureautique OpenOffice en sont de bons exemples.

Promotion ouverte

Dans le secteur de l’éducation, seule une poignée de technophiles, agissant de leur propre initiative, font la promotion des logiciels Open Source et les utilisent pour employer au mieux leur budget technologie.

Les critiques accusent Becta – une agence gouvernementale qui supervise les acquisitions de toutes les technologies pour les écoles – de n’avoir pas assez œuvré à la promotion des logiciels Open Source.

Peter Hughes, responsable des accords d’acquisition au Becta, a assuré à la BBC que Becta sera plus actif dans ce sens.

« En tant qu’organisation, on nous a principalement reproché de ne pas avoir présenté comme il se devait les solutions Open Source et de trop favoriser les solutions propriétaires, comme celles de Microsoft. Nous avons tenu compte de ces critiques et, dans l’exercice de nos conseils en matière de stratégie et de distribution de la technologie dans l’éducation, nous avons tenté de rester impartiaux dans les avis que nous émettons pour aider les écoles à faire les meilleurs choix », a-t-il indiqué.

Fin 2008, le Becta a collaboré avec l’organisation gouvernementale des services d’acquisition OGCBuying.Solutions pour approuver 12 fournisseurs, lesquels ont en commun la capacité à équiper les écoles avec des logiciels Open Source.

Le Becta considère la désignation de Sirius comme un « grand pas en avant » et comme un message envoyé à la communauté : « Nous prenons les logiciels Open Source au sérieux ».

John Spencer, chef du développement commercial de Sirius, a confié à la BBC que l’Open Source est encore trop méconnu, pas seulement dans les écoles, et que Linux souffre d’un problème d’image.

« Beaucoup d’établissements scolaires sont restés bloqués en l’an 2000, quand il est devenu évident que la connaissance de l’outil informatique deviendrait une nécessité, mais depuis ils n’ont rien fait. Ils ont peur d’avancer en terrain inconnu, et il ne s’agit pas seulement de Linux mais également de Vista et d’Office 2007. Les bons professeurs chercheront toujours à aller de l’avant mais ils sont si occupés qu’ils préfèrent souvent s’en tenir à ce qu’ils connaissent », a précisé Mr. Spencer.

Sirius a déjà installé des logiciels libres dans beaucoup d’établissements au Royaume-Uni.

Dans le cadre d’un projet mené à Twickenham, on autorise les portables et ultra-portables appartenant à l’établissement ou aux élèves à démarrer sur le réseau pour leur donner accès aux fichiers et aux programmes dont ils ont besoin.

« Le réseau coûte moitié moins que ce que RM peut proposer et les économies d’énergie réalisées permettent au système de s’autofinancer en moins de 3 ans », affirme Mr. Spencer

Le temps de la compétition

Une autre initiative du Becta est centrée sur le site opensourceschools.org.uk, lancé fin 2008. Il a pour objectif de fournir des informations essentielles et des conseils aux professeurs pour une bonne utilisation des logiciels Open Source.

Cependant, le Becta émet quelques réserves.

« Nous voulons que les professeurs se rendent compte qu’ils peuvent, et doivent, considérer les logiciels Open Source comme une alternative solide », a déclaré Mr. Hughes.

« Les établissements doivent malgré tout bien se renseigner. Les mises en garde à l’égard de l’Open Source sont aussi nombreuses qu’à l’égard des logiciels propriétaires. »

Et que pensent les grosses entreprises informatiques des logiciels Open Source qui marchent sur leurs plate-bandes ?

Steve Beswick, le directeur de l’éducation pour Microsoft Royaume-Uni, a déclaré à la BBC que même si les logiciels Open Source peuvent, sur la valeur nominale, permettre des économies, il faut se méfier des coûts cachés, pécuniaires et autres.

« Beaucoup de monde est habitué à utiliser les outils Microsoft, et il faut donc re-former les gens à l’utilisation des solutions Open Source, ce qui peut avoir un coût élevé », affirme-t-il.

« Pour faire le bon choix, les établissements colaires et les universités doivent avoir toutes les informations en main. »

M. Beswick a prétendu que Microsoft n’est pas opposé à l’Open Source, et cite leur « engagement en faveur l’interopérabilité » démontré par le support du format Open Document Format dans le Service Pack 2 d’Office 2007.

Il a aussi mentionné le travail que Microsoft a réalisé en acquérant IIS, son logiciel de serveur phare, pour travailler avec le langage PHP.

Le ministre de l’Éducation, Jim Knight, s’est fait l’écho du point de vue de Becta. Dans une déclaration, il a annoncé : « Les établissements scolaires et les universités doivent maîtriser les tenants et les aboutissants du problème pour faire le bon choix – qu’il se porte vers l’Open Source ou le propriétaire –, et doivent être conscients du coût total de la solution adoptée, en n’oubliant pas le support à long terme et la formation. Je pense que c’est le rôle du Becta de travailler avec les fournisseurs de logiciels, aussi bien Open Source que propriétaires, afin que les écoles et universités puissent tirer au mieux parti des logiciels pour appuyer l’enseignement et l’apprentissage. »

Et du côté de la communauté Open Source alors ?

Gerry Gavigan, le président du consortium Open Source, a dit à la BBC que l’adoption des logiciels Open Source ne pouvait que passer par un changement des mentalités.

« Les coûts de la formation continue ne disparaissent pas simplement grâce au passage des logiciels propriétaires aux logiciels gratuits et Open Source. En revanche, les coûts associés aux formations induites par les mises à niveau encouragées ou forcées par une tierce partie ne sont plus d’actualité », a-t-il indiqué.

On parle aussi fréquemment du problème du verrouillage technologique, une des explications principales, pour les défenseurs de l’Open Source, à la domination prolongée de Windows.

« L’un des paramètres qui n’est pas toujours pris en compte dans le calcul des contrats d’achat de logiciels sont les coûts à long terme résultant des licences ou du verrouillage technologique », a déclaré Mr. Gavigan.

Mr. Gavigan admet que la gratuité des logiciels Open Source leur a parfois nui.

« Annoncer que vous avez essayé de régler un problème en dépensant des sommes faramineuses a plus d’impact sur votre public que de dire que vous avez utilisé une solution gratuite. D’après une croyance malheureuse, si ça ne coûte rien, ça ne vaut rien », a-t-il déploré.

Le monde connecté

Quoiqu’il en soit, certaines écoles se mettent aux logiciels Open Source. Le lycée Highworth, à Ashford, propose à la fois des logiciels propriétaires et des logiciels Open Source à ses étudiants.

L’administrateur réseau de l’école, Marc Blake, a confié que bien qu’il soit important que les élèves connaissent des alternatives à Windows, il convient de reconnaître qu’ils vivent dans un monde dominé par Microsoft.

Mais il a annoncé à la BBC que d’importantes économies pourraient être réalisées en utilisant des alternatives Open Source.

« Nous proposons à la fois Office 2003 et OpenOffice, de sorte que les clients aient le choix. J’estime que 98% des clients choisissent Microsoft Office à la place d’OpenOffice, mais au moins ce choix existe », a précisé Mr. Blake.

« La seule mise à jour vers Office 2007 de toute l’école nous coûterait environ 27000£, mais ce montant n’inclut pas le coût de remise à niveau des utilisateurs ni les mises à jour des documents associés ou du matériel pédagogique. Acquérir l’équivalent de Moodle (logiciel libre d’e-apprentissage) pour nos 1200 étudiants nous aurait coûter plus de 3000£ par an. Pour ce prix-là on n’a pas le support professionnel, mais si on est prêt à faire ce sacrifice, c’est beaucoup d’argent économisé », a-t-il ajouté.

Avant d’adopter Linux, Mr. Blake s’inquiétait de la compatibilité de certaines des plus récentes technologies du Web. Ses inquiétudes se sont envolées puisque son établissement a maintenant plusieurs Asus EeePC fonctionnant sous Linux qui sont utilisés majoritairement pour les projets Web 2.0.

Cette année au BETT, un nombre non négligeable de logiciels pédagogiques ont fait le grand saut vers le Web 2.0 pour s’assurer une compatibilité avec toutes les plateformes.

L’utilisation de l’Open Source pourrait permettre aux écoles de réaliser d’importantes économies, mais cela implique un gros investissement en temps, en recherche et en formation. Mais allier logiciels commerciaux et logiciels Open Source, comme le fait le lycée Highworth, peut permettre une réduction des coûts tout en donnant le choix aux étudiants.

Voilà un bon point à faire figurer sur le bulletin scolaire des écoles.

Notes

[1] Crédit photo : Superbomba (Creative Commons By-Sa)