Plus de 100 vidéos autour du Libre avec Framatube et Blip.tv

La cola de mi perro - CC byFramatube, contraction pas forcément heureuse mais en tout cas signifiante de Framasoft et YouTube, a récemment franchi le cap symbolique des 100 vidéos (104 pour être précis), presque toutes en français ou sous-titrées, offrant par là-même un catalogue « spécialisé » qui pourra être utile à toute personne souhaitant s’informer et diffuser la « culture » et « l’état d’esprit » du logiciel libre, pris au sens large (et nébuleux) du terme.

Bien que toujours considéré en version bêta, nous le faisons aujourd’hui « sortir de l’ombre » pour vous le présenter plus en détail[1].

En version courte et flash

Si vous êtes un lecteur ou un webmaster pressé, et que le format flash ne vous fait pas peur, vous pouvez tout de suite visiter cette page pour avoir l’occasion de toutes les visionner d’un coup à même notre lecteur embarqué (dont vous obtiendrez le code pour en faire de même sur votre propre site si d’aventure vous le souhaitiez). Vous pouvez également sauter tout notre « inutile verbiage » pour accéder directement à une petite sélection bien sentie de ce que l’on pourrait tout aussi improprement qualifier de « Web TV du Libre » du réseau Framasoft.

Mais, comme nous le verrons ci-après, il est aussi possible (et conseillé) de se rendre sur notre compte hébergé par blip.tv.

Le choix blip.tv

À l’origine il s’agissait de stocker et d’archiver les vidéos présentées sur le Framablog. On avait commencé par les héberger sur nos propres serveurs mais par souci de charge (et d’économie de moyens) on a préféré externaliser le service en ouvrant donc un compte sur la plate-forme blip.tv.

Soit dit en passant ce point de départ explique également le caractère quelque peu éclectique de la sélection. Il n’y a pas eu volonté méthodique de référencer toutes les vidéos évoquant le logiciel libre francophone. Cela s’est fait petit à petit en fonction des sujets mis en ligne sur le blog.

Toujours est-il que pourquoi blip.tv et non pas YouTube ou Dailymotion ?

Pour plusieurs raisons à cela.

  • Blip.tv reconnait et sait convertir le format libre Ogg Theora, on peut donc uploader directement dans ce format.
  • Au delà du streaming en flash, blip.tv propose explicitement le téléchargement, non seulement au format flash (.flv) mais aussi au format d’origine, donc pour ce qui nous concerne le Ogg. Ceci permet aux visiteurs qui ne possèdent pas le plugin flash de ne pas être pénalisés.
  • Blip.tv fait mention explicite de la licence des vidéos (lorsque l’on met en ligne une vidéo, il est en effet proposé un champ spécifique où figure par exemple toute la panoplie des Creative Commons).

À ma connaissance, tout ceci est absent des YouTube et autres Dailymotion. Même si l’un (voir ce billet) comme l’autre (site en Ogg dédié au projet OLPC) ont fait quelques progrès récemment. Le plus choquant restant l’absence de mention des licences qu’il aurait été facile d’inclure mais qui aurait alors posé quelques cas de conscience aux utilisateurs, quitte à ce qu’ils choisissent finalement de ne pas uploader la vidéo (ceci expliquant donc cela et aboutissant au fait qu’on trouve un nombre hallucinant de vidéos diffusées illégalement sur ces plate-formes).

Et puis il y a aussi tout ce qui tourne autour de quelque chose que l’on pourrait appeler la confiance. Les « Termes de services » contractés en vous inscrivant à la plate-forme sont plutôt clairs chez blip.tv (voir plus bas) et plutôt confus chez les autres (et je ne vous parle même pas des affres actuelles des utilisateurs, quelque part un peu naïfs, de Facebook). YouTube a ainsi récemment, et sans crier gare, fait apparaitre un moteur de recherche interne à même son lecteur embarqué (quand on passe la souris dessus, c’est très pénible à l’usage). Cela reste gentillet mais que se passera-t-il si un jour ils décident de mettre quelques secondes de pub au démarrage ? Ce sera assurément le pactole avec toutes les vidéos YouTube qui traînent sur des millions de blogs (et, même si ce n’est pas très « courtois » ce genre de petites manipulations doit être certainement prévues dans le « contrat que personne ne lit »). J’ajoute que sur blip.tv, on ne vient pas nous dire « Essayez YouTube dans un autre navigateur Web, téléchargez Google Chrome ».

Sur blip.tv, on lit plutôt ceci :

Nous croyons que le fruit de votre dur travail doit vous appartenir. Quand vous mettez en ligne sur blip.tv vous nous donnez le droit de distribuer votre vidéo tant que vous ne choisissez pas de la supprimer de notre système. Vous n’avez à nous céder aucun droit d’exclusivité, et nous ne vendrons pas votre œuvre, ni ne ferons de la publicité pour celle-ci sans votre autorisation expresse.

Mais surtout cela :

Nous sommes des adeptes convaincus des licences copyleft, telle que Creative Commons les propose. Nous incitons tout le monde à examiner les licences Creative Commons et à les adopter. Chaque vidéo publiée sous licence copyleft enrichit la création collective de façon significative.

Nous vivons à une époque que les historiens qualifieront de démocratisation de l’expression. Tandis qu’autrefois la production et la diffusion des médias étaient concentrées en quelques mains, maintenant elles sont partout : chacun peut proposer un spectacle, une ressource éducative, une expertise. Les contraintes traditionnelles imposées par les coûts de production élevés et la distribution restreinte n’existent plus : maintenant n’importe qui disposant d’une caméra et d’un ordinateur peut produire du contenu vidéo, la seule contrainte est celle qu’imposent les limites de la créativité humaine. Les utilisateurs de blip.tv ont démontré que de telles limites n’existaient pas.

Nous pensons que la libération des moyens de production est une des des choses les plus importantes qui soit arrivée dans l’histoire récente. Elle permet à tout le monde de créer la prochaine comédie géniale, de partager la réalité de la vie quotidienne par-delà les différences culturelles, d’échanger des points de vue politiques et des ressources éducatives. C’est une très bonne chose, et nous nous consacrons à élargir encore cette démocratisation d’une façon qui respecte toujours les droits à la propriété intellectuelle, sur une plateforme où chacun puisse se sentir à l’aise.

Nous sommes pour une nouvelle économie de l’abondance. Il n’est plus dans l’intérêt de quiconque de mettre des chaînes aux médias, de les attacher à un site Web particulier, ou d’être pieds et poings liés à des métadonnées. Nous ne construisons pas un jardin entouré de murailles, nous travaillons activement à faire tomber les murailles pour permettre la libération et le partage ouvert des médias et des contenus des médias sur le Web.

À comparer avec la philosophie générale de la prochaine loi « Internet et Création »…

Merci pour eux donc. J’aurais pu aussi évoquer le fait qu’avec blip.tv vous pouvez dans le même mouvement uploader chez eux mais aussi sur le beau projet qu’est Internet Archive, mais, bon, j’arrête là, on pourrait croire que je suis un VRP de blip.tv 😉

Framatube chez blipt.tv : petit mode d’emploi illustré

Comme cela a été mentionné plus haut, vous pouvez lire les vidéos ou les embarquer via notre lecteur flash disponible sur cette page. Mais se rendre directement sur notre compte blip.tv et y feuilleter le catalogue offre plus d’informations et d’options.

Voici comment se présente une page vidéo sur notre compte blip.tv. Il s’agit en l’occurrence du récent clip Firefox in Motion (découvert of course chez Tristan Nitot).

Copie d'écran - Framatube - Blip.tv

On notera que l’on peut donc embarquer les vidéos une par une plutôt que la « télévision » entière.

Simple et pratique. Sans oublier que vous pouvez vous abonner au flux Framatube de différentes façons :

Firefox 3.1 et sa nouvelle balise vidéo

Nous avons évoqué la prochaine version de Firefox, que nous attendons en version stable avec impatience, dans deux récents billets : Quand Mozilla participe à la libération de la vidéo et Building the world we want, not the one we have.

Retenons que nous pourrons alors lire les vidéos au format Ogg directement dans Firefox sans avoir besoin du moindre plugin. Il suffira, pour le webmaster, d’insérer quelque chose qui ressemblera, en version minimaliste, au code (en HTML 5) suivant :

 <video> <source src="http://framasoft.blip.tv/ma-super-video.ogg"></source> </video> 

(Pour de plus amples informations lire par exemple ce billet de Laurent Jouanneau)

Autrement dit, toutes « nos » vidéos disponibles au format Ogg sur blip.tv pourront être reprises directement par les autres sites, sans passer par la case flash et sans nécessiter de téléchargement pour le visiteur sous Firefox 3.1. Plutôt intéressant non ! Imaginez-vous par exemple, muni de votre Framakey et sa version portable de Firefox 3.1, montrant à votre assistance médusée quelques vidéos issues de Framatube se lançant directement depuis la navigateur, ça peut faire son petit effet…

Intérêt de Framatube

Outre l’avantage pour ce blog, et par extension pour tout le réseau de sites et de projets Framasoft, de proposer des vidéos qui ne tirent pas sur ses serveurs (mais sur celui de blip.tv), il n’est pas forcément inintéressant d’avoir ainsi centralisé de nombreuses ressources vidéos francophones autour du logiciel libre (ressources que nous comptons bien continuer à mettre à jour, voir plus bas le paragraphe qui invite à y participer avec nous).

  • Le visiteur y trouvera matière à s’informer et se tenir au courant de l’actualité francophone en la matière (s’abonner au flux RSS peut être alors judicieux).
  • Le webmaster y puisera les vidéos de son choix dans le format de son choix et participera ainsi à la diffusion du contenu de Framatube, c’est-à-dire « le logiciel libre et son état d’esprit ».
  • Le « conférencier » y cherchera quelques ressources pour une intervention publique (pris au sens large, ça peut être tout aussi bien un éducateur, un associatif sur un stand, un atelier de LUG, un cinéma indépendant, etc.).

Il y aurait également un intérêt « sociologique », mais je marche sur des œufs là, en frisant la condescendance. Mon sentiment de prof, c’est que l’on se retrouve avec toute une catégorie d’internautes, appelons-la « génération YouTube », qui lisent peu (ou en tout cas vite et surtout pas trop long) mais consomment beaucoup de vidéos. Les mêmes, en gros, qui passaient beaucoup de temps devant la télévision avant l’avènement d’Internet. Il y a peut-être moyen ici d’arriver à les toucher pour leur proposer ponctuellement autre chose que les clips people et autres vidéogagueries à la chauffeur de buzz pour les sensibiliser à « nos » problématiques de libertés numériques (qui finissent par devenir des libertés tout court).

Une petite sélection

Vous trouverez la liste de toutes les vidéos, non seulement dans le player mais surtout sur notre compte blip.tv.

Dans la mesure où certaines vidéos n’ont pas pu, faute de temps, être présentées ici, dans la mesure où certains lecteurs du Framablog sont de nouveaux lecteurs (bienvenus, l’abonnement au flux RSS fait office de carte de fidélité), nous vous en proposons ci-dessous une petite sélection, bien entendu non exhaustive, puisque comme cela a été dit nous dépassons désormais la centaine.

Qu’il me soit permis de remercier vivement au passage le travail de JosephK qui aura patiemment converti la quasi-totalité des vidéos au format Ogg.

Conférences « ça, c’est du lourd ! »
  • Michel Serres – La révolution culturelle et cognitive engendrée par les nouvelles technologies
  • Thierry Stœhr – Et les formats ouvœrts
  • Benjamin Bayart – Internet libre ou Minitel 2.0 ? Vous ne l’avez pas encore vue ?
  • Richard Stallman – Parce qu’il faut bien en avoir vue au moins une !
  • Eben Moglen – Le logiciel et la communauté (ma préférée, vous ne l’avez pas encore vue ?)
  • Tim Morley – Espéranto et logiciel libre
Politique (ou apparenté)
  • [Obama et l’Open Source|http://framatube.org/media/cnn-obama-et-lopensource – Le modèle bottom-up et la référence au livre La cathédrale et le bazar
  • Citation de Jacques Attali – Révélatrice ?
  • Michel Rocard – À propos de Ségolène et… des logiciels libres !
  • Jérôme Relinger – PC et adjoint au Maire du 13e arrondissement de Paris
  • François Bayrou – Sa pertinente et éloquente vision des deux mondes
Communauté
  • Ubuntu – Christophe Sauthier, président de l’association francophone
  • Linux à Perpignan – Un exemple exemplaire de diffusion territoriale du logiciel libre
Free Culture
Éducation
Vu à la télé
Pause publicitaire
Les inclassables
Framasofteries

Voilà, c’est déjà pas mal ! Et n’oubliez pas bien entendu de vous rendre régulièrement sur les sites qui non plus diffusent mais directement produisent des vidéos. Je pense par exemple au dépôt de l’APRIL, à Kassandre, Ralamax ou encore Lprod (à compléter dans les commentaires).

Participer au projet Framatube

Si vous trouvez ce projet un tant soit peu pertinent et utile, vous êtes cordialement invité à vous joindre à nous. Nous sommes toujours en sous-effectif chronique (et toujours contents de faire de nouvelles rencontres). Pour ce faire il suffit de nous envoyer un message.

Ce ne sont pas les besoins qui manquent en effet. Il conviendrait d’abord d’améliorer les descriptions souvent trop succinctes des vidéos (il manque ainsi presque systématiquement pour le moment la mention de la source) mais également d’exercer un travail de veille pour évaluer les vidéos « candidates », sans oublier les éventuelles tâches techniques de conversion, montage, etc.

Merci de votre attention, de votre éventuelle participation et n’hésitez pas à nous proposer, dans les commentaires, des vidéos non référencées susceptibles de venir grossir le rang de notre canal (quitte à ce qu’elles ne soient pas en français mais tellement intéressantes que ça vaille le coup de déclencher la « procédure Framalang » de transcription, traduction, sous-titrage).

Notes

[1] Crédit photo : La cola de mi perro (Creative Commons By)




Le jour où le Web refusa le navigateur Internet Explorer 6

Schmorgluck - CC by-saMon titre est un peu accrocheur et inexact mais il témoigne d’un mouvement d’origine norvégienne de ras-le-bol généralisé vis-à-vis d’Internet Explorer 6, le navigateur de Microsoft véritable cauchemar vivant de tout webmaster un tant soit peu respectueux des standards.

Si tu ne vas pas à Lagardère, Lagardère ira à toi ! C’est ce que sont un peu en train de se dire un certain nombre de gros sites norvégiens qui invitent les visiteurs malencontreusement restés sur cette version de ce navigateur à soit passer à la version 7 (bien), soit envisager d’autres alternatives telles Firefox, Safari et Opera (mieux)[1].

Des sites norvégiens déclarent la guerre à IE 6

Norwegian Websites Declare War on IE 6

Michael Calore – 19 février – Wired Blog
(Traduction Framalang : Simon Descarpentries)

Plusieurs importants sites web norvégiens ont lancé une campagne de sensibilisation en direction des utilisateurs de Microsoft Internet Explorer 6, les encourageant à mettre à jour leur navigateur obsolète.

À l’origine de cette action, on trouve Finn.no, un site web semblable à eBay, apparemment le plus gros site de vente et d’achat d’occasions en Norvège, Finn étant le norvégien de « trouver » (NdT: « Find » et anglais). Un peu plus tôt cette semaine, Finn.no posta un avertissement sur son site à l’intention des visiteurs utilisant IE6. La bannière, affichée à droite, les presse d’abandonner IE6 et de passer à la version suivante, Internet Explorer 7.

Bon nombre d’autres sites, tels que l’influent journal hightech Digi.no ont rejoint la campagne, mais en élargissant le terrain de jeu à d’autres navigateurs, suggérant aux utilisateurs de passer soit à IE7 soit à une autre alternative comme Firefox, Safari ou, bien sûr le navigateur norvégien Opera.

Le phénomène est en train de s’étendre à d’autres pays.

Des sites en Suède, en Indonésie et en Australie se joignent au mouvement. Le blogueur norvégien Peter Haza fait le décompte des participants, et un wiki international, appelé « IE6 – DO NOT WANT » (NdT : On n’en veut pas !) a été mis en place pour garder la trace des actions navi-cides (tueuses de navigateur). Il y a également un groupe sur Facebook.

Même Microsoft supporte la campagne. Le site norvégien d’actualité « Teknisk Ukeblad » rapportait mercredi les paroles suivantes d’Alveberg Isabella de Microsoft Norvège : « Nous espérons bien sûr que nos utilisateurs nous suivent avec Internet Explorer 7 ».

IE6, sorti en 2001, est le fléau des programmeurs web, des designers, et des équipes de support de service web. Le navigateur est bourré de bizarreries (NdT : non respect des standards) qui le rendent incapable d’interpréter les pages de la même manière que les autres navigateurs, et les webmestres doivent donc toujours prévoir des exceptions pour s’adresser aux utilisateurs d’IE6.

La plupart d’entre eux souhaiteraient simplement que ce navigateur disparaisse, les libérant ainsi de son support. Les chiffres varient d’un pays à l’autre, mais il reste entre 10% et 20% d’internautes utilisant IE6 de par le monde, certains par méconnaissance d’un meilleur navigateur, d’autres parce que le logiciel leur est imposé par leur entreprise. Finn.no note que 17% de ses utilisateurs utilisent IE6. De telles proportions sont trop importantes à l’heure actuelle pour être ignorées par les concepteurs de site web.

Cette protestation anti-IE6 se joue dans l’ombre de l’examen de Microsoft par la commission européenne à la concurrence. La commission, stimulée en décembre 2007 par la plainte d’Opera Software, s’interroge sur les pratiques de Microsoft consistant à livrer IE pré-installé avec Windows sur les ordinateurs de bureau. La commission est en train de statuer sur l’opportunité de forcer Microsoft et ses revendeurs européens à offrir aux utilisateurs le choix d’installer un ou plusieurs navigateurs, lors du premier démarrage d’une machine fraîchement achetée.

Notes

[1] Crédit illustration : Schmorgluck (Creative Commons By-Sa)




La loi Création et Internet, le chant du cygne et le maquis

Tempo no tempo - CC byCette loi « Création et Internet » s’apparente de plus en plus au chant du cygne d’une industrie culturelle totalement dépassée par les événements et qui s’arc-boute sur ce qu’il lui reste encore de privilèges hérités du siècle dernier. Associée avec la politique web 1.0 d’un Sarkozy, tout est réuni pour casser la société numérique en deux et voir les éléments les plus progressistes du pays prendre le maquis virtuel pour tenter de sauver ce qui peut encore l’être tant que la neutralité du Net sera garantie.

Un peu emphatique ce premier paragraphe non ? Allez, tant, pis, je le garde quand même 😉

En fait il s’agissait juste d’introduire cet article du collectif Libre Accès, qui fait justement partie de ceux qui sont bien décidés à ne pas s’en laisser compter[1].

Edit : Dans un autre registre, on pourra également lire cette gore mais assez désopilante BD de Flock.

La libre circulation de l’Art est la garantie de notre liberté

Libre Accès – Lettre d’information – février 2009
Article sous Licence Art Libre

La préface de La crise de la culture d’Hannah Arendt commence par cette citation d’un poème de René Char : « Notre héritage n’est précédé d’aucun testament », faisant référence à son choix d’entrer en résistance, à la prise de conscience que lutter contre la tyrannie restitue à chacun, au sein de l’espace public, sa liberté.

La circulation des œuvres de l’esprit a toujours été un enjeu majeur ; les amateurs du totalitarisme ont une forte passion morbide pour brûler des livres et imposer leur pensée unique aux masses. Le hacker Soljenitsyne en a su quelque chose : la parution de L’Archipel du Goulag, qui arriva en Europe de l’Ouest sous la forme d’un microfilm, est un des premiers exemples de l’enjeu que représente la numérisation des livres pour notre civilisation.

Il reste encore des hommes et des femmes dans le monde pour qui les actes de création constituent autant d’actes de résistances à la tyrannie. Actes de dignité où écrire, filmer, peindre, peut constituer un véritable crime passible de la peine de mort. Il est important de garder cette idée présente à l’esprit et de ne pas oublier qu’Internet représente rien de moins que de notre liberté de créer, d’échanger et de partager.

L’essence et l’avantage d’Internet est sa décentralisation. C’est l’outil rêvé de tous les amoureux de la liberté, encyclopédistes des Lumières, amis de l’éducation populaire et de l’art, leur permettant de diffuser leurs idées et les conserver. Bibliothèque-monde de toutes les cultures, lieu de production et de circulation de la pensée, l’art pour tous accessible, outil de pair à pair par excellence, Internet est un idéal des Lumières. C’est un espace d’expression, de réciprocité, de critique et donc de création.

En termes économiques, il serait temps de prendre conscience de faits essentiels qui se dessinent depuis son apparition :

  • l’ancien modèle des médias était basé sur la diffusion et la consommation, tandis que le nouveau modèle s’est développé sur la participation et l’expression;
  • l’élément critique de l’ancienne chaîne de valeur reposait sur la distribution, tandis que la nouvelle chaîne de valeur est centrée sur la découverte et la propagation;
  • il faut porter son attention là où l’argent s’est déplacé, là où les gens dépensent leur argent, sans occulter dans le même temps que les circuits financiers et produits dérivés se sont globalisés, hors de tout contrôle des Etats-nations et des territoires.

Ce sont là des données de base, familières à tout acteur informé de l’économie numérique. Il est donc particulièrement inquiétant pour nos démocraties de constater que ces mêmes lobbies financiers n’ont de cesse de vouloir contrôler Internet par des méthodes non seulement arbitraires et irrationnelles mais également tout à fait dépassées.

Les arguments justifiant la mise sous contrôle du réseau se réclament paradoxalement de la défense de la culture, alors que c’est justement elle qui est attaquée ; au même titre qu’ils invoquent des raisons pseudo-économiques, alors que par essence l’économie numérique refuse radicalement un contrôle central. Ce paradoxe a d’ailleurs été brillamment dénoncé par les situationnistes qui écrivaient dès 1967 : « la fin de l’histoire de la culture se manifeste par deux côtés opposés : le projet de son dépassement dans l’histoire totale, et l’organisation de son maintien en tant qu’objet mort, dans la contemplation spectaculaire »

Ces objets morts, stars télévisuelles qui ont l’odeur des icônes des églises mais sans leur efficacité, sont mis en avant pour justifier tous les abus du contrôle d’Internet. La mort de notre liberté est préparée dans une tentative vaine et pitoyable de conjurer la mort de l’artiste télévisé.

La loi « Création et Internet » souhaiterait que l’on installât un logiciel sur chacun de nos ordinateurs pour prouver que nous ne sommes pas des copieurs d’œuvres numériques interdites. Absurdité fondamentale : l’informatique, Internet, sont intrinsèquement copie, comme le rappelait Intel Corporation dans son Amicus brief lors du procès MGM vs Grokster.

L’argument de la culture en danger, servi à satiété, est un mensonge. La culture foisonne, les créateurs, de plus en plus nombreux, ne cessent de créer. Le public a soif d’œuvres auxquelles il accède de plus en plus en amateur, participant, co-créateur, et non plus en consommateur. La dissémination et l’accès de tous et par tous à la culture, voilà ce qui est en danger.
Et il est déconcertant de voir que c’est au nom du droit d’auteur, pour défendre la création, que l’on s’apprête à faire voter le projet de loi « Création et Internet », loi liberticide par excellence. Les comités de censure sont-il en train d’être remplacés par les Majors à qui le gouvernement français veut déléguer des pouvoirs arbitraires de police de l’Internet ?
Le pouvoir oligopolistique des Majors renforcé par la puissance publique pourrait contrôler l’ensemble des diffusions culturelles par une intégration verticale anti-économique et anti-concurrentielle : des tuyaux Internet, des radios, des télévisions, des journaux, des salles de concert…

C’est donc bien la liberté de l’auteur et son indépendance qui sont attaquées. Il n’est guère étonnant que de plus en plus d’auteurs et d’interprètes, voulant expérimenter d’autres dispositifs de création, quittent la SACEM (dans la musique) et les circuits classiques de distribution, pour mieux maîtriser leurs créations. Tout le monde n’est pas un adepte de la chanson à 2 minutes 30. La SACEM, influencée par les Majors ne sait pas rémunérer équitablement les auteurs occasionnellement diffusés sur les radios, par exemple. Ses modèles de répartitions sont basés sur des données partielles, accordant une prime aux plus gros diffusés. La production de la création doit correspondre au moule marketing de l’industrie culturelle ou ne pas exister.

De fait, il y a de plus en plus d’artistes qui, pour être en accord avec leur processus créatif, s’auto-produisent et s’auto-diffusent via Internet. Pour protéger leurs œuvres et garantir le partage de celles-ci, ils utilisent différentes licences telles la Licence Art Libre ou les Creative Commons.
Ils retrouvent ainsi leurs libertés premières d’auteurs : choisir les possibilités de modification de leurs œuvres, d’utilisation, de collaboration, de rémunération. Certains auteurs souhaitent privilégier la diffusion et la pérennisation de leurs œuvres, plutôt que leur rétribution financière.

Antoine Moreau, fondateur de la Licence Art Libre écrit : « Je crois pouvoir dire alors que le copyleft participe bien de ce récit des rêves ou des visions qui va à contre-temps de tout ce qui prétend dominer le cours de la création. C’est une liberté intempestive qui ne se soumet pas à l’injonction de l’actualité mais envisage un temps élargi, qui va très loin dans le passé, très loin dans l’avenir et très profondément dans le présent ».

Un musicien qui vient de terminer la création d’une œuvre musicale peut en un clic être écouté d’Afrique en Asie. Internet offre aux artistes un moyen de propagation inédit auquel les Majors ne s’étaient pas préparés. La plupart des plateformes de téléchargement d’œuvres sont multilingues. Il n’est plus rare qu’un artiste qui ne trouve pas son public localement le trouve à l’autre bout du monde.

C’est une vraie chance pour les auteurs, et pour l’humanité. Des groupes de musique comme Nine Inch Nails sont en passe de démontrer que la libre diffusion des œuvres n’empêche pas les artistes de trouver des modes de rémunérations concrets via la vente de places de concert ou de disques, avec toute une gamme possible de services et de produits dérivés.

Il y a bien un imaginaire défaillant dans les débats actuels sur la rémunération des auteurs et artistes-interprètes. Les moines copistes de l’industrie du DVD tentent d’imposer le même rapport de force que lors de la naissance de l’imprimerie, voulant casser une technologie brisant leur monopole. Frédéric Bastiat, économiste libéral français, les décrivit fort bien dans sa Pétition des Fabricants de Chandelles geignant contre la concurrence indue du soleil.

C’est l’auteur/artiste interprète à qui nous devons garantir une rémunération et non pas à l’industrie culturelle. La démocratisation des outils d’autoproduction et d’autodiffusion dans tous les Arts (cinématographique, musical, graphique, etc.) doit être prise en considération. Il appartient aux pouvoirs publics de savoir s’ils veulent soutenir les Majors ou les auteurs. N’en déplaise aux moines copistes de l’industrie du DVD et à leurs icônes télévisées, la création est foisonnante sur Internet et il est temps qu’elle soit reconnue.

S’il est fondamental de garantir cette liberté de choix de diffusion des œuvres et de leur circulation, nous devons être capables d’adapter le financement de l’art à l’heure d’Internet, sachant que sa défense ne peut être, ni en contradiction avec les valeurs démocratiques, ni avec les technologies actuelles. Comme le disait Michel Vivant en 2003 au Colloque de l’UNESCO ”Droit d’auteur et droits voisins dans la société de l’information” : « Il ne s’agit pas de s’incliner devant le fait. Il s’agit de ne pas nier la réalité. ».

La libre circulation de l’Art garantit notre humanité, le pouvoir de se penser homme, voire humanité. On a besoin de se connaître à travers les grottes de Lascaux, dans les ruines de Babel. Antoine Moreau rappelle : « Il n’y a pas d’ouvrages de Platon et il n’y en aura pas. Ce qu’à présent l’on désigne sous ce nom est de Socrate au temps de sa belle jeunesse. Adieu et obéis-moi. Aussitôt que tu auras lu et relu cette lettre, brûle-la. La notion d’auteur, qui n’existe pas dans la Grèce Antique ni au Moyen-Âge où l’autorité émanait des dieux ou de Dieu, apparut. ». Garantir la libre circulation des œuvres d’Art, avec comme seul propriétaire, en dernier ressort, l’humanité, est donc essentiel. Pas de Copyright sur les œuvres de Lascaux, mais des amateurs d’Art archéologues entretenant notre patrimoine.

Le devoir de garantir la circulation de l’Art comme patrimoine de l’humanité oblige à penser sa préservation. Pas les salaires mirobolant des icônes télévisés mais de ceux qui, en premiers garantissent une pratique artistique : professeurs d’Art (plastique, musique, cinéma…), Maisons de la Culture, bibliothèques, espaces de pratique artistique, cinémas indépendants, universités… Il s’agit de multiplier les lieux ou les Artistes et les amateurs d’Art peuvent créer, échanger, écouter, pour maintenir à chaque Art les amateurs éclairés qui soutiendront toujours les Artistes/Auteurs.

Le financement de l’Art (pour les artistes souhaitant en bénéficier), doit être repensé par les puissances publiques. Préserver le seul intérêt des Majors, quand le statut des intermittents est menacé et le statut des artistes peintres est presque inexistant, démontre l’abandon de toute politique culturelle ambitieuse.
Si l’on songe que nous, citoyens, par les impôts, taxes et redevances que nous payons, sommes certainement le plus grand producteur culturel français, comment expliquer que l’on nous dénie toute participation aux débats en cours, et que l’on prétende privatiser et nous faire payer des œuvres que nous avons déjà financées? Est-il par exemple normal que l’Éducation Nationale, selon les accords sectoriels post-DADVSI, paye 4 millions d’euro par an pour n’avoir le droit, en ce qui concerne les œuvres audiovisuelles, que d’utiliser les chaînes hertziennes classiques ? Cela doit changer.
C’est en tant qu’amateurs d’Art et citoyens exigeants que nous devons être comptables des politiques culturelles et de leur diffusion. Il en va de nos identités et cultures plurielles, dont il faut empêcher l’uniformisation par une industrie culturelle qui, de TF1, à France 2 ou M6, montre les mêmes séries télévisées et les mêmes discours autistes du Président du tout nouveau Conseil de la création artistique.

Il incombe de défendre nos libertés concomitantes d’un accès à l’art pour tous. De ce point de vue, il est intéressant de noter que les Majors essaient d’imposer, comme les semenciers de Monsanto, un catalogue des œuvres dites protégées, au mépris du droit d’auteur censé protéger tout auteur d’une oeuvre de l’esprit. Il y a donc bien des logiques de domination économique qui sont à l’œuvre pour la privatisation des biens communs, contre lesquelles nous devons résister.

L’aboutissement des projets de Monsanto, comme le fameux « catalogue des semences » interdisant aux agriculteurs et jardiniers le droit de conserver, utiliser, échanger et vendre les semences ou du matériel de multiplication reproduits à la ferme, doit nous rendre vigilants sur les tentatives des Majors d’imposer le leur, fait du même petit nombre d’œuvres et rééditions formatées et sans risque.

Il y a un foisonnement d’Auteurs/Artistes talentueux qui autorisent la diffusion de leurs œuvres via la Licence Art Libre et les Creative Commons, plus de 30 000 œuvres musicales sur la plateforme Dogmazic, 10 000 œuvres littéraires sur le site de la maison d’édition InLibroVeritas, et dans le monde, d’après des estimations minimales, 130 millions d’œuvres et documents sous Creative Commons en juin 2008. Il est de notre devoir de les soutenir, car ils sont à l’avant-garde d’un mouvement de résistance, se livrant à la lutte pour la libre circulation de l’Art et donc notre liberté.

Pour Libre Accès, Jérémie Nestel (MACAQ, Radio du Ministère de la Crise du Logement), Bituur Esztreym (co-fondateur de Musique Libre ! et de dogmazic.net), Eric Aouanès (président de l’association Musique Libre ! et co-fondateur de la plateforme Dogmazic), Didier Guillon-Cottard (Festival Art is chaud) Mathieu Pasquini (gérant et fondateur de la maison d’édition InLibroVeritas).

Notes

[1] Crédit photo : Tempo no tempo (Creative Commons By)




Wikipédia et éducation : un exemple de réconciliation 3/6

Cet article fait partie du dossier Wikipédia et éducation : un exemple de réconciliation.

C’est la traduction du témoignage d’un éditeur de Wikipédia ayant aidé les étudiants à atteindre leur objectif, à savoir la quête de l’Article de Qualité, qui est ici présentée.

Copie d'écran - Wikipédia - Témoignage wikipédien

Wikipédia et université : Murder, Madness and Mayhem ?

Wikipedia and academia: Murder, Madness and Mayhem?

EyeSerene – 14 avril 2008 – Wikipédia
(Traduction Framalang : Olivier)

Quand l’idée a été soulevée de mettre sur pied une équipe d’éditeurs spécifiquement dédiée à l’obtention du label Article de Qualité, nous sommes entrés en contact avec le Wikiprojet Murder, Madness and Mayhem (NdT : Meutre, Folie et Chaos, MMM) pour ce que nous pourrions appeler notre première mission. Deux réactions antagonistes sont alors nées en moi. Je me suis exclamé « magnifique ! » mais une voie plus sceptique murmurait « hum… pourquoi pas ». La première émane de ma foi dans « le rêve », la deuxième de mon expérience sur le terrain du travail sur Wikipédia.

Je crois avec ferveur en la vision de Wikipédia ainsi résumée « Imaginez un monde dans lequel chacun puisse avoir, partout sur la planète, libre accès à la somme de toutes les connaissances humaines. C’est ce que nous sommes en train de faire » (Jimmy Wales). Évidemment, certains avertissements sont de rigueur, peut-être que l’adjectif « vérifiable » devrait être ajouté ici !, mais derrière tous les articles de groupes de musique méconnus, d’écoles primaires et d’épisodes des Simpson, le rêve se poursuit. Les gens instruits sont des gens libres et autonomes et une longue route a été tracée depuis le temps où le savoir et l’éducation n’étaient réservés qu’à une petite élite… mais il nous reste encore beaucoup de chemin à parcourir.

Peut-être sommes nous de doux rêveurs à croire qu’une encyclopédie peut changer le monde, mais pour moi l’important n’est pas là. C’est le concept sous-jacent qui me motive. Et si les gens, indépendamment de leur race, de leur religion, de leur emplacement géographique ou quoi que ce soit d’autre pouvaient s’unir comme nous le faisons ici ? Et si ils pouvaient s’affranchir des frontières, des gouvernements et des contraintes sociales pour communiquer et collaborer les uns avec les autres de manière constructive et créer quelque chose qui est infiniment plus grand que la somme de ses parties ? Je pense alors qu’il serait très difficile de convaincre un public ainsi informé et lié que tel groupe ou telle nationalité est en fait leur ennemi, alors qu’une longue expérience personnelle leur affirme le contraire. Le fait que Wikipédia soit banni ou restreint dans certaines parties du monde et chez certains régimes politiques en dit long sur la peur que peut engendrer ce simple concept « d’information en accès libre ».

Évidemment, et quand bien même tous ceux qui comme moi tiennent à la crédibilité de notre encyclopédie aiment à penser que le savoir que nous mettons à disposition est vraiment utile, nous devons aussi tenir compte de tous ces articles de groupes de musique méconnus, d’écoles primaires ou d’épisodes des Simpson. Mais sous bien des aspects c’est ce qui fait la force de notre modèle.La force magnétomotrice, un article technique qui capte une audience relativement faible et spécialisée, est classé dans la catégorie des articles à étoffer même s’il existe dans l’encyclopédie depuis bientôt quatre ans. L’article Les Simpson fait quant à lui l’objet de modifications permanentes, il s’est largement étoffé et se décline aujourd’hui dans plus de soixante langues (alors qu’on ne trouve que six localisations de la force magnétomotrice). Si nous acceptons le fait que Wikipédia est plus qu’une encyclopédie, nos articles sur la pop-culture font clairement parti de notre succès. Ils participent à la collaboration et aux interactions sociales au-delà des continents et des océans et peut-être que ce sont ces articles qui reflètent le mieux la vision de Wikipédia.

La crédibilité culturelle de Wikipédia n’est plus à démontrer. Vous voulez savoir quel docteur a pris la suite de Patrick Troughton (NdT : dans la série TV Docteur Who) ? Vous voulez connaître le nom de la maison de Harry Potter ? Où irons-nous alors en priorité ? J’aimerais cependant que Wikipédia soit également reconnu comme une source académiquement acceptable. On sait bien désormais que Wikipédia constitue la première étape de n’importe quelle recherche pour la majorité des étudiants, et ce dès le secondaire. On peut débattre du bien-fondé de cette habitude, mais en tant qu’étudiant planchant en fin d’étude sur la diffractométrie de rayons X, j’aurais certainement apprécié en 1989 avoir cette ressource primaire, quand bien même l’article en lui même n’aurait évidemment pas été suffisant.

Wikipédia ne peut pas se substituer à une recherche bibliographique, vous devez quand même lire les bons articles et les bons journaux. Il ne peut pas vous enseigner une matière non plus, nos articles ne sont pas écrits dans cette optique, bien qu’ils soient assez complets pour qu’un lecteur néophyte puisse comprendre de quoi il en retourne. Si vous attendez ceci de Wikipédia (que tout le travail soit déjà fait ou qu’il vous enseigne une matière), vous vous trompez lourdement sur les buts de Wikipédia. Mais le fait est que notre encyclopédie a été, est et restera certainement toujours utilisée ainsi. Cependant combien d’étudiants comprennent véritablement la différence entre se rendre sur leur source d’information en ligne préférée pour vérifier la réponse à une question de quizz sur le nombre de test centuries que Andrew Strauss a inscrit (la réponse est 12 au fait) et citer cette information dans la biographie d’un joueur de cricket ?

C’est là, pour moi, la fascinante dichotomie du Wikiproject Murder Madness and Mayhem de Jbmurray. Il faut avouer qu’on a commencé à s’habituer à ce que notre encyclopédie ou nos articles soient tournés en ridicule par le monde universitaire et, même si ce n’est pas toujours de gaieté de cœur, il nous faut bien reconnaître que leurs critiques ne sont pas infondées. Wikipédia a la réputation de ne pas respecter l’expertise auto-proclamée et les arguments des experts sont rarement pris au sérieux. Du fait de l’anonymat des éditeurs et de l’impossibilité de vraiment connaître les références de la personne de l’autre côté du modem je ne vois pas comment il pourrait en être autrement… mais devoir étayer chaque affirmation par une source vérifiable a sans aucun doute repoussé des éditeurs qui autrement auraient apporté une contribution importante à notre effort.

De nombreux universitaires, indignés d’être traités de la sorte par des gens qu’ils ne connaissaient pas ou qu’ils ne respectaient pas (intellectuellement s’entend !), se sont retirés du projet avec dégoût, résolus à ne jamais plus employer Wikipédia et à ne plus jamais en encourager l’usage non plus.

J’ai également souvenir d’un incident où l’auteur d’un livre cité dans un article a tenté de corriger l’article, mais sa modification a été refusée par des éditeurs qui se sont servis de son propre livre pour justifier le rejet. Frustré, il répondit en substance « C’est moi l’auteur de ce foutu texte que vous citez à tort, je sais de quoi je parle ! », mais ça ne l’a pas beaucoup aidé. D’un autre côté, pourquoi en tant qu’éditeurs devrions-nous accepter aveuglément ce que nous dit un « expert » auto-proclamé ? N’est-ce pas ce qui fait en partie la vision de Wikipédia ? Nous ne nous contentons pas (ou nous ne devrions pas nous contenter) de donner les faits… idéalement nous fournissons aussi des sources afin que tout un chacun puisse vérifier ces faits. On retombe sur « l’accès libre à l’information » !

Mon enthousiasme pour le projet novateur de Jbmurray, l’espoir qu’il est possible non seulement d’améliorer notre encyclopédie (ce qui me tient à cœur) en aidant les élèves dans leurs études, mais aussi de renforcer sa crédibilité et peut-être même de recruter de nouveaux accrocs à Wikipédia éditeurs, a donc été quelque peu tempéré par les expériences qu’ont eu de nombreux universitaires avec nous. Évidemment, Jbmurray n’était pas exactement un novice sur Wikipédia et il était déjà au courant des particularismes, voire même parfois des absurdités, qui maintiennent notre effort sur de bons rails, mais cela ne préfigurait en rien du succès de son projet.

Côté technique, j’avais de gros doute qu’on puisse ne serait-ce qu’approcher le grade d’Article de Qualité pour chaque article du projet. Malgré ce que peuvent en dire les critiques, rédiger un Article de Qualité est un processus complexe et rigoureux qui demande une grande disponibilité, beaucoup d’énergie et, oserais-je le dire, de l’expertise (pas seulement sur le sujet de l’article mais aussi sur les critères strictes des Articles de Qualité). Le seul moyen d’atteindre ce but était que la FA-Team collabore étroitement avec Jbmurray et les éditeurs de MMM.

J’ai tiré de mon expérience sur Wikipédia la conclusion que pour certains éditeurs le principe de la collaboration restera à tout jamais un mystère. Et pourtant il n’y a rien de bien sorcier si tout le monde y met de la bonne volonté. C’est évident que si les éditeurs sont traités avec respect, approchés de manière ouverte et amicale, remerciés pour ce qu’ils font de bien et réprimandés (poliment !) lorsqu’ils se trompent, ils répondront alors positivement dans la plupart des cas. Que ce soit sur Internet ou dans la vraie vie, certains sembleront toujours génétiquement incapables de formuler des encouragements ou de recevoir des critiques, mais ces personnes poussent à bout la patience de la communauté et finalement abandonnent le navire.

Bien que nous baignons dans un monde virtuel, nous avons à faire avec des personnes bien réelles avec des émotions bien réelles au bout de la connexion, alors pourquoi devraient-elles être traitées plus durement que si nous les rencontrions dans notre bureau, notre salle de classe ou au bar… et au nom de quoi devrions nous fermer les yeux sur de tels agissements ? Wikipédia s’auto-gère assez bien, ce qui profite à la collaboration, et comme le note Jbmurray ceci peut déboucher sur une synergie qui vous permet de croire que notre vision est vraiment à notre portée. Il soulève ici un corolaire très intéressant, un corolaire qui touche à la critique universitaire. Lorsque la collaboration existe (et en déformant les paroles bibliques, lorsque deux éditeurs ou plus s’unissent au nom de Wikipédia…), de grandes choses peuvent se produire.

Mais lorsque l’on permet aux articles de se morfondre dans leur médiocrité, et cela arrive encore trop souvent pour des articles techniques, ésotériques ou académiques, c’est notre réputation qui s’en retrouve entachée. Au bout du compte, tout ce que l’on obtient alors est de l’antagonisme, qu’il représente aussi bien le « contraire de la synergie » que la « caractérisation de la réaction des personnes qui accèdent à ces articles ».

Grâce au soutien universitaire de Jbmurray, aux encouragement et aux conseils techniques de la FA-Team, les rédacteurs étudiants de MMM ont produit un impressionnant travail de fond, fait d’autant plus remarquable que beaucoup n’avaient jamais édité dans Wikipédia avant ce travail. Dans un certain sens nous poussons ici plus loin encore qu’à l’accoutumée les capacités de la communauté à travailler dans la même direction, puisque, contrairement à nous wikipédiens, les éditeurs de MMM ne sont pas ici de leur plein gré mais parce qu’ils y sont obligés, de leur succès dépendent leurs notes ! Voilà qui les pousse à collaborer encore davantage pour atteindre leur but, mais c’est une motivation autre que celle qui anime d’ordinaire nos éditeurs volontaires.

Je ne suis pas naïf au point d’imaginer que tous les wikipédiens adhèrent à l’idéal de Wales, chaque éditeur a sa propre motivation et certaines sont moins louables que d’autres. Quoiqu’il en soit, si on met de côté ceux qui sont là pour, par exemple, créer des articles vaniteux ou pour faire de la publicité pour leur commerce, le résultat final est le même et encore une fois, c’est la collaboration de tant de personnalités différentes pour aboutir à un but commun qui me donne espoir et qui me fait croire à la mission de Wikipédia.

La collaboration n’est pas toujours simple (si c’était le cas, des groupes comme le Comité d’Arbitrage et des pages comme l’Appel aux commentaires seraient largement superflus) et dès le début certains des éditeurs de MMM ont dû se frayer un chemin dans le méandre des révisions des articles, prenant alors potentiellement le risque de déclencher de nouvelles guerres d’édition ou pire encore. Ils y sont très bien parvenus grâce à leur propre envie d’apprendre et grâce à la bonne volonté dont ont fait preuve les éditeurs réguliers qui n’étaient pas familiers avec ce projet et ces objectifs, sachant que la différence entre le premier essai timide d’un nouvel éditeur et l’acte de vandalisme est parfois difficile à discerner.

Alors, sur quoi va déboucher cette expérience MMM ? On en aura évidemment une meilleure idée quand elle aura déjà un peu de vécu, mais on peut espérer que les étudiants la trouveront enrichissante et instructive, qu’ils en retiendront plus que juste les notes qu’ils recevront. Scolairement parlant, comme l’écrit Jbmurray, ils devraient en tirer une meilleure compréhension de la nécessité d’étayer leurs informations avec des sources vérifiables et ils devraient aussi mieux percevoir les limitations d’une encyclopédie en temps que ressource. Wikipédia ne peut être, même dans le meilleur des cas, que le point de départ d’une recherche approfondie. Le projet a peut-être aussi posé les bases d’un modèle qui aura du succès dans le monde universitaire.

Cela ne fait aucun doute, de nombreuses personnes parmi les éditeurs sont hautement qualifiées dans leur domaine et dans le partage de leurs connaissances dans ce domaine au sein même de l’encyclopédie, contribuant à améliorer le niveau global de Wikipédia. Mais la sempiternelle question de la couverture du sujet reste toujours en suspens dans la communauté (ou plutôt chez ceux qui s’intéressent plus particulièrement à la qualité des articles). Nous pouvons imposer des règles et des critères pour les Bons Articles ou pour les Articles de Qualité mais, en tant que non-experts, comment être surs qu’un article est complet et précis ? Nous pouvons utiliser les sources mentionnées et vérifier les références, mais sans un expert à disposition nous devons nous reposer sur l’article lui-même pour obtenir ces informations.

D’une manière générale notre travail est satisfaisant, car même en tant que non-experts quelques recherches nous permettent de juger de la profondeur (ou du manque de profondeur) de la couverture d’un article. Mais comme l’a prouvé cette expérience, les conseils d’experts sont inestimables. Pour résumer, nous avons besoin des universitaires car apparemment leurs étudiants ont besoin de nous.

Naturellement, des mises en garde sont de rigueur. Si certains experts ne voient en Wikipédia que frustration et antagonisme, c’est principalement car ils n’ont pas à l’esprit la spécificité de Wikipédia, à savoir sa communauté et ses lois. Même si la grande majorité des éditeurs supposera la bonne foi, le respect se gagne. C’est seulement en lisant les règles de Wikipédia et en faisant l’effort de vous y tenir que vous gagnerez ce respect qui donnera du poids à vos opinions et vos propositions. Quelle crédibilité peut-on accorder à universitaire étranger débarquant dans un séminaire en imposant ses propres pratiques et en faisant fi des convenances et traditions locales ?

Pourquoi devrions nous alors accepter ce genre de comportement ? Comme Jbmurray le fait remarquer, la capacité à développer une idée et de la défendre avec ardeur a moins de valeur sur Wikipédia que la capacité à négocier un consensus… et de se retirer avec élégance si ce consensus ne va pas dans notre sens, même lorsque les autres éditeurs ont ponctuellement clairement tort (ce qui arrive inévitablement avec une communauté de cette dimension). Mais à long terme, est-ce vraiment important ? Le consensus peut évoluer, et un article peut toujours être revu une semaine après, un mois après, une année après…

L’incapacité chronique de certains universitaires et experts à réaliser que Wikipédia n’est pas l’extension de leur faculté et qu’elle n’est pas par conséquent sous leur autorité, que notre mission est simplement de reproduire ce qui a déjà été publié par des sources vérifiables (vérifiabilité, pas vérité), et que leurs compétences dans un domaine ne les dote pas nécessairement de la capacité à bien faire dans d’autres domaines, a sans aucun doute affecté les relations dans les deux sens. Cependant le monde académique a beaucoup à y apporter, si l’on ne se trompe pas sur ce qu’est Wikipédia (et encore plus ce qu’elle n’est pas ou ce qu’elle ne prétend pas être). C’est ce que démontre le projet MMM de Jbmurray où tout le monde est au final gagnant.

El Senor Presidente - Accueil Wikipédia - 5 mai 2008

Les autres articles du dossier

  • 1/6 – Introduction
    Un projet pédagogique « de qualité ».
  • 3/6 – Le projet vu par un éditeur de Wikipédia
    Le point de vue d’un éditeur de Wikipédia, membre de « l’équipe des Articles de Qualité », ayant accompagné et soutenu les étudiants pendant la durée de leurs travaux.
  • 6/6 – Liens connexes
    Une sélection de liens francophones autour de Wikipédia et l’éducation.



Wikipédia et éducation : un exemple de réconciliation 6/6

Cet article clôt le dossier Wikipédia et éducation : un exemple de réconciliation.

Il propose une sélections de liens pour informer, débattre et aller plus loin.

Liens francophones connexes

Revue de « presse » de ce dossier

  • Wikipédia comme support de travail universitaire ? – Adrienne Alix – Compteurdedit – 17 février 2009
    « Il va encore plus loin en se demandant s’il est plus formateur et plus utile à un étudiant de savoir argumenter sur un sujet donné (cadre d’une dissertation) ou de savoir présenter les connaissances liées à ce sujet, d’être capable de faire des recherches sur un sujet, de synthétiser des sources, de confronter son travail au regard des autres et de travailler en collaboration. C’est le genre de débat qui créerait immédiatement des hurlements dans une assemblée d’enseignants, mais je crois que c’est très intéressant si on se demande un peu ce que Wikipédia peut apporter à l’enseignement universitaire. Le volet argumentation pure, très académique, est une chose sans doute essentielle à maîtriser. Mais l’écriture collaborative, avec des exigences de qualité formelle et de sourçage, la synthétisation du savoir existant, la confrontation au regard des autres, toutes ces choses qui sont le principe même du fonctionnement de Wikipédia, je crois très sincèrement que c’est une part de pédagogie qui n’existe pas dans l’enseignement et qui serait pourtant très bonne pour l’esprit et très utile dans le monde professionnel, où on argumente rarement par dissertation. »
  • Une expérience canadienne réconcilie Wikipedia et éducation – Mathieu Grégoire-Racicot – Le Quotidien Jurassien – 20 février 2009
    « Avenir et partage de la connaissance pour les uns, royaume du plagiat et l’opinion mal formulée pour les autres, l’encyclopédie collaborative Wikipedia a une réputation controversée, sulfureuse, spécialement dans le monde de l’éducation. Or une petite histoire, rapportée par le très fouillé et très actif Framablog, tenu par un professeur de lycée français, montre à quel point des projets pédagogiques pourraient se trouver enrichis, encadrés et davantage formateurs en utilisant Wikipedia, non comme une source, mais comme aboutissement de travaux de recherche. »

Autour de l’éducation

  • Projets pédagogiques – Wikipédia
    « Si vous êtes un enseignant dans une école ou dans une université, nous vous encourageons à utiliser Wikipédia dans votre classe non seulement comme source d’information mais comme espace de rédaction et de construction de connaissances. »
  • Wikipédia : la rejeter ou la domestiquer ? – Eric Bruillard – Médialog 61 – mars 2007
    « Le phénomène Wikipédia interpelle le monde enseignant. Quelle confiance peut-on accorder à une encyclopédie rédigée par ses lecteurs et dont les articles sont modifiés en permanence ? Quelle place l’École peut-elle lui faire ? »
  • D’un Club Histoire à un Club Wikipédia – Sylvain Négrier – septembre 2008
    « Quels usages vos élèves font-ils de Wikipédia ? Wikipédia est visiblement une source d’information importante pour eux. Sa valorisation par les moteurs de ucation-a-education-exemple-projet-pedagogique-6exemple-projet-pedagogique-6recherche (dont Google) en fait un point de départ quasi obligé. C’est particulièrement net pour les TPE et l’ECJS. Le problème majeur, mais ce n’est pas une découverte, c’est le manque de recul (voire de compréhension) de certains élèves. Cela leur joue parfois des tours : lors d’une composition à faire à la maison (…) Ceci dit les élèves ne sont pas totalement naïfs, et je les invite à exercer leur esprit critique, y compris envers ce que je leur enseigne : je ne me considère pas comme infaillible. »
  • Wikipédia et le cours d’histoire – Les Clionautes – septembre 2008
    « L’encyclopédie en ligne est devenue un des pôles majeurs sur le web, et une référence de choix pour beaucoup d’élèves et enseignants. Elle fait néanmoins l’objet de réticences et a suscité des débats très vifs ces dernières années. Ce premier article, qui prolonge la page Wikipédia en débats, a pour objectif de revisiter les étapes et les enjeux d’un débat très médiatisé, sur fond de divergences quant à la vision de la société et de l’éducation. Une réflexion sur la place de Wikipedia à l’école invite à interroger nos pratiques, et à proposer des pistes pragmatiques, à court et à moyen terme. »
  • L’histoire peut-elle être Open Source ? Les historiens et Wikipedia – Roy Rosenzweig (traduction Clioweb) – juin 2006
    « L’histoire est un art (un métier ?) éminemment individualiste. Les travaux signés d’une seule personne sont la règle dans la profession (…) Cet individualisme qui caractérise la recherche en histoire est aussi très possessif. Afin de travailler honnêtement, et éviter les accusations de plagiat, nous autres historiens devons attribuer idées et expressions à ceux qui les ont émises (…) Il est donc presque impossible d’envisager dans notre culture professionnelle des travaux historiques dénués de propriétaire, effectués par une multitude d’auteurs anonymes. C’est pourtant la définition exacte de Wikipedia. »
  • Wikipédia tente de pénétrer le milieu éducatif – François Jarraud – Café Pédagogique – décembre 2005
    « Le problème c’est que Wikipédia n’est malheureusement plus un outil recommandable pour les enseignants. Le projet, fort sympathique au départ, sert des intérêts qui suscitent des interrogations (…) Tant que la clarté ne sera pas faite sur le fonctionnement de Wikipédia et le ménage dans ses articles, nous déconseillons aux enseignants de l’utiliser avec les élèves. »
  • Wikipédia, une encyclopédie sans auteurs ? – Serge Pouts-Lajus – Les dossiers de l’Ingénierie Educative n°58 – juin 2007
    « Wikipédia est un projet apparemment sympathique. Il possède des qualités qui ne peuvent lui être contestées et auxquelles je suis, comme tout le monde, sensible : l’encyclopédie libre est utile, gratuite et d’accès facile. Mais justement, lorsqu’il s’agit de savoirs, d’œuvres de l’esprit et de culture, les considérations utilitaristes ne suffisent pas. Tant que l’on reste attaché au principe de responsabilité des individus et des collectifs particuliers relativement aux œuvres qu’ils produisent, il n’est pas possible d’adhérer à un tel projet. »
  • De sévères critiques de Wikipédia – Alithia – Blog : Wikipédia ou le mythe de la neutralité – janvier 2007
    « Cet article et le suivant qui le complète, cite un très grand nombre de critiques faites à wikipedia, par des professionnels de l’enseignement, de la recherche et de l’éducation. »
  • L’édition de référence libre et collaborative : le cas de Wikipédia – INRP – mars 2006 (le dossier complet en pdf)
    « Selon Cormac Lawler, Wikipedia n’est pas simplement une encyclopédie, ni même un nouveau modèle éditorial : le projet présente en effet les caractéristiques d’une organisation apprenante tant dans sa structure que dans son fonctionnement. A la lumière des recherches sur les communautés virtuelles ou les communautés de pratique, il identifie les éléments de convergence suivants : Wikipedia est auto-gérée, auto-sélective et auto-évolutive. Le potentiel de la communauté réside selon lui dans la promotion d’une pédagogie de la découverte et dans le développement de l’esprit critique nécessaire à son fonctionnement. Le conflit est perçu comme un ingrédient nécessaire à la négociation car il requiert une mise en perspective des différents points de vue et une prise en compte des différences culturelles (…) La confrontation des partis-pris culturels est un signe d’action critique manifeste dans un contexte où l’adhésion à la règle de neutralité est partagée et où la convivialité est assumée comme essentielle. »
  • Le phénomène Wikipédia : une utopie en marche – Christian Vandendorpe – Le Débat, no 148 – janvier 2008
    « Au lieu d’élever un pare-feu autour de Wikipédia, l’École aurait donc tout intérêt à s’en servir comme d’un outil pédagogique. Outil d’éducation pour apprendre à respecter le bien public et à ne pas vandaliser des articles ; outil de formation à la lecture critique, surtout, afin d’apprendre à ne pas prendre pour argent comptant tout ce qui s’écrit : en vérifiant la présence de sources crédibles, en comparant divers états d’un article, en comparant la version française avec des versions rédigées dans d’autres langues, en faisant des recherches complémentaires dans d’autres sources, numériques ou imprimées. Une telle attitude critique est plus nécessaire que jamais, alors que le mensonge et la dissimulation s’épanouissent dans la culture anonyme du web et que les plus hautes sphères de l’administration de pays qui se présentent comme des modèles de démocratie pratiquent la désinformation à grande échelle, comme on l’a vu lors de la campagne qui a conduit les États-Unis à envahir l’Iraq. »
  • Wikipédia, un objet problème en information-documentation – Pascal Duplessis et Laure Endrizzi – mai 2008
    « En premier lieu, certainement, Wikipédia s’affiche en tant qu’objet documentaire, support de ressources informationnelles, et dont l’usage doit pouvoir être garanti : l’information offerte, même si elle est gratuite et facilement accessible, est-elle pour autant « consommable », c’est-à-dire sans risque de préjudice pour la santé intellectuelle ? Si de nombreux collègues de discipline ne s’offusquent pas de cette incertitude, sans doute par insuffisance d’expertise, le garant de l’information documentaire en circulation dans l’établissement, lui, s’en inquiète. Quel statut accorder à cet apport d’information au regard des autres ressources disponibles dans ou à partir du CDI ? Quelles précautions prendre ? Quel type d’accompagnement proposer aux élèves ? Quel discours tenir au sujet de Wikipédia ? »
  • Wikipédia – Une encyclopédie libre, gratuite et écrite coopérativement – Alain Caraco – BBF – août 2004
    « Wikipédia est-elle l’encyclopédie qu’attendaient les bibliothèques publiques françaises ? J’aurais tendance à répondre oui et non à la fois. Non dans son état actuel : trop de domaines sont insuffisamment couverts, trop d’articles sont encore à l’état d’une ébauche rédigée hâtivement. Mais, très certainement, oui dans un état futur (…) La Wikipédia en ligne ne peut être qu’en travaux permanents. C’est une sorte de chaudron bouillonnant, où l’on produit la matière première, toujours instable. Des éditions stabilisées, monolingues ou multilingues, sur cédérom, sur papier ou en ligne pourraient en être dérivées. Elles pourraient même être vendues par des éditeurs commerciaux, avec de la valeur ajoutée, notamment en matière de présentation ou d’illustration. Ce modèle économique existe déjà pour les logiciels libres : on peut télécharger Linux auprès de la communauté des développeurs, ou bien acheter une version commerciale, avec un mode d’emploi et une assistance téléphonique. »
  • C’est rien qu’à cause de Wikipédia si nos enfants échouent ! – Framablog – octobre 2008
    « Hier on apprenait en Écosse que c’est Internet qu’il faut blâmer pour le taux d’échec aux examens (…) Wikipédia, parmi d’autres sources, était cité comme étant la raison pour laquelle les étudiants échouent. Est-ce que Internet les rend stupides ? Ou bien est-ce que les étudiants ont seulement besoin d’apprendre à utiliser les nouveaux outils de recherche du Web de façon plus appropriée ? »
  • Ceux qui disent non… à Wikipédia – Astrid Girardeau – Les Écrans – janvier 2008
    « Diaboliser et interdire des sites Internet sous prétexte que les étudiants n’utilisent pas assez leurs propres cerveaux et les contenus académiques, on a vu plus constructif et efficace. Quand on observe l’ergonomie ou la disponibilité des outils d’information académiques accessibles à l’université pour les étudiants, fait remarquer Ertzcheid, on comprend hélas très facilement pourquoi ils préfèrent utiliser Wikipédia ou Google. S’en désoler ne servira à rien. »
  • Wikipédia est un projet encyclopédique et un bien commun de l’humanité – Astrid Girardeau – Les Écrans – janvier 2008
    « Pour 1 enseignant ou 1 université interdisant d’utiliser Wikipédia, 100 autres forment les étudiants à son usage, les aident à décrypter ses contenus. Ce faux-procès en incompétence qui est de plus en plus souvent fait à Wikipédia est d’autant plus horripilant que Wikipédia affiche clairement sur sa page d’accueil le fait qu’elle ne doit pas être utilisée comme une source primaire d’information. »

Plus général

  • Wikipédia – Wikipédia
    « Comme l’indique la première ligne de sa page d’accueil, Wikipédia a pour slogan : Le projet d’encyclopédie librement distribuable que chacun peut améliorer. Ce projet est décrit par son cofondateur Jimmy Wales comme un effort pour créer et distribuer une encyclopédie libre de la meilleure qualité possible à chaque personne sur la terre dans sa langue maternelle (…) En revanche, Wikipédia n’a pas pour but de présenter des informations inédites. Comme pour les encyclopédies classiques, son ambition se limite à exposer des connaissances déjà établies et reconnues. Les travaux personnels ou originaux n’ont pas leur place dans Wikipédia. »
  • Critiques de Wikipédia – Wikipédia
    « Sébastien Blondeel, dans un livre sur Wikipédia, a écrit en 2006 : Wikipédia est un projet avec lequel il faudra compter. Et si les critiques commencent à se faire entendre, c’est paradoxalement plutôt bon signe : justifiées, elles permettent de prendre conscience des problèmes ; gratuites ou exagérées, elles confirment l’influence et le succès du projet. »
  • Wikipédia : constats et propositions – Nat Makarevitch – avril 2006
    « Ce document expose des problèmes et incohérences de Wikipedia, projet d’encyclopédie libre publiée sur le Web, dans le but de l’améliorer, non de dénigrer. Nous y montrons le caractère abusif de certaines actions menées par certains contributeurs. »
  • WikiGrill – Les articles de Wikipédia passés sur le gril de Books
    « Pour remarquable qu’elle soit, et globalement salutaire, l’entreprise Wikipédia invite à la critique. Si beaucoup d’articles de cette encyclopédie d’inspiration démocratique sont de grande qualité, d’autres ne résistent pas à un examen attentif. Soit parce que leur contenu est léger ou inconsistant, soit parce qu’il est manipulé, parfois avec une grande habileté, par des internautes ou des lobbies qui défendent un intérêt. Or, Wikipédia est devenu le premier mode d’accès au savoir pour les jeunes et les moins jeunes qui, sans avoir reçu de formation universitaire poussée, naviguent quotidiennement sur le web. Avec sa rubrique WikiGrill, Books souhaite attirer l’attention sur l’existence de biais qui influencent de manière plus ou moins cryptée la qualité ou l’objectivité de certains articles de Wikipédia. »
  • La réponse de Sylvain Négrier à l’initiative WikiGrill (décembre 2008) : Une lecture critique de Wikigrill
    « Les wikipédiens s’interrogent depuis longtemps sur ce qu’est un bon article. Ils ont défini progressivement deux labels, attribués après un vote des contributeurs, représentant chacun un palier dans le niveau des articles. Il s’agit du label Article de Qualité, le plus prestigieux, pour le moment décerné à un peu plus de 500 articles, et du label Bon Article, qui concerne près de 500 articles et qui récompense ceux qui sont satisfaisants mais qui paraissent encore améliorables. Les conditions d’attribution de ces labels se sont considérablement durcies ces derniers mois, au grand dam de certains wikipédiens, essentiellement pour que ces articles, proposés comme vitrine de Wikipédia (notamment en page d’accueil), puissent échapper aux critiques les plus évidentes. Cela ne constitue toutefois pas une garantie totale : ces articles ne sont que très rarement relus par d’authentiques spécialistes, et les discussions lors des votes se portent assez volontiers sur les aspects formels. Il aurait donc été particulièrement intéressant que les auteurs de Wikigrill™ s’attachent prioritairement à ces articles labellisés. Sont-ils réellement d’un bon niveau ? La procédure d’attribution des labels telle qu’elle existe est-elle à même de repérer les meilleurs articles ? Ne faudrait-il pas la remplacer par une relecture par un/des spécialiste(s) ? »
  • La réponse de Jean-Claude Guédon à l’initiative WikiGrill (janvier 2009) : Wikipedia ? Moi, j’aime plutôt bien
    « Wikipedia n’est pas un produit textuel fixe offert à la consommation; il s’agit d’un processus incessant qui nous convie à la table du plus grand banquet intellectuel jamais construit dans l’histoire de l’humanité. Déjà étonnamment utile, essayons d’imaginer ce que ce sera dans dix ou vingt ans. »
  • L’encyclopédie de non-référence – Denis Berger – février 2005
    « On sait que l’idée de Wikipedia, comme sa licence LGPL, viennent de l’univers du logiciel libre, tendance Stallman, et visent à reproduire dans le domaine de la connaissance ce qui a si bien réussi dans celui de l’informatique : l’élaboration d’un bien commun par la participation de tous, en fonction des moyens de chacun, puisque tout un chacun est présupposé dépositaire d’une parcelle de connaissance qui, si menue soit-elle, est susceptible d’intéresser l’ensemble. Mais la ressemblance entre un programme et une encyclopédie se limite au fait que, dans un cas comme dans l’autre, il faut commencer par les écrire ; le programme, lui, ensuite, s’exécute, et dispose donc de son propre système de correction d’erreurs, brutal mais efficace : s’il est mal écrit, il plante. Il offre donc, paradoxalement pour un logiciel libre par définition livré sans, une garantie quant à son fonctionnement, la disponibilité des sources comme des programmeurs permettant, de plus, en l’espèce, de résoudre rapidement les problèmes. Autrement dit, l’exportation de ce concept, tel qu’il est présenté, vers un projet encyclopédique se révèle privé de pertinence puisque, là, rien, en dehors d’une éventuelle relecture d’un participant qui pourra peut-être se trouver contredite un peu plus tard par un autre, ne garantit la qualité de l’information publiée ; ici, le mécanisme cumulatif et automatique qui permet l’amélioration continue du logiciel libre ne joue pas.  »
  • Inside Wikipédia – Camille Gévaudan – Les Écrans – juillet 2008
    « Ecrans.fr s’invite à l’intérieur de Wikipédia et vous propose d’aller voir comment un projet aussi pharaonique peut fonctionner au quotidien. »
  • Wikifeuilleton – Le Tigre
    « Les coulisses de l’encyclopédie collaborative Wikipedia. »
  • À propos de Wikipédia – Rui Nibau – Framasoft – mars 2006
    « Ici, je n’ai fait que voir un verre à moitié vide en n’abordant qu’un unique aspect des critiques formulées à l’encontre de Wikipédia. D’autres internautes peuvent – à juste titre – le voir à moitié plein. A un moment de son histoire où l’encyclopédie acquiert une visibilité croissante dans d’autres médias, et attire donc l’attention d’acteurs aux intérêts divergents, l’avenir proche nous dira si ce verre finira par se remplir ou par se briser. » (et la réponse de Nojhan : Wikipédia, l’encylopédie asymptotique)
  • Wikipédia : le refus du pouvoir – Mémoire de fin d’étude de Sylvain Firer-Blaess – Institut d’Etudes Politiques de Lyon – 2006/2007
    « Wikipédia refuse le pouvoir : elle refuse la possession de l’information aux plus fortuné, en rendant l’information libre. Elle refuse aussi la production du savoir par quelque uns, en donnant ce pouvoir à tous. Elle refuse dans son organisation les statuts spéciaux, elle refuse la centralisation de la surveillance et de la décision. Ainsi elle dissout le pouvoir et en donne une parcelle à chacun : le pouvoir de décider, le pouvoir de créer le savoir, le pouvoir de s’informer. Elle empêche ainsi fortement les processus de domination dans son organisation interne. Elle a aussi un impact sur le monde réel, impact certes minime, mais donner la possibilité aux personnes qui disposent d’une connexion internet de disposer d’un savoir libre et gratuit, c’est déjà quelque chose. »
  • D’Amour & de Neutralité : Ce(ux) qui résiste(nt) – Martin Erpicum – Mémoire universitaire – juillet 2005
    « L’objet empirique de ce mémoire est l’encyclopédie libre Wikipédia. De tout temps, les encyclopédies ont été un support à l’apprentissage d’un intérêt certain. L’apparition d’un type d’encyclopédie rédigée coopérativement par des pairs sur le réseau Internet a entraîné bon nombre de questionnements : critères de validation de la connaissance, contrôle des actes de vandalisme, régulation des contributeurs, etc. Afin d’éclairer en partie ces questionnements, le présent travail va tenter de décrire les pratiques de régulations inhérentes à la tâche de rédacteur encyclopédique, et de rendre compte des contraintes et normes émergentes qui encadrent l’activité des pairs. »

Succincte bibliographie

  • « Wikipédia, Découvrir, utiliser, contribuer » – Florence Devouard et Guillaume Paumier – Presses universitaires de Grenoble – janvier 2009
    « Ce livre vous guide à la découverte de cette gigantesque fourmilière et vous explique comment utiliser efficacement son contenu. Il vous incite ensuite à devenir acteur et à participer à la rédaction de l’encyclopédie, quels que soient votre âge et vos domaines de compétences. »
  • Wikipédia, Média de la connaissance démocratique ? Quand le citoyen lambda devient encyclopédiste – Marc Foglia – FYP Éditions – novembre 2007
    « Cherchez n’importe quel mot sur Google… Les deux premières pages de résultat, celles qui comptent, renvoient presque invariablement à un article de Wikipédia. Comment cette encyclopédie d’un nouveau genre s’est-elle installée comme une source universelle de connaissance, et désormais comme un réflexe intellectuel ? L’origine de ce phénomène, son fonctionnement et son évolution fulgurante sont autant d’appels à la réflexion.Wikipédia c’est la dématérialisation de la connaissance et la progression de son accessibilité : peut-on parler d’un nouveau média ? d’une Toile dans la Toile ? Que devient la propriété intellectuelle dans ce partage gratuit de la connaissance ? Pourra-t-on parler d’une « génération Wikipedia » ? Quels sont les risques que fait courir l’encyclopédie libre à la connaissance, au jugement et à l’esprit critique ? Ces interrogations nous permettent d’éclairer d’autres phénomènes contemporains comme le travail collaboratif en réseau, la frontière entre biens marchands et biens non-marchands, la frontière entre travail et bénévolat, la démocratie à l’ère du numérique, etc. Par une approche critique, philosophique et sociologique, l’ouvrage analyse en profondeur cette « l’encyclopédie collaborative » comme un phénomène émergent, comme expression de tendances de fond de la modernité au XXIe siècle, et une innovation remarquable susceptible d’éclairer d’autres évolutions de la société contemporaine. »
  • Wikipédia – Comprendre et participer – Sébastien Blondeel – Eyrolles – avril 2006
    « Qui n’a entendu parler de Wikipédia, l’encyclopédie collaborative de l’Internet la plus vaste et la plus consultée ? Qui ne connaît ce projet international auquel des experts de tous domaines contribuent ? Née en 2001, Wikipédia compte plus de trois millions d’articles début 2006, 120 langues actives, un million d’articles en anglais, 250 000 en français. Ce livre explique comment l’explorer et y participer, dans quelles limites réutiliser son contenu et quels sont ses secrets de fonctionnement (financement, contexte politique). »

El Senor Presidente - Accueil Wikipédia - 5 mai 2008

Les autres articles du dossier

  • 1/6 – Introduction
    Un projet pédagogique « de qualité ».
  • 3/6 – Le projet vu par un éditeur de Wikipédia
    Le point de vue d’un éditeur de Wikipédia, membre de « l’équipe des Articles de Qualité », ayant accompagné et soutenu les étudiants pendant la durée de leurs travaux.
  • 6/6 – Liens connexes
    Une sélection de liens francophones autour de Wikipédia et l’éducation.



Quand Serge Soudoplatoff nous parle d’Internet

Quand Serge Soudoplatoff nous parle d’Internet (et des mutations organisationnelles qu’il engendre) c’est non seulement accessible au grand public mais c’est surtout tout à fait passionnant.

Très à l’aise devant son auditoire, Serge Soudoplatoff réussit la gageure de partir un peu dans tous les sens (avec exemples, citations et anecdotes à l’appui) tout en restant cohérent avec sa ligne directrice.

Une intervention de 45 minutes donnée le 4 juillet 2008 au CEDAP et intitulée : « Comment Internet change nos organisations »

—> La vidéo au format webm

Pour en savoir plus sur l’auteur, rendez-vous sur son blog et en attendant voici une courte et caustique présentation telle qu’elle apparait sur AgoraVox.

Serge Soudoplatoff est vraiment né le 27 décembre 1954 par une longue nuit d’hiver. Les loups hurlaient dans la steppe. Sa mère, bretonne, lui apporta le goût du beurre et son père, russe, celui de la vodka. Cela perdure.

Après des études très primaires, qui devinrent vite secondaires, c’est en passant à Paris dans la rue de la Montagne Ste Geneviève en septembre 1973 que, la porte étant ouverte, il entra par hasard dans une prestigieuse école française. A sa sortie, trois ans plus tard, il se dirigea vers la cartographie, confondant dessiner le monde et le changer. Après 5 ans de recherches et de voyages à l’Institut Géographique National, il décida de quitter le traitement de l’image pour s’intéresser à celui de la parole dans un centre de recherche français, et américain, d’un grand constructeur d’ordinateurs. Après 5 ans de voyages et de recherches à IBM, il décida que la parole à une dimension ne valait pas mieux que l’image à deux, et se résigna à ne plus traiter que des problèmes ponctuels, en devenant directeur d’un centre de recherche en informatique dans une grande SSII. Après 5 ans à Cap Gemini Innovation, il alla mettre en réseau le monde de la recherche et celui des entreprises dans une association, le Cercle pour les projets Innovants en Informatique. C’est là qu’il comprit le passage de l’information à l’innovation, l’articulation entre l’informatique et la sociologie et la psychologie.

Ceci le fit bizarrement atterrir à la direction de l’innovation de France Telecom, où il s’est employé pendant trois ans à rendre concrètes les profondes mutations qu’engendre le monde Internet.

Il a finalement décidé de se muter lui-même en devenant fondateur d’une entreprise en essaimage de France Telecom, Highdeal, puis en créant Almatropie, dédiée à convaincre de l’importance d’Internet.




J’avais vingt ans, je voulais écrire un opéra et changer le monde

Takacsi75 - CC byJ’aurais pu intituler ce billet « Affaire étrangère, l’opéra très libre de Valentin Villenave » mais j’ai préféré garder la première phrase issue de l’article du blog de son auteur présentant le projet, article qui m’a tant séduit que je me suis permis de le reproduire en intégralité ci-dessous.

Pour ce qui est de changer le monde, nous attendrons encore un peu (mais nous acceptons d’ores et déjà bien volontiers de l’accompagner). Par contre il ne lui aura pas fallu plus de quatre ans pour voir le rêve se concrétiser puisque la ville de Montpellier vient tout récemment d’accueillir les premières représentations de son opéra (dont vous trouverez tous les détails dans ce document).

Pourquoi évoquer cette œuvre sur le Framablog ? D’abord parce qu’il y a des outils et des licences libres dans les coulisses. En effet c’est sous l’éditeur musical LilyPond qu’ont été conçues les partitions de l’opéra[1]. Et puis surtout l’ensemble de l’opéra est placée sous une licence originale, créée m’a-t-il semblé pour l’occasion, la Libre Opera License v.0.2, savant mélange de GNU GPL et de Creative Commons By-Nc-Sa (on se retrouve avec cette double licence parce que, à ce que j’ai compris, LilyPond fonctionnant un peu comme LaTeX, les sources sont sous GPL mais les compilations sont sous CC By-Nc-Sa).

Mais au delà du choix des logiciels et des licences libres (ou ouvertes), c’est surtout l’état d’esprit de Valentin qui m’a impressionné. Je n’en ferai pas un quelconque porte-drapeau mais à 24 ans il témoigne je crois de cette nouvelle génération qui souhaite profiter des nouvelles technologies bien plus pour partager que pour consommer, n’en déplaise à ceux qui aujourd’hui se cramponnent aux rênes de toute l’industrie culturelle et musicale.

PS : Je crois savoir que Valentin Villenave est un lecteur assidu du Framablog. Autrement dit n’hésitez pas à l’encourager et/ou lui poser quelques questions dans les commentaires (par exemple sur son choix de la clause non commerciale), je suis certain qu’il se fera la gentillesse de venir y répondre.

Chronique d’une étrange affaire

URL d’origine de l’article

Alors, voilà.

J’avais vingt ans; je voulais écrire un opéra. Et changer le monde.

De l’influence déplorable du cinéma de René Clair sur une jeune âme trop imaginative.

Dans un de mes films préférés (Les Belles de nuit, René Clair, 1952), Gérard Philipe incarne un jeune professeur de piano, en décalage avec une société contemporaine bureaucratique, conformiste, inhumaine ; tout change subitement le jour où l’on apprend qu’il a écrit… un opéra. Comme par magie, le monde s’illumine alors, les regards se font respectueux, et le héros trouve enfin sa place parmi les personnages, unis dans une même allégresse.

Tel est pour moi l’opéra : un mot magique. Une légitimité, des lettres de noblesse : devenir quelqu’un.

À l’âge de vingt ans (c’était il y a quatre ans), j’avais écrit quelques pièces instrumentales d’envergure très modeste, et qui n’avaient pour ainsi dire jamais été jouées. Je gagnais ma vie – c’est encore le cas – en donnant des cours de piano dans une obscure banlieue parisienne, et j’écrivais chaque année, littéralement, des centaines de petits morceaux dans les cahiers de mes élèves, qui partaient ensuite à tous les vents.

Depuis des années, j’avais été pour ainsi dire adopté par une petite compagnie d’opéra, dont j’avais été le tourneur de pages puis l’accompagnateur en titre, et qui montait chaque année des pièces du grand répertoire, le plus souvent en partenariat avec les écoles du voisinage (où les écoliers, après avoir assisté à une répétition lyrique, posaient souvent des questions judicieuses telles que « pourquoi le monsieur crie comme ça ? »).

Sans vraiment y croire, je caressais l’envie de leur écrire un opéra, en signe de gratitude. Je m’étais mis à la recherche d’un livret qui soit percutant et rythmé – pas évident à trouver dans le théâtre contemporain.

Entrée en scène de Lewis Trondheim, et ce qui s’ensuivit.

Je connaissais l’œuvre de Lewis Trondheim depuis l’âge de dix ans, où j’écumais chaque semaine les rayons bande dessinée de la bibliothèque municipale. Des formidables aventures de Lapinot, qui revisitaient la bande dessinée animalière enfantine avec un humour absurde et satirique, j’étais passé à ses œuvres les plus avant-gardistes –- car Lewis n’était pas que drôle et accessible à tous, mais également en perpétuelle quête de renouveau et d’expérimentation formelle, toujours dans un esprit ludique.

Cet auteur complexe et attachant avait une propension à susciter chez ses fans un véritable culte, auquel je n’ai pas échappé. À vingt ans, j’avais méticuleusement lu la totalité de son œuvre, au besoin en téléchargeant ses albums illégalement sur Internet. Je poursuivais à l’époque, à tout hasard, une maîtrise de Lettres modernes consacrée à son œuvre ; un jour il m’apparut comme une évidence que je ne souhaitais pas tant travailler sur Lewis Trondheim que travailler avec lui.

Peu d’auteurs confirmés et reconnus répondraient à un jeune inconnu qui leur propose de participer à l’écriture d’un opéra ; c’est pourtant ce qui se produisit. Lewis Trondheim accepta immédiatement et avec enthousiasme, et me proposa de partir de l’album Politique étrangère qu’il avait réalisé en 2001 avec Jochen Gerner. Dans son œuvre, toujours influencée par la bande dessinée animalière, c’était une exception : les personnages étaient des êtres humains. De plus, cette histoire de château me renvoyait à toute une tradition opératique (La Clémence de Titus de Mozart, par exemple), entrecroisée en l’occurrence avec Jarry, Ionesco… et un tantinet des Marx Brothers.

Bref, nous nous retrouvions à pied d’œuvre, sans aucune certitude quant à une hypothétique concrétisation du projet, faute de moyens, et en tentant de limiter le nombre de décors et de personnages.

Le livret faisait l’objet d’un véritable ping-pong de courriers électroniques entre Lewis et moi-même (nous ne nous étions jamais rencontrés ni téléphoné). Ouvert à mes suggestions mais sans complaisance, il avait très vite compris la problématique bien particulière de l’opéra, genre tout aussi hybride que la bande dessinée : le texte et la musique participent de façon complémentaire à la construction du sens, et il faut constamment veiller à ce que l’un n’affaiblisse pas l’autre (soit parce que trop insignifiant, soit au contraire parce que trop chargé de sens).

En peu de temps, deux événements vinrent changer complètement la tournure du projet. Le premier fut le décès tragique, à l’été 2005, du metteur en scène de la compagnie, Michel Blin, à qui je dois tout ce que je sais sur l’opéra, et à qui cette œuvre est dédiée. Le second, plus insignifiant, fut que Lewis Trondheim se vit récompenser, début 2006, par le Grand Prix du festival de bande dessinée d’Angoulême.

Les chanteurs de la compagnie eux-mêmes me pressèrent de profiter de cette occasion pour présenter mon projet à une structure plus officielle, et lui donner ainsi une nouvelle envergure. Un dimanche de février, j’envoyai sans trop y croire un mail à l’opéra de Montpellier (simplement parce que c’était la ville de mon librettiste) ; deux heures plus tard, M. René Koering me répondait que l’Opéra se ferait une joie de créer ce projet…

Éléments (en vrac) d’une esthétique (en chantier).

Je ne m’acquitterais pas du minimum syndical sans insérer ici quelques mots sur mon écriture, quitte à enfoncer pas mal de portes ouvertes. Suivant les (rares) personnes à qui j’ai pu la montrer, ma musique suscite les réactions les plus diverses, tantôt qualifiée de dissonante et inaudible, tantôt à l’inverse, de facile, insipide et réactionnaire. J’imagine que mon esthétique (s’il y en a une) se situe quelque part entre les deux – sans espoir de savoir où.

Les répertoires que j’ai joués et lus, certainement, transparaissent, à commencer par les opéras du XVIIIe siècle (Mozart), dont je me sens plus proche que ceux du XIXe siècle. En particulier, la rigueur formelle est pour moi une obsession ; toutes les structures de la pièce, du nombre de tableaux, de mesures, de temps, aux dispositions vocales et instrumentales, ont donné lieu à des contraintes et des jeux mathématiques.

La mise en valeur du texte est un travail avant tout rythmique : dégager de la prosodie les accents, les structures rythmiques, les gestes de tension et de détente (c’est la base de toutes les musiques parlées, de la mélopée antique au rap) ; je les ordonne ensuite suivant des principes très formels, puis les renforce par des motifs mélodiques et harmoniques, toujours suivant des contraintes arbitraires : modes, rapports d’intervalles, etc.

Un autre de mes soucis est de tout faire pour faciliter la vie des interprètes. À commencer par la notation : une partition doit faire sens au premier coup d’œil, sans nécessiter de mode d’emploi. Une certaine musique « contemporaine » arbore sa propre complexité avec fierté, et fait appel à des notations extrêmement complexes (en particulier d’un point de vue rythmique) ; même si je ne suis pas indifférent à la beauté étrange de tels objets, et que je ne nie aucunement leur apport au renouveau des langages musicaux, je crois qu’il est important que la musique « savante » n’en vienne point à se réduire à de telles écritures : faute de quoi elle cessera inéluctablement d’être pratiquée et appréciée par les « simples » citoyens, pour ne demeurer que l’apanage d’une poignée de spécialistes. L’idée d’« être compliqué pour être moderne » n’est ni sage, ni courageuse.

Où l’auteur se hasarde à quelques considérations coupablement politiques.

Je ne sais si je peux me prétendre compositeur ou même musicien ; mais je veux vivre et agir en citoyen.

Puisque j’en suis à accumuler les clichés, je veux mentionner qu’il m’a été donné d’avoir vingt ans à Paris en étant payé deux fois moins que le seuil de pauvreté ; il m’a été donné de chercher un logement des mois durant, en expliquant que j’étais prof de piano, ou bien étudiant, à tout hasard et sans plus de succès ; il m’a été donné de connaître de près notre beau pays où se fait chaque jour plus palpable la peur et la haine des uns à l’égard des autres : riches et pauvres, vieux et jeunes, et ainsi de suite.

De tous ces écartèlements, celui de la culture et de la création m’interpelle le plus. Les dichotomies arbitraires n’y manquent pas : culture du passé contre culture dite actuelle, pratique amateur contre prétendu professionnalisme, art contemporain contre art soi-disant populaire, j’en passe et des meilleures.

J’aimerais croire que de tels morcellements ne profitent à personne. Ce serait hélas ignorer les nombreux enjeux politiques, économiques et médiatiques ; la culture est un champ de bataille où toute initiative doit être défendue pied à pied contre les clichés, les entreprises de ringardisation ou de récupération.

En faisant appel à un auteur de bande dessinée, j’étais bien sûr mû par l’espoir mal dissimulé, sinon de faire sauter quelques barrières, d’amener à l’opéra (et à la musique contemporaine) des publics « non-initiés ». Mais cela ne suffisait pas.

Pour un renouveau des modèles de création.

Nous nous trouvons aujourd’hui face à une situation inédite et merveilleuse : les données immatérielles sont potentiellement accessibles à tous et en tous lieux. Cet immense progrès pourrait être pour les citoyens du monde la promesse de se réapproprier la culture et la connaissance ; au lieu de quoi une poignée d’intérêts privés font de la technologie un outil d’asservissement et de propagation des inégalités. En particulier, l’escroquerie baptisée Propriété Intellectuelle consiste à nous vendre des idées comme l’on vendrait des saucisses.

Hélas ; sans-doute suis-je d’une génération qui ne peut plus se satisfaire d’impostures, à commencer par le terrifiant processus qui conduit aujourd’hui les citoyens à se voir privés de leurs libertés fondamentales, au nom d’une prétendue « protection » des auteurs. Il importe d’agir, non seulement pour que la culture puisse continuer à vivre et à se diffuser, mais également pour préserver notre démocratie même.

Pour ces raisons, Lewis Trondheim et moi-même avons voulu faire un geste symbolique en publiant notre ouvrage sous une licence alternative, qui autorise tout un chacun non seulement à le reproduire, mais également à le diffuser et à le modifier à volonté. La partition est entièrement conçue au moyen du logiciel libre GNU LilyPond, développé depuis treize ans par une communauté de bénévoles enthousiastes, qui constitue pour les musiciens du monde entier l’espoir immense d’accéder librement à toutes les musiques écrites ; plus simplement, c’est pour moi la garantie que les partitions que j’écris sont et demeureront libres et adaptables par tous les interprètes, enseignants, élèves, qui y trouveront le moindre intérêt.

Une œuvre n’appartient à personne, pas plus qu’un enfant n’appartient à ses parents. On peut l’élever du mieux que l’on peut, puis vient un jour où il faut lui souhaiter une longue vie, et le regarder s’éloigner. Je crois que ce moment est venu pour moi.

À Lewis comme à moi-même, restera le souvenir d’une expérience grandiose, et la fierté d’être parvenus à réaliser un projet irréaliste.

Et puis, faut quand même dire qu’on s’est bien marrés.

Valentin Villenave, janvier 2009

Notes

[1] Crédit photo : Takacsi75 (Creative COmmons By)




Ou toute autre version ultérieure de la licence…

Cambodia4kidsorg - CC byCe billet est un peu technique, au sens juridique du terme, mais la problématique abordée est loin d’être inintéressante (et n’étant pas des spécialistes comme Veni Vidi Libri, nous vous remercions par avance des précisions, compléments et corrections que vous apporterez dans les commentaires).

Il évoque les risques potentiels encourus par une création (logicielle, culturelle, etc.) à adopter une licence portant la mention « ou toute autre version ultérieure » (de la-dite licence). Dit autrement, il s’agit de la confiance que vous, auteurs ou utilisateurs, accordez à ceux qui rédigent la licence choisie, puisque vous vous engagez ainsi non seulement au moment présent mais également dans le futur, avec une licence susceptible d’être modifiée au cours du temps. Ce que vous créez ou utilisez aujourd’hui peut donc ne pas suivre exactement les mêmes règles demain.

Prenons l’exemple de la plus célèbre des licences de logiciels libres, la GNU General Public License (ou GNU GPL). Voici ce que l’on peut lire dans la traduction non officielle du paragraphe 9 de la version 2 datant de 1991 :

La Free Software Foundation se réserve le droit de publier périodiquement des mises à jour ou de nouvelles versions de la Licence. Rédigées dans le même esprit que la présente version, elles seront cependant susceptibles d’en modifier certains détails à mesure que de nouveaux problèmes se font jour.

Chaque version possède un numéro distinct. Si le Programme précise un numéro de version de cette Licence et « toute version ultérieure », vous avez le choix de suivre les termes et conditions de cette version ou de toute autre version plus récente publiée par la Free Software Foundation. Si le Programme ne spécifie aucun numéro de version, Vous pouvez alors choisir l’une quelconque des versions publiées par la Free Software Foundation.

Donc si vous placez votre logiciel sous GNU GPL sans préciser la version ou en version 2 avec la mention « ou toute version ultérieure », alors « vous avez le choix de suivre les termes et conditions de cette version ou de toute autre version plus récente publiée par la Free Software Foundation », version plus récente dont on nous assure, et c’est là que ça peut coincer, qu’elle sera « rédigée dans le même esprit ».

Or, justement, dans l’intervalle, la GNU GPL est passée en version 3 en 2007 (sa version actuelle). Extrait de la FAQ de cette nouvelle version, à la question Pourquoi les programmes doivent-ils se référer à « la version 3 de la GPL ou toute version ultérieure » ? :

De temps en temps, après quelques années, il nous arrive de modifier la GPL—quelquefois simplement pour éclaircir un point, quelquefois pour autoriser certaines utilisations alors qu’elles ne l’étaient pas auparavant, et quelquefois pour renforcer une exigence. (Les deux derniers changements datent de 2007 et 1991). L’utilisation de ce « pointeur indirect » dans chaque programme nous permet de changer les conditions de distribution de l’ensemble des logiciels GNU, lorsque nous modifions la GPL.

Si aucun programme ne contenait ce pointeur indirect, nous serions forcés de longuement discuter du changement avec de très nombreux détenteurs de copyright, ce qui serait virtuellement impossible. En pratique, la probabilité d’aboutir à un mode de distribution unifié pour les logiciels GNU serait nulle.

Supposez qu’un programme dise « Version 3 de la GPL ou toute version ultérieure » et qu’une nouvelle version de la GPL soit publiée. Si la nouvelle version de la GPL donne une permission supplémentaire, cette permission est immédiatement disponible pour tous les utilisateurs du programme. Mais, si la nouvelle version de la GPL comporte une exigence plus restrictive, cela ne limitera pas l’utilisation de la version courante du programme, car ce dernier peut toujours être utilisé sous GPL Version 3. Lorsqu’un programme dit « Version 3 de la GPL ou toute version ultérieure », les utilisateurs seront toujours autorisés à l’utiliser, et même à le modifier, selon les termes de la GPL Version 3—même après que d’autres versions de la GPL auront été rendues disponibles.

Si une exigence plus forte dans une nouvelle version de la GPL n’est pas obligatoire pour les logiciels existants, à quoi sert-elle ? Lorsque la version 4 de la GPL est disponible, les développeurs de la plupart des programmes sous GPL distribueront les versions suivantes de leur programme en spécifiant « Version 4 de la GPL ou toute version ultérieure ». Les utilisateurs devront se conformer aux clauses plus restrictives de la GPL Version 4, pour les versions suivantes de ce programme.

Les développeurs ne sont toutefois pas dans l’obligation d’agir ainsi ; ils peuvent continuer à autoriser l’utilisation de la version précédente de la GPL, si c’est leur souhait.

Le fait qu’une licence évolue n’est en rien critiquable puisque depuis 1991 il s’en est passé des choses dans le monde numérique (à commencer par l’avènement d’Internet). De plus cette nouvelle version a été le fruit d’un long processus de concertation publique (voir la lettre de Chris Frey plus bas), la FSF ayant le souci de donner confiance et ne pas donner l’impression qu’on lui signait un chèque en blanc pour les « versions ultérieures » de ses licences.

Il n’empêche que ces modifications « rédigées dans le même esprit » sont laissées à la libre appréciation de chacun. C’est ainsi que Linus Torvalds, conformément au dernier paragraphe de notre extrait ci-dessus, n’a toujours pas passé le noyau Linux en GPL v3 et préfère rester en GPL v2, au grand dam de la FSF.

Mais prenons désormais l’exemple d’une autre licence de la FSF, la GNU Free Documentation License (ou GNU FDL). À l’origine cette licence avait été pensée pour la documentation de logiciels libres mais elle a été adoptée, faute d’existence d’autres licences mieux adaptées à l’époque, par le poids lourd de la culture libre que constitue l’encyclopédie Wikipédia.

Or, depuis, une licence clairement mieux adaptée est apparue : la licence Creative Commons By-Sa[1]. Ces deux licences n’étant pas compatibles, que pouvait-on faire ? C’est justement la réponse à cette question que nous avons évoqué dans notre récent billet dédié : Wikipédia en route vers la licence Creative Commons By-Sa. Ce billet explique pourquoi et comment la FSF a accepté de modifier sa licence GNU FDL (version intermédiaire 1.3) pour que Wikipédia puisse légalement passer sous Creative Commons, passage justement rendu possible parce que la licence de Wikipédia est la GNU FDL sans mention de version (acceptant donc implicitement « toute version ultérieure » de la licence).

Le problème c’est que contrairement au passage de la GNU GPL de la version 2 à la version 3, il n’y a pas eu de concertation publique et de long processus de maturation transparent et « démocratique ». De plus les modifications apportées ont clairement été rédigées dans l’unique but de satisfaire la Wikimedia Foundation (et Creative Commons) puisqu’elles ne s’adressent qu’aux wikis crées avant novembre 2008 qui ont jusqu’en juin 2009 pour se décider à migrer. Une mise à jour « sur mesure » en quelque sorte.

Aussi nobles soient les intentions des uns et des autres, il y a tout de même ici un peu d’arbitraire et d’opacité aussi bien sur le fond que dans la forme. C’est ce que critique Chris Frey dans cette « lettre ouverte à Richard Stallman » que nous avons choisi de traduire et vous proposer ci-dessous, accompagnée par la réponse toute aussi ouverte de Richard Stallman.

Lettre ouverte à Richard Stallman

Open Letter to Richard Stallman

Chris Frey – 4 novembre 2008 – Advogato.org
(Traduction Framalang : Olivier, Siltaar et Don Rico)

Cher M. Stallman,

Je vous écris pour exprimer la déception que j’ai ressentie à l’égard de la Free Software Foundation par rapport à la publication récente de la version 1.3 de la GNU Free Documentation License .

Cette nouvelle version introduit à la section 11 une nouvelle clause qui, selon la FAQ, accorde aux wikis le droit de modifier la licence de certains contenus pour les faire passer de la licence GFDL 1.3 à la licence CC-BY-SA 3.0, pour les ajouts datant d’avant le 1er novembre 2008. Ils peuvent appliquer ce changement de licence jusqu’au 1er août 2009.

Cela constitue à mon sens une erreur morale importante et un abus de confiance. Même si cette nouvelle clause n’est pas dangereuse, elle n’en reste pas moins mauvaise.

Il y a de nombreuses années, j’ai lu des critiques visant les recommandations quant à l’application de la licence GNU GPL aux logiciels. On critiquait la formule « version 2 of the License, or (at your option) any later version » (NdT : version 2 de la licence, ou, selon votre choix, toute version ultérieure) avançant l’argument que cette formulation conférait trop de pouvoir à la FSF, et que cela revenait à signer un chèque en blanc permettant le détournement futur de l’œuvre licenciée.

Ces critiques ont à mes yeux perdu de leur sens après que j’ai été témoin de la transparence et de l’attention extrême portée à la rédaction de la nouvelle GPL version 3. Tous les commentaires furent enregistrés sur un site Web et débattus de manière tout à fait transparente. La rédaction a été longue et méticuleuse, réalisée en prenant en compte l’opinion des utilisateurs de la licence, et dans l’objectif de servir l’intérêt des logiciels libres. C’était magnifique.

Je commençais à comprendre les avantages d’une licence ouverte. J’avais compris les intentions de la FSF. Ils ne fléchissaient pas concernant les principes des logiciels libres, mais au contraire se montraient toujours plus fermes. Seule la FSF pouvant modifier la GPL, et étant donné le sérieux de sa méthode pour la mettre à jour, je me suis dit que je pouvais lui accorder ma confiance.

Hélas, ce changement apparemment précipité apporté à la GFDL vient tout gâcher. Cette modification va à l’encontre de la clause tacite selon laquelle c’est l’auteur qui choisit la licence pour son travail, mais elle introduit en outre un nouvel acteur. Non seulement la FSF peut changer les termes de la GFDL, mais voilà que la Creative Commons Corporation peut à présent modifier les termes qui régissent des travaux plus anciens auparavant placés sous GFDL.

Fort heureusement, cette situation ne durera que jusqu’au 1er août 2009. Mais les anciens wikis placés sous GFDL ont désormais une double licence.

Peut-être ai-je vécu coupé du monde légal, mais je n’ai pas non plus vu d’appel à contribution pour cette révision. Si je l’ai manqué, je regrette de n’avoir pu donner mon avis plus tôt. Si la période de discussion était plus courte, voire inexistante, c’est une faille dans le processus de mise à jour de la GFDL, et j’espère que la FSF y remédiera.

Concrètement, cette requalification de licence importe peu. Le cadre de ce qui peut être soumis à une requalification de licence est bien délimité, et ces deux licences ont en gros la même fonction. Certains auteurs ont peut-être préféré la GFDL à la licence CC-BY-SA pour des raisons spécifiques, l’une d’entre elles étant le fait que la licence doit être jointe à l’œuvre. Cette condition de la GFDL est à la fois une caractéristique et un défaut de conception. Mais ce choix, qui auparavant revenait à l’auteur, lui est à présent retiré.

Au final, les conséquences sont sûrement minimes. En effet, beaucoup voient en ce changement un grand pas en avant. Je pense que c’est simplement la réputation de la FSF qui s’en trouve affectée. Quel message cela adresse-t-il aux utilisateurs d’autres licences de la FSF ? Est-on sûr que la FSF ne permettra pas la modification des licences de nos œuvres au profit de licences non-FSF si l’on opte pour la clause « version ultérieure » ? Dans le passé je ne me serais même pas posé la question. À présent, j’ai un doute.

J’ai hâte de connaître votre sentiment à ce propos et, si vous le permettez, je publierai une copie conforme de votre réponse là où je publie cette lettre.

Je vous remercie de votre attention.

Cordialement,

Chris Frey

Réponse ouverte à Chris Frey à propos de la GFDL 1.3

An open response to Chris Frey regarding GFDL 1.3

Richard Stallman – 3 décembre 2008 – FSF.org
(Traduction Framalang : Olivier, Siltaar et Don Rico)

Cher M. Frey,

Votre lettre concernant les modifications récentes apportées à la GFDL, qui permettent aux administrateurs de certains wikis sous licences GFDL de modifier la licence de leur contenu sous licence Creative Commons BY-SA, soulève des questions cruciales vis-à-vis des modifications, de la manière dont elles ont été conduites et de leurs implications quant à la gestion par la FSF de nos licences à l’avenir.

De mon point de vue, et c’est aussi celui du conseil de la FSF, cette modification de la licence est totalement en accord avec nos valeurs, notre éthique et nos engagements, et c’est une nouvelle démonstration que la FSF mérite toujours votre confiance. Les licences comportant la clause « ou toute version ultérieure » nous permettent de donner de nouvelles permissions qui répondent aux besoins de la communauté et de contrer les nouvelles menaces qui pèsent contre la liberté des utilisateurs.

Cette option de changement de licence introduite par la GFDL 1.3 est complètement en accord avec l’esprit et les objectifs de la GFDL. Certains sites Web pourront ainsi passer de la GFDL à une autre licence libre, une autre licence qui diffère sous certains aspects mais qui est très proche globalement de la GFDL. Cette disposition permet à ces sites de rendre leur licence compatible avec de vastes collections de contenu sous licence libre avec lesquelles ils veulent coopérer.

L’impact de ce changement est limité car l’option de changement de licence ne s’applique qu’à un nombre de cas limité : les wikis, telle Wikipédia, qui ne font pas usage de certaines clauses particulières de la GFDL, comme les sections invariantes (NdT : contenu qui n’est modifiable que par l’auteur lui-même) et les textes de couverture, qui n’ont pas d’équivalent dans la licence CC-BY-SA.

Nous avons offert aux wikis une option à durée limitée dans le temps leur permettant de passer sous CC-BY-SA les contenus issus de la contribution du public. La fondation Wikimedia a initié un débat public quant à la décision à prendre : les participants de Wikipédia peuvent donner leur avis pour ou contre le changement. Nous n’avons joué aucun rôle dans cette décision, nous avons simplement donné à Wikipédia l’opportunité de la prendre.

Ce changement ne s’est pas fait dans la précipitation. La FSF s’est entretenue pendant plus d’un an avec la Wikimedia Foundation, Creative Commons et le Software Freedom Law Center pour planifier ce changement.

Ces discussions sont restées secrètes pour une raison que, je l’espère, vous approuverez : limiter l’applicabilité de cette option et éviter l’éventualité d’un changement de licence massif d’autres contenus placés sous licence GFDL. Cette option a été pensée uniquement pour les wikis bénéficiant d’une collaboration publique. Nous ne souhaitions pas que tout le monde puisse changer la licence des œuvres couvertes par la GFDL en les « blanchissant » au travers de Wikipédia ou d’autres sites similaires avant la date butoir.

Si un wiki exerce son option de changement de licence, cela implique qu’il accorde sa confiance aux Creative Commons plutôt qu’à la Free Software Foundation pour ce qui est des modifications futures de la licence. En théorie ,on pourrait y voir une source d’inquiétude, mais je pense que nous pouvons faire confiance à Creative Commons pour continuer sa mission à l’occasion des mises à jours de ses licences. Des millions d’utilisateurs font déjà confiance aux Creative Commons à ce sujet et je pense que nous pouvons faire de même.

Vous avez qualifié notre modification de licence de « trahison », mais si vous examinez ce que nous avons entrepris, vous verrez que nous sommes restés fidèles à nos principes.

Nous n’avons jamais affirmé que nous ne changerions pas nos licences, ou que nous ne ferions pas de modifications comme celle-ci. Nous nous sommes en revanche engagés à effectuer ces changements en respectant l’esprit de nos licences, et en garantissant les objectifs de ces licences. C’est ce que nous avons fait avec la GFDL 1.3 et, à plus grande échelle, avec la GPLv3, et c’est ce que nous continuerons à faire.

Vous avez entièrement raison d’attendre de la FSF une éthique irréprochable. J’espère que les modifications apportées à la licence GFDL vous convaincront que nous respectons cette éthique.

Cordialement,

Richard Stallman
Président de la Free Software Foundation

Notes

[1] Crédit photo : Cambodia4kidsorg (Creative Commons By)