Un autre monde musical est possible nous dit Trent Reznor

On peut voir le document que nous vous présentons aujourd’hui comme la majeure contribution du Framablog au débat actuel sur le trop fameux projet de loi « Création et Internet », qui porte si mal son nom. Nous sommes en effet fiers de vous proposer la traduction (sous-titrage et transcription écrite ci-dessous) d’une conférence qui apporte comme un grand bol d’oxygène à la période tendue et crispée que nous sommes en train de traverser.

Oui, avec du talent et de l’imagination, on peut (économiquement) réussir dans la musique en dehors des circuits traditionnels (comprendre avant tout les Majors du disque) en utilisant à plein les extraordinaires potentialités d’Internet pour se mettre directement en relation avec son public.

C’est ce que démontre le parcours de l’artiste Trent Reznor, chanteur des Nine Inch Nails, brillamment analysé ici par Mike Masnick, dont le blog décrypte les tendances des nouveaux médias sociaux.

Cette conférence d’une quinzaine de minutes a été donnée en janvier dernier au MIDEM 2009 de Cannes. L’étrange équation énoncée, « CwF + RtB = $$$ », tient de la formule magique mais elle est pourtant simple à comprendre pourvu qu’on accepte la nouvelle donne et surtout les nouvelles règles du jeu.

N’ayez pas peur, disait l’autre. Nous ne sommes plus ici dans le monde des « pirates » à éradiquer mais dans celui, passionnant, de ceux qui ouvrent la voie d’un nouveau paradigme…

—> La vidéo au format webm

Trent Reznor et l’équation pour de futurs modèles économiques de la musique

Trent Reznor And The Formula For Future Music Business Models

Mike Masnick – 17 janvier 2008 – TechDirt
(Traduction Framalang : Don Rico, Joan, Yostral)

Je suis Mike Masnick, mon entreprise s’appelle Floor64. Voici notre site web : nous avons diverses activités, travaillons avec différentes entreprises, les aidons à comprendre les tendances des nouveaux médias sociaux et à établir un lien avec les communautés auxquelles elles s’adressent.

On me connaît surtout, quand on me connaît, pour TechDirt, le blog que nous publions sur Floor64. Voilà à quoi ça ressemble. Sur ce blog, j’aborde très souvent le sujet de l’industrie musicale et de l’industrie du disque, et j’ai notamment beaucoup écrit sur les initiatives de Trent Reznor et les modèles économiques qu’il applique et expérimente depuis quelque temps. Ces billets sont bien sûr à l’origine de cette intervention : « Pourquoi Trent Reznor et Nine Inch Nails représentent l’avenir de l’industrie musicale ».

Nous sommes un peu en retard car nous devions commencer à 11h45. Chez moi, en Californie, il est 2h45 du matin. Je souffre du décalage horaire, comme d’autres ici je pense, alors pour qu’on reste éveillés, je vais faire défiler que 280 diapos au cours de cette intervention, car je pense qu’en gardant un rythme soutenu on ne s’endormira pas trop vite. Mais pendant ces 280 diapos je vais quand même aborder quelques points importants sur les actions de Trent Reznor et expliquer pourquoi les modèles économiques qu’il expérimente représentent vraiment l’avenir de la musique.

Sans plus attendre, rentrons dans le vif du sujet.

Chapitre 1

Que ce soit volontaire ou pas, je n’en sais d’ailleurs rien, il semblerait que Trent Reznor ait découvert le secret d’un modèle économique efficace pour la musique. Ça commence par quelque chose de très simple : CwF, qui signifie « Créer un lien avec les fans ». Ajoutez-y une pincée de RtB : « Une Raison d’acheter ». Associez les deux, et vous obtenez un modèle économique. Ça parait très simple, et beaucoup pensent que ça n’a rien de sorcier. Mais le plus stupéfiant, c’est la difficulté qu’ont d’autres à combiner ces deux ingrédients afin de gagner de l’argent, alors que Trent Reznor, lui, s’en est sorti à merveille, à de nombreuses reprises, et de nombreuses façons.

Tout a commencé quand il était encore signé chez une major. Il a appliqué ce modèle de façon très intéressante sur l’album Year Zero, en 2007. Avant la sortie de l’album, il a établi un lien avec ses fans en organisant une sorte de chasse au trésor, ou un jeu de réalité virtuelle. Voici le dos du t-shirt qu’il portait pendant la tournée de 2007. Certaines lettres des noms de ville sont en surbrillance : en les isolant puis en les remettant dans l’ordre, on obtient la phrase « I am trying to believe ». Certains ont été assez futés pour assembler la phrase et y ajouter un « point com ». Puis ils sont allés sur le site « Iamtryingtobelieve.com » et se sont retrouvés dans un jeu de réalité virtuelle, qui était assez marrant. Voici qui a apporté un gros plus à l’expérience générale pour les fans et permis d’établir avec eux un lien qui allait au-delà de la seule musique.

Du coup, les fans étaient plus impliqués, motivés et impatients. Il est allé plus loin encore : vous approuverez ou pas, tout dépend de l’endroit où vous êtes assis dans la salle. Ça a mis en rogne la maison de disque de Reznor, parce qu’il s’est amusé à mettre de nouveaux morceaux sur des clés USB qu’il abandonnait ensuite par-terre dans les toilettes à chaque concert qu’il donnait. Les fans trouvaient ces clés USB dans les différentes salles de concert, les ramenaient chez eux, les branchaient sur leur ordinateur et y trouvaient de nouveaux morceaux de Nine Inch Nails, et bien sûr ils les partageaient.

De cette façon, le groupe a impliqué les fans, les a motivés et les a mis dans tous leurs états. Les seuls à ne pas avoir été ravis, c’était la RIAA, qui a envoyé des messages d’avertissement pour de la musique que Trent Reznor lui-même distribuait gratis. Ça, ce n’est pas un moyen d’établir un lien avec les fans, mais plutôt de se les mettre à dos.

Trent Reznor continuait donc à donner aux gens des raisons d’acheter alors qu’il refilait lui-même sa musique. Quand l’album est sorti, le CD changeait de couleur. On le mettait dans le lecteur, et en chauffant la couleur du disque changeait. C’est gadget, mais c’était assez sympa et ça donnait aux fans une raison d’acheter le CD, parce qu’on ne peut pas reproduire ça avec un MP3.

C’était un exemple simple datant de l’époque où il était encore sous contrat avec une major, mais passons au…

Chapitre 2

Après cet album, il n’avait plus de maison de disque, et a préféré voler de ses propres ailes, s’aventurant alors sur les terres soi-disant dévastées de l’industrie musicale d’aujourd’hui. Pourtant ça ne lui a pas posé problème, car il savait qu’en créant un lien avec les fans et en leur donnant une raison d’acheter il pouvait créer un modèle économique efficace. Il a donc commencé par l’album Ghosts I-IV, et il a créé des liens avec ses fans en leur offrant plusieurs choix, au lieu d’essayer de leur imposer une façon unique d’interagir avec sa musique. On avait différentes options, et il leur a donné une raison d’acheter en proposant une offre améliorée.

Je vais rapidement énumérer ces options. À la base, il y avait un téléchargement gratuit. L’album comptait 36 morceaux. On pouvait télécharger gratuitement les 9 premiers, et les 36 étaient sous licence Creative Commons, donc il était possible de les partager légalement. Bref, quand on voulait les télécharger gratuitement sur le site de NIN, on n’avait que les neuf premiers. Pour 5 dollars, on recevait les 36 morceaux et un fichier PDF de 40 pages. 5$ pour 36 morceaux, c’est beaucoup moins cher que le modèle d’iTunes à 1$ par chanson. Pour 10$, vous receviez une boîte avec deux CDs et un livret de 16 pages. 10 $ pour une boîte de 2 Cds, c’est pas mal. Mais ça, beaucoup d’autres le font, tout le monde applique ce principe de musique offerte et de vente de CDs à prix raisonnable sur le site.

Ce qui est intéressant, c’est ce qu’il a proposé en plus. Là, on commence par un coffret édition deluxe à 75 dollars, qui contenait tout un tas de choses. C’était une sorte de coffret, mais centré sur ce seul album et qui contenait un dvd et un disque blu-ray, un beau livret, le tout fourni dans une boîte sympa. 75$, bonne affaire pour des fans qui veulent vraiment soutenir Reznor. Mais le plus intéressant, c’était le coffret ultra deluxe édition limitée à 300 $.

Comme on le voit sur ce site, tous ont été vendus. Il y a tout un tas de suppléments dans ce coffret. Voici à quoi ça ressemblait.

Là encore, on trouve le contenu du coffret de base, plus d’autres trucs. Mais ce qui est vraiment important, c’est qu’il n’a été tiré qu’à 2500 exemplaires, et que tous étaient dédicacés par Trent Reznor. Le tout coûtait 300$, mais c’était exceptionnel, unique, et ça ajoutait de la valeur à la musique. Les 2500 ont été vendus, ce qui n’a rien d’étonnant. Mais ce qui est impressionnant, c’est la vitesse à laquelle ils sont partis. Moins de 30 heures. Faites le calcul : ça donne 750 000 dollars en 30 heures pour de la musique qu’il donnait gratuitement.

Rien que la première semaine, si l’on inclut les autres offres, ils ont encaissé 1,6 million de dollars, là encore pour de la musique qu’ils distribuaient gratuitement, sans label, mais c’était vraiment une façon de créer un lien avec les fans, de leur donner une raison d’acheter, et de trouver un modèle économique efficace. Même si c’était gratuit et qu’on pouvait tout télécharger légalement une fois les morceaux mis en ligne sur des sites de Torrent ou de partage de fichiers, voici ce qu’a publié Amazon la semaine dernière : la liste de leurs meilleures ventes d’albums au téléchargement en 2008, où Ghosts I-IV arrive en tête.

Donc, voici un album gratuit qui en une seule semaine a rapporté 1,6 million de dollars, et qui a continué à bien se vendre sur Amazon tout le reste de l’année. On se rend bien compte qu’ici, la question ce n’est pas le prix. Le fait que l’album soit disponible gratuitement ne signifie pas la fin du modèle économique, il n’y a pas lieu de s’inquiéter. Tant que l’on crée un lien avec les fans et qu’on leur donne une raison d’acheter, il y a de l’argent à se faire.

Chapitre 3

Dans cette série d’expériences, deux mois seulement après Ghosts I-IV est sorti The Slip, et cette fois-ci c’était complètement gratuit, il suffisait de donner son adresse e-mail et on pouvait le télécharger en entier. Un lien de plus avec les fans. Les téléchargements étaient de qualité, on avait le choix entre des versions MP3 ou lossless. Pas du tout le principe « on vous file gratis la version merdique, passez à la caisse pour une meilleure version ». Encore une fois, il a essayé d’innover pour créer un lien plus fort avec les fans.

Voici les données de TopSpin, qui fournissait l’infrastructure pour les téléchargements, et qui a créé ces cartes sympas sur Google Earth pour qu’on voit d’où tous les autres téléchargeaient. Pas forcément utile, mais c’était chouette, et ça contribuait à construire la communauté, à créer un lien avec les fans. En parallèle, le jour de la sortie de The Slip, ils ont publié la liste des concerts pour la tournée 2008. On pouvait donc télécharger la musique, l’écouter, et aussitôt acheter des places.

Bien entendu, Reznor et NIN on toujours veillé à ce qu’il y ait une raison d’acheter des billets : ils ne donnent pas de simples concerts, mais offrent un spectacle complet. Ils jouaient devant un grand écran et amenaient plein d’idées afin d’en faire une expérience passionnante pour les fans, et les fans en redemandent. Ils sont emballés à l’idée d’aller à ces concerts, et pas seulement parce qu’ils vont voir Trent Reznor jouer. Bien sûr, Reznor n’en faisait pas profiter que NIN. Il y avait des premières parties sur la tournée, et il a enregistré un disque samplé, téléchargeable gratuitement lui aussi, avec des fichiers de bonne qualité de morceaux des différents groupes qui jouaient en première partie, permettant ainsi aux fans de créer un lien et leur donnant des raisons d’acheter des places de concerts pour aller voir ces groupes s’ils leur plaisaient.

Là encore, même si l’album était gratuit, il a donné d’autres raisons d’acheter en pressant l’album sur CD et vinyl, avec un tas de contenu supplémentaire dans une édition limitée et numérotée. On en revient au procédé de Ghosts I-IV, avec des tas de suppléments. J’insiste sur ce point parce que c’est vraiment important.

Chapitre 4

On n’a parlé que de sortie d’album, mais ces règles ne s’appliquent pas seulement quand on sort un album. Il faut créer un lien avec les fans tout le temps, sans discontinuer. Voici le site Web de Reznor, où il a mis en place des tas d’idées intéressantes, et je vais passer vite dessus parce qu’il y a beaucoup de choses, mais le lien se crée en permanence. Quand on se connecte, on voit les nouveautés, et puis on trouve les fonctions habituelles : de la musique à écouter, des outils communautaires comme les forums, les tchats. Mais il y a aussi des éléments moins évidents. Par exemple ce flux de photos, qui proviennent de Flickr. Ces photos ne sont pas toutes des clichés du groupe prises par des pros, mais ceux que les fans mettent sur Flickr sont regroupés sur le site. Ainsi on peut voir ce que les autres voyaient aux concerts où vous êtes allés, ou à ceux que vous avez manqué.

Il offre aussi des fonds d’écran que l’on peut télécharger, sous licence Creative Commons. On peut les retoucher, et d’ailleurs vous remarquerez que les images d’illustration que j’utilise sont justement tirées de ces fonds d’écran, légèrement modifiés pour que ça rentre sur les diapos. Dans le même esprit que les photos Flickr, il y a les vidéos. En gros, les fans filment des vidéos avec leur téléphone mobile, les mettent en ligne sur YouTube, et elles sont toutes regroupées sur le site. Pas de problème de procès, pas d’avertissements, pas de réclamations de la part de YouTube, les vidéos servent juste à créer du lien avec les fans, à leur donner une raison d’acheter.

Sur le site, on peut aussi télécharger des fichiers bruts, et NIN encourage les fans à les remixer, à les écouter, à les noter, à les échanger, ce qui implique vraiment les fans.

Autres idées amusantes : des concours, par exemple des tickets cachés qu’il faut trouver sur le site, des coordonnées indiquant l’emplacement de places gratuites pour un concert que NIN donnait dans un tunnel d’égout à Los Angeles. Il a mis sur son site une enquête de 10 pages à remplir, ce qui a permis d’élaborer un profil complet de ses fans. Mais le plus intéressant, c’est le courriel qu’il a envoyé, assez long comme vous le voyez, qui a montré que Reznor est proche de ses fans, ce qui hélas est rare dans l’industrie musicale.

À suivre

Passons au dernier chapitre. Je l’intitule « À suivre » plutôt que « Dernier chapitre », parce que c’est loin d’être fini. Reznor continue en permanence à expérimenter de nouvelles idées. Pas plus tard que la semaine dernière, j’ai dû compléter cette intervention, en espérant qu’il allait calmer le rythme de ses expérimentations, parce que ça commençait à être dur de maintenir cette présentation à jour. Il a publié un billet sur son blog expliquant sur le ton de la plaisanterie avoir été contacté par un mystérieux groupe d’agitateurs qui avaient filmé trois concerts et mis en ligne les rushes, des rushes en haute définition. Il y en a pour 450 gigas de rushes. La plupart des disques durs n’ont pas une telle capacité, et ça m’étonnerait que beaucoup d’entre vous ici aient 450 Go sur votre portable. Et puis il y a les fournisseurs comme ComCast qui limitent la bande passante à 250 Go par mois, voire TimeWarner qui descend encore plus bas, à 5 Go par mois. Et voilà Reznor qui refile 450 Go de vidéo HD et déclare : « Je suis sûr que des fans entreprenants vont nous mitonner un truc sympa ». Ça c’est vraiment un super moyen de créer le lien avec les fans, de leur donner une raison d’acheter, et c’est ce qui donne le modèle économique.

On peut voir ça sous un autre angle : au lieu de signifier Connect with Fans, CtW pourrait être l’acronyme de Compete With Free (NdT : le Gratuit Compétitif) et Rtb, au lieu de Reason to Buy, peut être l’abréviation de Retour au Business. Au lieu de se plaindre sans cesse du piratage et de diaboliser les nouvelles technologies, il vaut mieux s’efforcer de trouver un modèle économique qui fonctionne.

Ce qu’il faut retenir, c’est que ça fonctionne pour de bon, sans qu’il y ait besoin de recourir aux licences collectives, aux DRM ou aux procès. Techniquement parlant, et c’est ce qui agace certains, il n’y a pas besoin de recourir aux droits d’auteur pour que ça marche: il suffit de créer le lien avec les fans et de leur donner une raison d’acheter.

Ce qu’il faut retenir aussi, c’est que ça vaut pour tous les musiciens, connus ou moins connus. Je me suis concentré sur Reznor, parce que c’est le sujet de mon intervention, mais des tas de petits groupes appliquent ce même modèle. En gros, Reznor ne fait qu’ouvrir la voie pour des tas d’autres et permettre que ça fonctionne. Quant aux autres, ils ne plagient pas, ils ne se contentent pas de copier les idées de Reznor. Ils partent de la recette de départ pour l’adapter à leur façon, et ça fonctionne aussi pour eux sans qu’ils aient à se soucier des licences, des DRM ou des procès. Pas de problème de copyright. Ils ne leur reste qu’à se concentrer sur l’avenir, sur la musique, et à inventer les modèles économiques qui fonctionnent de nos jours.

Voilà, j’ai expliqué dans cette intervention pourquoi Trent Reznor et NIN représentent l’avenir de l’industrie musicale. Si vous souhaitez me contacter, voici mes deux adresses e-mail.

Merci.




Le projet OpenOffice.org est-il en bonne ou mauvaise santé ?

Joseppc - CC by-saMichael Meeks n’est pas forcément neutre lorsqu’il évoque la suite bureautique libre OpenOffice.org (OOo). Il est en effet desktop Architect chez Novell, la société qui a « pactisé » avec Microsoft. A ce titre il participe activement au projet Go-oo, une version modifiée d’OpenOffice.org (située à la limite du fork, parfois appelée « alternative Novell à OOo »).

D’après Meeks, Go-oo est justement né pour pallier certaines lacunes d’OpenOffice.org, d’abord techniques mais aussi organisationnelles, principalement liées à un leadership trop fort de la société Sun sur le projet. Chiffres à l’appui, il a n’a ainsi pas hésité à qualifier OOo de « profondément malade ». C’est le sujet de la traduction du jour issue du site ZDNet (Asie).

Pour de plus amples informations, nous vous suggérons de parcourir ces deux dépêches LinuxFr : Go-oo, une alternative à OpenOffice et surtout Go-oo et OOo : fr.OpenOffice.org répond à vos questions.

Au delà de la polémique, se pose donc la question des avantages et des inconvénients d’un projet libre piloté (« de trop près » ?) par une société commerciale.

On peut également en profiter pour faire le point sur les qualités et les défaut intrinsèques de la suite bureautique OpenOffice.org par rapport à la concurrence. Selon certains observateurs, MS Office 2007 aurait ainsi pris un peu d’avance ces derniers temps, surtout si Microsoft se décide à réellement implémenter nativement le format ODF (ce qui n’est pas encore le cas malgré les déclarations d’intention). Sans oublier les solutions « dans les nuages » de type Google Docs qui font de plus en plus d’adeptes[1].

Openoffice.org est-il un cheval mourant ?

Is OpenOffice.org a dying horse?

Eileen Yu – 12 janvier 2009 – ZDNet Asia
(Traduction Framalang : Vincent)

Openoffice.org n’a toujours pas dépassé sa date d’expiration, mais il y a encore beaucoup à faire pour piloter et organiser la participation de la communauté et s’assurer que le logiciel Open Source reste pertinent, affirment des observateurs du secteur.

Officiellement sortie sur le marché en avril 2002, Openoffice est une suite bureautique Open Source disponible en téléchargement gratuit. Sun Microsystems en est le premier sponsor et le principal participant au code du projet OpenOffice, qui compte également Novell, Red Hat, IBM et Google parmi les sociétés contributrices.

Sun a cependant été critiqué pour son contrôle trop étroit d’un projet qui n’encourage alors pas assez la participation communautaire.

Dans un article de son blog posté en Octobre l’année dernière, Michael Meeks, développeur d’OpenOffice.org, incluait des données et des statistiques qui, disait-il, soulignaient le « lent désengagement de Sun » et « une spectaculaire baisse de croissance » de la communauté des développeurs OpenOffice.

En le qualifiant de « mourant » et de « projet profondément malade », Meeks demandait à Sun de s’éloigner de OpenOffice et de réduire sa mainmise sur le code. Contacté sur ce point, Sun n’a pas été en mesure de répondre à l’heure où nous mettions sous presse.

Dans une interview réalisée par e-mail avec ZDNet Asie, Meeks reconnaît que Sun est un participant important à OpenOffice, fournissant le plus grand nombre de développeurs au logiciel. Cependant, il a ajouté qu’il devrait y avoir plus de contributeurs de grandes sociétés impliquées dans le projet.

« Je pense que la raison pour laquelle les autres sociétés trouvent difficile de s’impliquer fortement dans OpenOffice et précisément le fait que Sun possède et contrôle l’ensemble du projet », note-t-il. « Il est alors plus compliqué d’attirer une large base de participants. »

« Les sociétés investissent largement dans Linux qui a alors plus de succès pour attirer des développeurs que OpenOffice. »

Le job de Meeks est d’être le leader de l’équipe de développement OpenOffice.org chez Novell, mais il tient à souligner que ses réflexions sur OpenOffice ne reflètent pas celles de son employeur.

« Il y a beaucoup de problèmes de process (associés avec OpenOffice) et un manque d’engagement externe, et même lorsqu’il s’agit de changement de code mineure les procédures se révèlent super-pesantes pour n’importe quel changement de code mineur. Les problèmes pourraient être facilement résolues dans un communauté plus large », a-t-il dit.

La contribution au code n’est pas un indicateur précis

David Mitchell, vice-président senior de la recherche IT chez Ovum, est en désaccord avec le fait qu’un manque de contribution communautaire doit être interprété négativement, en notant que le succès des produits Open Source dépend de l’adoption du produit par les utilisateurs, pas du profil des développeurs.

« L’implication et l’engagement des développeurs diffèrent selon la maturité des projets, les projets matures auront presque toujours moins de nouveau code validé que les projets tous neufs », expliquait Mitchell dans un échange de mails. « Une restructuration massive d’un code défaillant ou mal structuré peut aussi produire de nombreuses lignes de code, mais ne va pas nécessairement refléter un produit solide et robuste. »

Le code de OpenOffice, a-t-il ajouté, est déjà « assez mature » et « relativement stable ».

Peter Cheng, fondateur et responsable d’une firme de conseil en Open Source, TargetSource, est d’accord.

Contestant l’observation de Meek selon laquelle le logiciel est « mourrant », Cheng a déclaré à ZDNet Asie que le code de OpenOffice continuait à croître, quoique à un rythme plus lent.

Parce que le logiciel est devenu un projet vaste et complexe, on ne peut pas s’attendre à ce que son code croisse au même rythme que lorsqu’il a été lancé, déclara-t-il. Basé à Pékin, Cheng est aussi un blogueur de ZDNet Asie sur l’Open Source.

Il a noté que OpenOffice est supporté par une communauté de 451 contibuteurs.

D’après Khairil Yusof, un développeur de logiciel Open Source consultant chez Inigo Consulting, une équipe réduite de collaborateurs actifs n’est pas un problème majeur pour les utilisateurs de grandes sociétés.

De par la nature de l’Open Source et des standards ouverts, dit Yusof, les sociétés peuvent fournir des services de développeurs indépendants ou de fournisseurs de service Open Source, pour travailler sur OpenOffice et corriger des problèmes critiques pour leurs affaires. Basé en Malaisie, Inigo fournit des services de conseil spécialisés dans le logiciel Open Source.

« Ceci peut être fait indépendamment même de Sun ou Novell, sur le modèle de ce qu’a fait Novell avec sa propre version de OpenOffice », a-t-il dit à ZDNet Asie.

Est-ce que Sun doit renoncer à son rôle ?

D’après Mitchell, savoir si Sun doit renoncer à son rôle est discutable parce que ça ne changerait pas forcément les choses pour la communauté ou le produit.

« La forte gouvernance du développement qui provient d’un sponsor principal pourrait bien alors souffrir d’une fragmentation de la communauté », nous dit l’analyste.

Meeks, de son côté, pense que le logiciel se porterait bien mieux sans Sun sur son dos.

Il nous a expliqué que le conseil communautaire qui supervise OpenOffice a simplement un rôle consultatif et ne possède rien dans le logiciel.

« Ceci a l’air tout beau et ouvert, mais il n’a aucune autorité réelle. La gouvernance actuelle est assez sclérosée, et n’est clairement pas orientée vers les développeurs », dit-il. « Pire, sous le capot, la seule entité légale qui possède les avoirs intéressants est Sun. »

« A cause de cela, vous pouvez traduire des questions comme pourquoi les gens n’investissent-ils pas dans OpenOffice ? en pourquoi les gens n’investissent pas dans Sun ? La réponse étant, je pense, assez triviale : parce que c’est une société commerciale », raconte Meeks.

« Si nous pouvions transformer OpenOffice en fondation, avec une gouvernance juste et représentative par les développeurs, alors oui, je suis certain que le projet se porterait bien mieux sans un veto de Sun à chaque étape », dit-il.

Yusof supporte également l’appel de Meeks pour que Sun abandonne sa propriété.

« Comme c’est souvent le cas avec d’autres projets réussis et orientés vers une communauté active de développeurs, c’est souvent mieux que la gestion du projet soit faite par une fondation indépendante », explique-t-il.

La Fondation Apache, par exemple, a été fondé par des concurrents commerciaux, tels que IBM et Microsoft, dit-il. La fondation Gnome est également co-opérée par des concurrents tels que Red Hat, Sun et Novell, qui contribuent tous activement au développement du logiciel, ajoute Yusof.

Meeks a ajouté que cette façon de faire pourrait également être une bonne opportunité pour Sun, car cela attirerait plus d’intérêt autour d’OpenOffice, réduirait la fragmentation actuelle, et construirait un OpenOffice plus grand et plus apprécié. Sun serait alors bien positionné pour tirer de substantiels bénéfices du support de ses développements potentiels.

Mitchell note que OpenOffice 3.0 a été une version majeure en 2008, et que l’on devrait voir une adoption croissante cette année.

Les fournisseurs qui ont fait du développement spécifique sur OpenOffice vont également aider à son adoption, dit Mitchell, citant pour l’exemple la suite Lotus Symphony de IBM, qui a été développée sur la base du code OpenOffice. L’analyste pense que 2009 sera « une bonne année » pour OpenOffice en termes de croissance du nombre d’utilisateurs.

« Cependant, savoir si Sun pourra transformer cette augmentation de l’adoption de OpenOffice en source de revenus est une autre affaire », dit-il. « Monétiser MySQL et OpenSolaris est probablement plus facile pour Sun, car la demande en contrats de supports pour les entreprises est probablement plus grande. »

Cheng a déclaré : « Sun est bon dans la technologie, mais pas dans les affaires ».

Il a ajouté que, même si la société a depuis plusieurs années adhéré au logiciel, spécifiquement Open Source, comme part intégrante de sa stratégie, Sun est de manière inhérente « encore une société de matériel ». « Toutes les intentions de la société sont focalisées sur la vente de ses machines », dit-il.

« Je pense que la chose la plus importante pour Sun, par rapport à sa stratégie avec OpenOffice, est de déterminer comment équilibrer la communauté et les affaires », dit Cheng, ajoutant que la communauté des développeurs doit avoir suffisamment d’espace de liberté pour « gérer les choses comme elle l’entend ».

« Si vous regardez la fondation Eclipse, dans les cinq dernières années, elle a bâti un bel écosystème autour de la plate-forme. Chaque participant à la communauté peut en bénéficier, pas seulement les individus, mais également les entités commerciales. »

« OpenOffice devrait repenser sa position en tant que communauté Open Source, améliorer la structure de gouvernance de cette communauté, et inciter plus de collaborateurs d’enterprises aussi bien qu’individuels se joindre au projet », dit-il.

Garder une communauté active de développeurs

Maintenir un écosystème en bonne santé, et une communauté active est critique pour le développement des logiciels libres, note Cheng. Il ajoute que les innovations les plus importantes seront impulsées quand le processus de développement recueillera plus de participants.

Sur ce point, Meeks est d’accord, en notant que les développeurs sont le plus grand challenge que le projet OpenOffice ait à résoudre.

« Nous devons rentrer dans le jeu, être fiers de notre code, en lire plus, le réparer, l’affiner et l’améliorer. Nous devons être plus rapide, plus concis, plus clair presque partout dans le code, il y a un énorme travail à faire », dit-il. « Bien sûr, du point de vue des fonctionnalités, nous devons également rester compétitifs. »

« Ce n’est pas le travail qui manque dans OpenOffice. Par exemple, le nouveau composant Base nécessite un large effort pour le rendre comparable à Access, et nous avons également besoin d’un concurrent à Visio, etc. », dit-il.

Meeks note un contraste fort entre la participation de la communauté sur le noyau Linux et sur OpenOffice. « Linus (Torvalds) a déclaré plusieurs fois que le noyau Linux était presque terminé et inintéressant, que les gens devaient se focaliser sur les couches plus hautes du système, et pourtant, il semble attirer toujours plus de participants. »

« OpenOffice a clairement de nombreux points à améliorer, et pourtant il attire un faible nombre de collaborateurs, cela montre clairement qu’il y a un problème. »

Les licences, également, peuvent devenir un problème.

Cheng note que OpenOffice est actuellement soumis à de trop nombreuses licences, notamment la GPL 3, la nouvelle licence BSD, et Mozilla Public Licence 1.0.

« Quiconque voudrait construire une application basée sur OpenOffice sera face à des problèmes juridiques trop complexes à traiter », dit-il. « Je pense que c’est pour cela que l’écosystème de OpenOffice ne fonctionne pas aussi bien que celui d’Eclipse. »

Notes

[1] Crédit photo : Joseppc (Creative Commons By-Sa)




De l’efficacité des agités du bocal Internet

Grégoire Lannoy - CC byNumerama et le Framablog ont une intersection de lecteurs non vide mais une réunion non confondue. Lorsque l’excellent Guillaume Champeau a mis en ligne l’article que je vous propose reproduit ci-dessous, je lui ai de suite envoyé un mail pour le féliciter et lui dire qu’il me dispensait alors d’écrire un billet similaire qui me trottait dans la tête depuis un petit bout de temps (oui, je sais, ça mange pas de pain, et ça fonctionne avec tout le monde : bonjour Mr Kant, merci pour votre Critique de la raison pure, que j’avais justement pour projet de rédiger…).

Comment se fait-il qu’on se retrouve avec un projet de loi Hadopi qui fait quasiment l’unanimité contre lui sur le Net mais qui se heurte à l’indifférence de Mme Michu ? La faute aux grands médias ? Non, la faute aux internautes qui se complaisent à penser qu’en restant assis le cul derrière leur chaise à parer leur site de noir, il vont faire pencher la balance du bon côté. Telle serait, en (très) gros, la problématique posée par l’article.

Bon, il faut dire aussi que l’on n’est pas forcément aidé par nos représentants publiques, à commencer par certains partis politiques[1] traditionnels qui se distinguent par leur… atonie ! Le parti Chasse, pêche, nature et traditions défend des intérêts bien identifiés, faudra-t-il en venir à la création d’un équivalent du Parti pirate suédois ?

En apparté : Même si de gros progrès ont eu lieu ces derniers temps sous l’impulsion de nombreux acteurs de terrain, on est assez proche de la même situation pour ce qui concerne Mme Michu et les logiciels libres : il y a bien un moment où il faut descendre dans l’arène si on veut réellement être efficace et rassembleur (on en parlait hier justement).

Riposte graduée : pourquoi la contestation s’arrête aux frontières du net ?

URL d’origine du document

Guillaume Champeau – 5 mars 2009 – Numerama.com
Licence Creative Common By-Nc-Nd

A moins d’une semaine de l’examen du projet de loi Création et Internet, le débat sur la riposte graduée et ses implications sur la société tout entière n’a pas émergé. Pas en dehors du net, où les voix, pourtant extrêmement nombreuses et majoritaires, ne se font pas entendre. Pourquoi ?

Le débat sur la loi Création et Internet et la riposte graduée doit débuter mardi à l’Assemblée Nationale. Et Madame Michu l’ignore.

Elle ignore que le texte présenté par le gouvernement prévoit de l’obliger à sécuriser sa connexion à Internet, et qu’elle n’aura ni les moyens juridiques ni les moyens matériels de se défendre si, par malheur, elle était accusée par l’Hadopi d’avoir téléchargé le dernier single de P. Diddy. Laurence Ferrari ne l’a pas prévenue.

Elle ignore, aussi, que le texte pose la première pierre d’une obligation générale de filtrage qui, sans qu’un juge n’ait son mot à dire, aboutira à limiter la liberté d’expression de ses concitoyens, au bon vouloir du gouvernement. David Pujadas n’en a rien dit.

Elle ignore enfin, que le paysage dévasté par le piratage que décrit Nicolas Sarkozy a été dessiné par les lobbys qui ont intérêt à voir la loi s’appliquer, alors qu’il est en fait riche de mille fleurs et n’a jamais été aussi prolifique. Le Président l’a dit dans sa dernière interview : « on m’a fait beaucoup de reproches dans ma vie politique, pas de mentir ». Comment Madame Michu pourrait-elle en douter ?

Comment Madame Michu pourrait-elle savoir que le projet de loi anti-piratage qu’on lui présente comme un texte de pédagogie et de méthode douce favorable aux artistes vise en réalité à contourner la justice au bénéfice de quelques intérêts privés et à imposer à tous les internautes des outils de filtrage qui pourront être employés, à des fins politiques, pour censurer tel ou tel site Internet gênant. Ou, de manière plus subtile et en apparence plus démocratique, pour favoriser les sites d’information sponsorisés par l’Etat qui recevront un label de qualité pris en compte par les filtres imposés par l’Hadopi ?

La loi Création et Internet n’est pas une loi sur le piratage, c’est une loi sur la liberté d’expression, qui concerne tout le monde.

L’opposition, sur Internet, existe. Elle est même très vive. Il est difficile, voire impossible, de trouver des communautés favorables à la loi, y compris dans les rangs de l’UMP. Mais comme au moment de la loi DADVSI, le débat reste figé dans les frontières d’Internet. Les actions, qu’elles soient symboliques ou plus musclées, restent cloîtrées dans les mailles de fibres optiques, sans jamais atteindre le tube cathodique (ou la dalle LCD) de Madame Michu. Même François Bayrou, qui a fait de la défense des valeurs républicaines et d’Internet son cheval de bataille lors la dernière élection présidentielle, se désintéresse totalement de la loi Création et Internet alors qu’elle pourrait apporter au MoDem une vitrine précieuse à quelques mois des élections européennes. Les quelques députés du Parti Socialiste qui s’apprêtent à défendre avec force les internautes à l’hémicycle, le feront sans le soutien public de leur première secrétaire Martine Aubry, qui se garde bien de se mettre les artistes les plus populaires à dos, et surtout sans la force médiatique que peut offrir l’appareil lorsqu’il se met en marche pour attaquer le fichier Edvige ou le CPE.

Comme il y a trois ans avec la loi DADVSI, le débat sur la loi Création et Internet restera un débat de spécialistes, concentré sur les questions techniques et sur les dommages causés par le piratage, sans que les questions sociétales ne soient soulevées.

La faute aux médias ? Non, la faute aux internautes, incapables de porter leur opposition au delà des frontières du numérique.

Nicolas Vanbremeersch, plus connu sous le pseudonyme de Versac, tente une explication intéressante sur le site Slate.fr : « Les internautes sont incapables de s’organiser pour faire pression avec efficacité (…) Il existe un camp, en France, prêt à rassembler plusieurs centaines de milliers de signataires sur une pétition, plusieurs dizaines de milliers de relais actifs, mais incapable de transformer cette action dans la vraie vie (…) Le web manque d’acteurs qui ont un réel intérêt dans cette affaire. Pas de génération spontanée d’acteur fédérateur, militant, actif. »

« Cette absence de mobilisation est symptomatique, non de la déshérence des internautes, mais de l’atonie des corps constitués, des intermédiaires de représentation, des syndicats et associations, qui, pour la plupart, ne sont pas à la recherche de soutiens populaires, d’appels à mobilisations. C’est également symptomatique d’un corps politique également assez protégé de l’opinion, et attendant plus de son leader politique que des citoyens mobilisés. A force de blocages, de manque d’ouvertures, d’autisme, les corps constitués anéantissent l’espoir des citoyens que leurs mobilisations puissent parvenir à quelque chose. La lassitude est forte. »

« A travers le débat sur Hadopi, c’est en fait l’effritement d’un système médiatique et politique, ses failles, ses lambeaux de peinture, qui sont mis sous nos yeux, et la nécessité d’une forme de renouveau, qui peut venir du web, qui est, en creux, mise en exergue », estime Nicolas Vanbremeersch.

Le net, qui réinvente des modèles économiques parfois proches d’une forme de néo-communisme, porte peut-être en lui le germe d’une nouvelle démocratie qui ne voit pas l’utilité d’aller se faire entendre dans le champ traditionnel de la démocratie déclinante. On commence à voir apparaître, en Suède, toute une nouvelle génération d’électeurs prête à porter aux urnes une nouvelle forme de démocratie. Si les lois ne s’adaptent pas à Internet, les internautes les ignoreront, comme ils l’ont fait depuis 10 ans des lois anti-piratage. Chaque nouvelle législation qui tente de ramener Internet vers les lois historiques de la démocratie traditionnelle en ignorant les spécificités et la culture sociétales portées par Internet accentuent une tension entre deux mondes qui, un jour, explosera, sous une forme ou sous une autre.

Et vous, qu’en pensez-vous ? Pourquoi sommes nous incapables de lancer des chaussures contre le ministère de la culture, d’entourer le cercueil de la justice dans une longue procession funèbre de la place Vendôme jusqu’à la Bastille, ou de bloquer les trains gare du Nord ?

Notes

[1] Crédit photo : Grégoire Lannoy (Creative Commons)




Libération du film d’animation Sita Sings the Blues

Sita Sings the Blues (Sita chante le blues) est un long métrage d’animation entièrement écrit et réalisé par une seule et même personne, Nina Paley. Primé au Festival international du film d’animation d’Annecy en 2008, il met en parallèle la légende hindouiste du Râmâyana et une rupture amoureuse autobiographique, en mélangeant les techniques d’animation (dessins, papiers découpés, ordinateur 2D, utilisation d’images libres de droits…). Si vous aimez les dessins animés, l’Inde, le jazz et les histoires d’amour qui finissent mal (en général), ce film de 80 min devrait vous plaire.

En voici la bande-annonce (via Framatube) :

—> La vidéo au format webm

Sita Sings the Blues vient tout de juste de passer sous licence Creative Commons By-Sa, comme l’annonce Nina Paley dans un joli message que nous avons traduit ci-dessous. Vous le trouverez en téléchargement intégral sur archive.org ainsi qu’en torrent sur le wiki du site officiel (existe également en streaming flash sur Reel 13).

Cette « libération » est un heureux évènement et un élément de qualité à ajouter à la Culture Libre. Mais elle ne doit pas cacher l’incroyable histoire des problèmes de droits d’auteur qu’a rencontré Nina Paley (et qui font d’ailleurs que ce film ne peut être considéré comme totalement libre).

Le film est en effet indissociable de l’interprète de jazz Annette Hanshaw (qui apparait d’ailleurs au générique du film comme protagoniste). Onze de ses chansons y figurent en étant complètement intégrées au scénario et à l’animation (impossible donc de changer la musique). Ces chansons datent de la fin des années… 1920 ! Autrement dit, un peu moins d’un siècle plus tard (et un quart de siècle après la mort de la chanteuse), Nina Paley pensa légitimement qu’elles étaient désormais dans le domaine public.

Mais c’était sans compter sur des subtilités juridiques que certains justifieront sans peine mais que je ne puis m’empêcher de qualifier « d’un autre âge » (excusez-moi mais l’Hadopi ça me met à cran en ce moment). Vous me corrigerez dans les commentaires mais voici ce que j’en ai compris à parcourir cet article. Les enregistrements sont bien dans le domaine public mais ce n’est pas le cas de la composition, paroles et musiques (partitions). Et du coup les ayant-droits ont d’abord demandé à Nina Paley 500 $ par chanson pour l’autoriser à être projetée dans les festivals (ce dont elle s’est acquittée), mais surtout 200 000 $ pour l’autoriser à commercialiser le DVD de son film (somme ramenée à 50 000 $ assortie de nombreuses restrictions) ! Ubuesque non ? Alors même que la diffusion de son film permettrait justement à un nouveau public de découvrir Annette Hanshaw ! Impossible alors de trouver un distributeur pour son film. Nina Payley s’en explique longuement dans cette interview.

Enfin bref, un mal pour un bien en quelque sorte, et nous voici donc avec un Sita Sings the Blues sous licence libre (dont il faut cependant aussi respecter le copyright pour le moins complexe de la fameuse musique). Mais il me plait à penser que Nina y est venue non par dépit mais par conviction (en fait un peu des deux je pense). Il me plait également à penser que Nina Paley reçoive de nombreux dons, témoignant ainsi qu’il y a une vie économique pour une culture qui souhaiterait se soustraire aux logiques oppressantes du classique et souvent mortifère copyright.

Une dernière chose. Framalang est en train de le visionner dans son intégralité et se tient prêt à en assurer le sous-titrage si l’évaluation globale se révèle aussi positive que la première impression, sachant que vous nous aideriez d’autant en nous donnant votre propre avis dans les commentaires.

Annonce de la « libération » de Sita Sings the Blues

Sita Sings the Blues

Nina Paley – 28 février 2009
(Traduction Framalang : Simon)

Cher public,


Par la présente, je te donne Sita Sings the Blues. En tant qu’élément culturel il t’appartient déjà, mais je rends la chose explicite avec une licence Creative Commons Attribution-Share Alike. Je t’invite à distribuer, copier, partager, archiver et montrer Sita Sings the Blues. Il provient de la culture partagée, et retourne à la culture partagée.

Tu n’as pas besoin de ma permission pour le copier, le partager, le publier, l’archiver, le montrer, le vendre, le diffuser ou le remixer. La sagesse conventionnelle m’intime de réclamer un paiement pour chaque utilisation de ce film, mais alors, comment feraient les gens sans argent pour le voir ? À quelle ampleur le film se disséminerait-il s’il était limité par des permissions et des droits d’auteur à payer ? Le contrôle offre une fausse impression de sécurité. La seule vraie sécurité que j’ai, est de croire en vous, de croire en la culture et de croire en la liberté.

Ceci étant dit, mes collègues et moi même allons mettre en œuvre la licence Share Alike. Tu n’es pas libre de réduire les libertés que je donne sur Sita Sings the Blues et ses dérivés, ni en y imposant un copyright, ni en y ajoutant des DRM.

Certaines chansons de Sita Sings the Blues ne sont pas libres, et ne le seront peut être jamais ; les lois régissant le droit d’auteur t’obligent à respecter leurs licences respectives. Ce n’est pas de mon fait ; pour plus d’informations sur ce sujet, tu peux lire notre page « restrictions ».

Et comment vais-je gagner de l’argent dans tout ça ? Mon expérience personnelle atteste que le public est généreux, et souhaite soutenir les artistes. Il y a sûrement un moyen de permettre cela sans contrôler centralement chaque transaction. Le vieux système économique fait de coercition et d’extorsion touche à sa fin. De nouveaux modèles émergent, et je suis heureux d’en faire partie. Mais nous continuerons de mettre cela en place avec le temps. Tu es libre de gagner de l’argent à partir du contenu libre de Sita Sings the Blues, et tu es libre de partager cet argent avec moi. Des gens gagnent de l’argent avec des logiciels libres depuis des années ; il est temps pour la Culture Libre de suivre. Je te prie de bien vouloir croire en la confiance que j’ai en tes innovations.

Si tu as des questions, n’hésite pas à nous les poser. Si tu as des idées, réalise les, tu n’as pas besoin de ma permission, ni de celle de personne (excepté les chansons mentionnées ci-dessus). Si tu constates des abus, corrige-les, mais ne sombre pas dans les détails des arcanes des lois sur le droit d’auteur. Le système de copyright voudrait que tu penses en termes de demande de permission ; je voudrais que tu penses en terme de liberté. Nous avons mis un wiki en place, pour démarrer les choses. N’hésite pas à l’utiliser.

Je dois reprendre une vie normale maintenant, et retourner faire de nouvelles œuvres. Merci pour ton soutien ! Ce film n’existerait pas sans toi.

Affectueusement

Nina Paley




Framakey : perspectives 2009

Framakey - Nojhan - Licence Art LibreL’hôte principal de ce blog, perdu quelque part entre la Grande-Bretagne et le maquis d’Hadopi, m’a demandé de venir vous faire un petit point sur les perspectives du projet Framakey sur les prochains mois (ça sortira quand ça sortira inside).
Te voici donc, ami lecteur, devant un article plus centripète que centrifuge et avouons le sans fard, plus geek que de coutume, dont l’idée est un peu de vous dire où en est la Framakey et où elle va[1].

Historique et bilan

Mais avant de commencer, rappelons en deux mots ce qu’est la Framakey.

D’habitude, sous Windows, lorsqu’on télécharge un logiciel, il faut l’installer (mais si, on l’a tous fait un jour : cliquer sur Setup, puis Suivant, J’accepte, puis Suivant 4 fois, puis revenir en arrière pour décocher la case installer la super toolbar de-la-mort-qui-tue, puis Suivant 3 fois, et enfin le bouton Installer). Ce logiciel s’installe alors le plus souvent dans le dossier C:\Windows\Program Files\LeLogiciel mais il s’éparpille aussi souvent un peu en mettant des données dans le dossier Documents and Settings, voire dans la base de registre (une base de données propre[2] à Windows conservant les paramètres de nombreux logiciels. Or, cet éparpillement est souvent inutile, et peut ralentir Windows, qui n’a vraiment pas besoin de ça pour se trainer.

Maintenant, imaginez que vous téléchargiez le même logiciel, dans un bête fichier zip. Vous dézippez où cela vous plait, vous lancez le logiciel, et… il fonctionne! Pas d’installation, pas de Suivantx12, pas de trucs qui trainent à droite ou à gauche, pas besoin de la base de registre. Tout est dans le dossier qui a été dézippé, je vous dis.
Allons plus loin : puisque le logiciel fonctionne en vase clos, alors on peut l’utiliser depuis n’importe quel dossier. Le bureau Windows. Le dossier Mes Documents. Une clé USB. Un baladeur MP3. La carte mémoire d’un appareil photo. Un lecteur réseau. etc.

C’est ce qu’on appelle un logiciel portable. Si je met les versions portables de Firefox et d’OpenOffice.org sur une clé USB, que je met la clé USB dans ma poche et que je vais au cybercafé du coin où chez ma cousine en Irlande, il suffit que je branche ma clé USB, et je retrouverai mon Firefox (marque-pages, historique et surtout extensions compris) et mon OpenOffice.org (en français, avec mon dico perso et tout et tout). Le tout exécuté depuis la clé, sans rien copier ou installer sur la machine de ma cousine ou du cybercafé (ça marche même en Chine, c’est vous dire).

Ce concept d’applications portables a toujours existé (sous Windows comme sous GNU/Linux), mais sous Windows il s’est perdu en route ces dernières années, quand Microsoft a demandé aux développeurs de ranger les paramètres de leurs applications au même endroit[3]. Il a été remis au goût du jour il y a quelques années par un américain, John Haller, qui a depuis créé le site portableApps.com.

Et la Framakey, dans tout ça ? me demandez-vous, prêt à quitter cette page (alors qu’en réalité, je teste votre résistance au syndrome Google)

La Framakey est tout simplement la première[4] initiative de démocratisation de ce concept d’applications portables pour le grand public, en proposant en un seul téléchargement d’installer facilement sur votre clé plusieurs applications portables, le tout enrobé dans une belle interface que même Tata Jeannine arriverait à utiliser.

Sortie l’été 2005, le projet a maintenant plus de 3 ans. Étant un projet 100% libre, il a connu de très nombreuses déclinaisons, puisque comme tout projet libre, chacun est encouragé à l’adapter a ses besoins. Ainsi, on a retrouvé la Framakey (ou des forks) en langue arabe[5], diffusée à plusieurs centaines de milliers d’exemplaires auprès de lycéens parisiens, auprès d’enseignants, dans des écoles primaires, en entreprise, etc. Il paraitrait même qu’un gros-industriel-plein-de-sous vend dans toutes les bonnes crèmeries une version à peine modifiée (et obsolète) de la Framakey, mais ça ne doit pas être vrai, sinon ils auraient accepté notre proposition (gracieuse) de mise à jour, ou alors ils nous auraient fait un petit don, non ?[6]… Aujourd’hui, nous estimons le nombre de Framakey diffusé à plus de trois millions d’exemplaires. Pas mal pour un projet libre.

La Framakey c’est aussi une bien belle communauté, et en tant que mainteneur du projet depuis sa création, j’en profite ici pour remercier chaleureusement tous ceux qui nous ont apporté leur aide tout au long de cette aventure et sans qui, ce n’est pas une formule, rien n’aurait été possible. C’est aussi la preuve de la force du libre, sur le plan technique (pouvoir intégrer et remixer d’autres projets libres) comme sur le plan humain (non seulement au sein de la communauté Framakey, mais aussi des échanges permanents inter-communautés avec les communautés logicielles ou celles de portableApps, de Framasoft, Dogmazic, InLibroVeritas, etc).

La Framakey évolue lentement, il faut le reconnaitre, avec une à deux versions majeures par an. Et même si techniquement, des projets comme la Liberkey (malheureusement non libre) lui sont supérieurs, j’expliquais d’ailleurs il y a peu pourquoi nous continuons à faire évoluer la Framakey face à cette stimulante concurrence.

C’est pourquoi nous avons pensé qu’il pourrait être utile de donner quelques indications sur les actions envisagées en 2009.

Les projets en cours

La Framakey 1.9

D’abord, la branche 1.x verra apparaître une nouvelle version.

  • Mise à jour de la plupart des applications, notamment OpenOffice.org en version 3.0.1
  • Nouvelle interface pour le Kiosk, basée sur jQuery
  • Modification de certains lanceurs pour une meilleure compatibilité avec Vista.
  • Ajout de quelques applications portables

http://framakey.org/Pack/PackFull1900

En dehors de l’interface (qui devrait furieusement vous rappeler quelque chose), il s’agit surtout de bénéficier d’une clé avec toutes les applications à jour. Par contre, côté développement, pas mal de travaux ont été effectués pour permettre une personnalisation plus aisée. En effet, nous pensons comme le rapportait l’infatigable et inénarrable Tristan N. qu’il faut aller (retourner ?) vers un monde de bricoleurs. Cela n’empêchera pas de livrer une Framakey aussi aboutie techniquement que graphiquement pour l’utilisateur final, mais cet utilisateur aura en plus la possibilité de bricoler le projet en fonction de ses besoins, un peu comme l’acheteur d’une voiture devrait pouvoir bricoler son véhicule comme il le souhaite (pour peu qu’il en ait l’envie). Bricoler sa Framakey a toujours été possible, puisqu’elle repose sur des technologies et des standards ouverts (Firefox + HTML/JS/CSS), mais pas forcément très simple d’accès. La version 1.9 est une version de transition qui apportera un peu plus de souplesse de ce côté là.

  • Avancement : 90%
  • Ce qu’il reste à faire : voir ici
  • Date de release estimée : 4 mars 2009 13:04:12 (au moins, on ne pourra pas me reprocher d’être précis !)

Les Framakey « Spécial Edition »

Il s’agit de versions destinées à des publics particuliers ou répondant à des « univers fonctionnels » précis.

Framakey LaTeX

La Framakey LaTeX Edition a été créée pour accompagner le Framabook « Tout… sur LaTeX » de Vincent Lozano. Il s’agit d’une version largement basée (avec l’autorisation de l’auteur !) sur l’excellente USBTeX de Nicolas Poulain, à laquelle ont été ajoutée des outils pour en faciliter l’utilisation, et des logiciels libres permettant de travailler sur l’ensemble de la chaine de publication.
Il nous faut donc la mettre à jour, et corriger quelque petits bugs.

  • Date de release estimée : RMLL 2009 (Juillet)
Framakey Education

Framasoft est historiquement lié au milieu de l’éducation nationale (que les profs, instits et autres personnels de l’EN lèvent le doigt. Vous voyez ? Vous êtes nombreux !).
La première adaptation de la Framakey a d’ailleurs été le projet « Clef en main » coéditée par le CRDP de Paris et Mostick. Depuis, la Framakey a inspiré de nombreux autres projets : dans le primaire, au collège/lycée, à l’université, pour les IUFM, etc. Voir des logiciels libres à portée de mains d’élèves[7] nous ravi et nous motive.

Il est aussi régulièrement question de travailler avec l’association de profs de maths SESAMATH qui sont autant des amis qu’une source d’inspiration. Le projet est pour l’instant en stand-by, mais nous ne désespérons pas d’avancer dans les mois qui viennent. De plus, laclasse et cyrille, deux gentils membres de la communauté Framakey, se sont donnés bien du mal pour portabiliser des logiciels éducatifs que vous retrouverez très bientôt sur le portail Framakey.

  • Date de release estimée : fin 2009
La Framakey Jeux

Il y a une demande. On sait le faire. On peut le faire. Alors on le fera 🙂

  • Date de release estimée : RMLL 2009 (Juillet)
La Framakey Handicap

Pour rencontrer régulièrement des personnes traitant du handicap et de l’accessibilité face aux logiciels (libre ou pas), nous avons décidé d’intégrer cette problématique de façon transversale en 2008 en ajoutant différents logiciels libres à tous les packs Framakey (comme une loupe ou un lecteur d’écran). Après en avoir discuté avec des professionnels du métier, nous pensons pouvoir travailler avec eux pour les aider à concevoir le contenu d’une clé spécifique.

  • Date de release estimée : 2009 (Stéphanie, si tu me lis…)
La FramaGNU

Wstryder - CC byAhhhhh. Si Framasoft avait touché 1€ à chaque fois qu’on nous posait la question « La Framakey, elle marche sous linux ? », nous n’aurions même pas besoin de lancer (très bientôt) une campagne de soutien à Framasoft !

Jusqu’ici la réponse était « La Framakey fonctionne avec Wine. On peut aussi y faire tourner des distributions légères comme SLAX ou ToutouLinux en émulation. Mais on ne fera probablement jamais de clé bootable, car 1) ça prends beaucoup de place 2) les applications sur la Framakey sont déjà presque toutes présentes dans n’importe quelle distrib, et 3) booter sur une clé, Tata Jeannine elle va galérer comme une maman ourse. »

Mais il n’y a que les imbéciles (et les développeurs JSP) qui ne changent pas d’avis, et comme on n’a pas envie d’en faire partie, on va faire un peu de teasing :

  • Oui, il y aura bientôt une Framakey incluant un système GNU/Linux bootable.
  • Oui, ce système aura un disque persistant (= les documents et les applications ajoutés sous Linux resteront sur la clé, contrairement aux LiveCD/LiveUSB)
  • Oui, il y aura des liaisons entre les deux systèmes (= je suis avec portableThunderbird sous Windows, je relève mes mails. Je reboote sous Linux, j’ouvre Thunderbird, je retrouve ces mêmes mails).
  • Oui, a priori ce système sera… Ubuntu

Houla, j’en vois qui s’énervent déjà à lire le dernier point : « Encore du Ubuntu ! Pourquoi pas (Mandriva\Fedora\Hurd.*) ? » toussatoussa.

D’abord, rappelons que Framasoft – et donc la Framakey – vise le plus large public et que, sans aucunement préjuger de qualité techniques d’une distrib, l’expérience (tout a fait subjective, mais tout à fait assumée) nous a montré que des utilisateurs comme Tata Jeannine avaient de meilleurs retours sur la communauté Ubuntu-fr qu’ailleurs.

Ensuite, rappelons que la Framakey est volontairement hackable by design et 100% libre, donc aide toi et le GNU/RTFM t’aidera.

De plus, nous avons d’excellentes relations avec la communauté Ubuntu-fr, qu’on a connu à l’époque où ils étaient, oh pas plus haut que ça, alors que maintenant même le géant vert à l’air d’un nain à côté d’eux (il n’y a bien que Chuck Norris qui puisse encore leur faire de l’ombre). Je vous avais prévenu, c’est subjectif comme point de vue.

Enfin, pour ceux qui répondraient qu’on entretient un système, blablabla, je répondrai qu’on a déjà commencé à travailler sur un outil qui permettrait de choisir sa distribution avant l’installation. Un mix entre UnetBootin (pour le choix des ditribs) et Fedora LUC pour la possibilité de créer un disque persistant. Elle est pas belle la vie[8] ?

  • Avancement : une version alpha de chez alpha, disponible pour les windowsiens existe déjà, mais c’est tellement alpha que je n’ose vous livrer de lien[9]

Date de release estimée : RMLL 2009 (Juillet) (dépendra en partie de la communauté Ubuntu-fr. C’est pas parce que ce sont des amis qu’on ne va pas leur mettre la pression 😛 )

Le retour de la version Light

On nous a souvent reproché le fait d’avoir abandonné la version Light (pour les clés de 256Mo). C’était tout simplement trop lourd de maintenir 2 packages. Grâce aux outils dont je vous parlais plus haut, développés pour la Framakey 1.9, la version light fera son retour. N’espérez pas y trouver OpenOffice.org, celui-ci a pris beaucoup d’embonpoint, et son transfert sur clé peut prendre plusieurs heures sur des clés de mauvaises qualité.

  • Date de release estimée : fin mars 2009.

La Framakey Megapack

Tata Jeannine, quand elle achète un ordinateur, elle a de fortes probabilités de se retrouver avec du Windows inside (c’est le problème de la vente liée, mais je préfère ne pas l’évoquer aujourd’hui, sous peine de cumuler ça à l’exaspération générée par Hadopi). En plus, elle a plein de logiciels, dont la plupart lui diront au bout de trente jours qu’elle doit leur donner son numéro de carte bleue, sinon, ils se mettront en grève.

Par contre, elle n’a aucun logiciel libre. Alors que pour pas un rond, ils feraient tout aussi bien le travail et, accessoirement mais pas trop, lui redonnerait une prise directe et citoyenne sur sa vie numérique.
Alors, si Tata elle téléchargeait la Framakey Megapack, en 3 clics et le temps d’un épisode de Derrick, elle se retrouverait avec 60 applications libres sur son disque dur, le menu Démarrer qui va bien et tout et tout. Et même, on lui expliquerait en quoi Firefox (yeepa !) c’est plus mieux qu’Internet Explorer (bweark !), le tout avec un peu de musique libre pour bercer ces oreilles.

  • Date de release estimée : RMLL 2009 (Juillet)

D’autres éditions en perpective

Tout est possible, mais le temps n’étant pas extensible, voilà déjà un planning bien chargé. Évidemment, les idées sont les bienvenues…

Les « Framakey webapps »

Framakey - Harrypopof - Licence Art LibreDe plus en plus d’applications qu’on utilise sont des applications web. D’ailleurs, je ne vous ai pas dit que Tata Jeannine utilisait (l’excellent) Dotclear pour raconter la vie de Puffy, son caniche nain ?
Le souci, c’est que les applications web, on aime bien les tester avant, et que c’est souvent compliqué de mettre en place un système Apache/PHP/MySQL, puis d’y installer l’appli en configurant la base et tout et tout.

Alors l’idée serait donc de proposer des applis web portables pour Windows. Par exemple : PortableDotclear.zip, je dézippe, je lance PortableDotclear.exe, et hop, me voilà avec un dotclear directement utilisable.
Portable(Drupal|wordpress|joomla|mediawiki|dokuwiki|alfresco|sugarCRM|.*), c’est possible !

D’ailleurs, Bitnami le propose déjà. Mais 1) c’est pas 100% libre, et 2) ça n’est pas portable (installation de services windows).

Éventuellement, imaginez-le couplé avec Mozilla Prism, et ça peut donner un truc vraiment sympa, non ? (Évidemment, dans les endroits hyper-connectés, l’intérêt peut être limité, mais puisqu’on veut mettre vos sites sur liste blanche…)

  • Avancement : 30%
  • Dates de release estimée : 5 à 6 paquets pour les RMLL 2009 (Juillet)

Les projets à venir

La Framakey Mac

Évidemment, il n’y a pas que Windows dans la vie, il y a Mac aussi[10].
« Et pourquoi pas une Framakey pour les Mac ? »
Il y a une demande. On sait le faire. Mais on ne peut pas le faire…

C’est tout bête, mais on n’a pas de Mac, chez Framasoft (notez qu’on m’en a prêté un, une fois, j’ai trouvé que ça ressemblait furieusement à une Fedora[11]). L’appel au don[12] est ouvert. Par contre, c’est pas pour faire mon difficile, mais s’il pouvait être 1) récent et 2) portable ou mini, ça m’arrangerait pour préserver la paix de mon ménage qui commence à trouver que le bureau ressemble furieusement à la salle des machines de Star Treck IV.

  • Date de release estimée : pas de Mac, pas de Framakey Mac.

La Framakey 2

Ah, la Framakey 2, alias Winaptic, alias « ça sortira… un jour… peut être »… Tous les libristes m’ayant croisé ces 3 dernières années ont dû repartir avec un bon mal de crâne, tellement je les ai saoulé avec ce projet (les Kazé, Paul, Sonny, et j’en passe). Le principe, c’est tout simplement un Synaptic pour Windows. Avec pour système de paquets, le … .zip (volontairement, on ne gère pas de dépendances, tout étant dans le zip). Là encore, un des problèmes de Tata Jeannine, c’est qu’elle n’a jamais entendu parler de Firefox (la pauvre) ou d’Audacity, ou d’InfraRecorder. Pourtant, ça lui serait bien utile.
Elle télécharge donc la Framakey 2 (10Mo) sur son disque dur (interne ou externe) ou sa clé USB, l’exécute et là on lui demande de quoi elle a besoin. « Un navigateur web ? Mais bien sûr qu’on a cela, je vous propose de télécharger Firefox en cochant la case à côté. Ah, et un logiciel pour enregistrer vos vinyls ? bien entendu, cochez donc Audacity. Ca sera tout ? Bien. Tant que vous êtes là, je vous signale que l’application CoolPlayer que vous aviez téléchargée existe dans une version plus récente. Souhaitez vous la mettre à jour ? Parfait. Maintenant, cliquez donc sur Télécharger et installer et allez donc regarder la fin de Derrick pendant que je travaille. »

Bref, une Framakey sur mesure.

Dans mes rêves les plus fous, elle était faite en XUL, la technologie qui motorise Firefox. D’ailleurs, entre télécharger une extension et une application, il n’y a qu’un pas…(je laisse les développeurs XUL méditer cette phrase). Mais mes rêves les plus fous… Enfin bref, une version alpha est disponible depuis plusieurs mois. Mais elle est boguée et pas très à jour… Elle repose sur aSuite pour le lanceur, et AppSnap pour le gestionnaire d’applications, avec une glue maison pour faire tourner tout ça. Grâce à Mouss (de la communauté Framakey), on a pu faire le gros des adaptations nécessaires, mais il reste encore pas mal de bugs…

Vous pouvez d’ailleurs en voir une ancienne vidéo (ça commence en gros à la moitié) :

—> La vidéo au format webm

  • Avancement : 50%
  • Date de release estimée : 2009 si tout va bien… et on ne rigole pas au fond de la salle…

Pendant ce temps là, à Vera Cruz

La roadmap serait incomplète sans parler :

  • du portail d’applications portables, qu’il faut maintenir à jour (sans parler des nouvelles applications qui y seront ajoutées sous peu),
  • du rapprochement en cours avec la communauté PortableApps.com (même si je suis critique sur leur système de packaging et description d’applications, ils sont infiniment plus gros que Framakey, et nous avons donc tout intérêt à coller à leurs normes),
  • du site web Framakey, qui sera probablement refondu dans l’année,
  • du projet, récurrent, de monter une petite boutique en ligne où vous pourriez acheter des clés de qualité à prix modique, avec la Framakey de votre choix préchargée (donc, plus la peine d’enchainer Les feux de l’amour, Derrick et Arabesque, que tous les fichiers soient copiés).

Voilà, c’était un rapide (!) tour d’horizon de « où en est Framakey, et où va-t-elle ? ». Félicitations à ceux qui auront réussi à lire jusqu’ici !
Si vous le souhaitez, et si l’hôte de ce blog en est d’accord, je reviendrais régulièrement vous donner des nouvelles de l’avancement de ces différents projets.
A moins que ça ne soit pour vous parler du FramaDVD… Mais chut, je ne vous en dis pas plus…

Marius - CC by-sa

Notes

[1] Crédits photos et illustrations : 1. Nojhan (Licence Art Libre) – 2. Capture écran Framakey 1.9 par Pyg (Creative Commons By) – 3. Wstryder (Creative Commons By) – 4. Harrypopof (Licence Art Libre) – 5. Marius (Creative Commons By-Sa)

[2] Enfin, propre, propre, c’est une façon de parler.

[3] Notez que l’idée n’est pas mauvaise en tant que telle, mais elle n’est pas toujours pertinente.

[4] Au niveau mondial, je pense bien, jusqu’à ce qu’on m’indique le contraire.

[5] Imaginez ma surprise l’été dernier quand, rencontrant un ami d’ami de nationalité libanaise, il me vanta les mérites de sa clé pleine de logiciels et qu’au lancement je découvris.. un clone de la Framakey !

[6] Attention : de l’ironie un peu agacée se cache dans cette phrase, sauras-tu la retrouver ?

[7] Certes, le journalistes fait de nombreux amalgames et contre-sens, mais pour nous l’essentiel est bien que les élèves puissent avoir librement accès à Firefox, OpenOffice.org, et bien d’autres…

[8] Attention : un presque titre de série se cache dans ce titre, sauras-tu le retrouver ?

[9] Attention : un mensonge éhonté se cache dans la phrase précédente, sauras-tu le retrouver ?

[10] Attention : un troll se cache dans cette phrase, sauras-tu le retrouver ?

[11] Attention : une vérité profonde se cache dans cette phrase, sauras-tu la retrouver ?

[12] Financier, ou carrément de machine si vous êtes sur Lyon.




Largage de liens en vrac #12

Marcelo Alves - CC by-saDites, vous n’avez pas mieux à faire que de venir fouiner par ici ? En plus c’est comme d’habitude, des logiciels non testés, mal classés et de qualité disparate.

Non, franchement, vous devriez plutôt parcourir notre magnifique dossier sur Wikipédia ou alors, je ne sais pas moi, acheter un framabook pour l’offrir à votre ami(e) déçu(e) de n’avoir rien reçu(e) à la Saint-Valentin.

Vous êtes toujours là ? Bon ben tant pis pour vous. On aura tenté de vous dissuader mais c’était sans compter sur votre légendaire entêtement[1].

  • GimpPhoto : « GimPhoto is GIMP modification with new menu layout, great selection of plugins, and many additional resources for more professional look and feel as digital photo retouching and image editing application package. » Est-ce clair ou je traduis ? En tout cas c’est du GIMP dans sa dernière version 2.4.3, avec toujours cette idée fixe de séduire les photoshopeurs, à comparer (dans les commentaires ?) avec Gimpshop (dont le site a subi une invasion de sauterelles pubs ces derniers jours). Tant qu’à parle de GIMP voici 50 tutoriels (en anglais).
  • Flowplayer : Des lecteurs pour lire les vidéos .flv en streaming flash, il en existe pas mal (et même en libre) mais celui-là, sous GPL, est peut-être le meilleur qu’il m’ait été donné de voir (comme ça, a priori). Tout est configurable et la version playlist a vraiment de la gueule.
  • Chevreto : Un script espagnol prometteur pour proposer à vos internautes une site pour déposer facilement et très joliment (Ajax inside) vos images, qu’elles proviennent de votre ordi ou du Net (+ redimensionnement à la volée). Pourrait donc devenir le ImageShack du libre en quelque sorte.
  • Burning Mill Express : Pour Windows only, un logiciel de gravure (CD, DVD, ISO…) qui semble bien réalisé. Je ne suis vraiment pas un spécialiste, quelqu’un peut nous dire ce qu’il vaut pa rapport à la concurrence libre sur cet OS ?
  • AribaWeb : Un framework pour nous faire de puissantes applications Web en Ajax et tout le toutim. Si vous arrivez à nous pondre un Gmail du libre avec, merci de nous prévenir dans les commentaires.
  • Dicts.info : C’est pas du libre mais c’est bien pratique. Des tonnes de dictionnaires pour traduire un peu dans toutes les langues (par exemple de l’estonien au coréen). Typiquement le genre de sites qui attend que les gens viennent pour nous coller de la pub mais évitons le procès d’intention…
  • iPodME : Celui-là je ne sais pas trop si il mérite le référencement mais bon… il s’agit de convertir ses vidéos pour son iPod (sources disponibles mais j’ai pas vu la licence). Que pour Windows avec .NET dedans (c’est bien ce que je vous disais).
  • Twitter sur Pidgin : Pour suivre Twitter (mais aussi Identi.ca) sur le célèbre logiciel de messagerie instantané. L’occasion de rappeler les liens vers le compte Framasoft de Twitter et Identi.ca (nos derniers tweets sont dans la colonne de droite de cette page du reste).
  • Open Web Messenger : Application de chat en ligne permettant à vos visiteurs de discuter avec vos techniciens, commerciaux ou tout autre intervenant, sous licence Eclipse.
  • Lavoisier : Une bien belle police Open Source signalée par theClimber.
  • 10 obscure Linux applications you need to try : À ne lire que si vous êtes geek, admin et sous GNU/Linux (et que vous comprenez l’anglais mais, bon, si vous répondez aux trois premiers critères le quatrième devrait naturellement suivre).

Notes

[1] Crédit photo : Marcelo Alves (Creative Commons By-Sa)




L’allégorie du pingouin de l’Antarctique

Un pingouin inlassablement poursuivi par des orques (jeu ou danger ?) et qui vient trouver refuge sur le zodiac des hommes ! Belle métaphore non ?!

—> La vidéo au format webm

TsavenNava, qui a uploadé la vidéo sur YouTube, précise qu’il n’en est pas l’auteur (en se dédouanant par la même occasion de cette pénible bande sonore). Elle lui a été donnée, l’été dernier, par le chef de la station de recherche de Vernadsky en Antarctique.

PS : Au fait s’agit-il d’un pingouin ou d’un manchot ? Et de quelle famille exactement ? Y a-t-il des spécialistes dans la salle ?




Wikipédia et éducation : un exemple de réconciliation 3/6

Cet article fait partie du dossier Wikipédia et éducation : un exemple de réconciliation.

C’est la traduction du témoignage d’un éditeur de Wikipédia ayant aidé les étudiants à atteindre leur objectif, à savoir la quête de l’Article de Qualité, qui est ici présentée.

Copie d'écran - Wikipédia - Témoignage wikipédien

Wikipédia et université : Murder, Madness and Mayhem ?

Wikipedia and academia: Murder, Madness and Mayhem?

EyeSerene – 14 avril 2008 – Wikipédia
(Traduction Framalang : Olivier)

Quand l’idée a été soulevée de mettre sur pied une équipe d’éditeurs spécifiquement dédiée à l’obtention du label Article de Qualité, nous sommes entrés en contact avec le Wikiprojet Murder, Madness and Mayhem (NdT : Meutre, Folie et Chaos, MMM) pour ce que nous pourrions appeler notre première mission. Deux réactions antagonistes sont alors nées en moi. Je me suis exclamé « magnifique ! » mais une voie plus sceptique murmurait « hum… pourquoi pas ». La première émane de ma foi dans « le rêve », la deuxième de mon expérience sur le terrain du travail sur Wikipédia.

Je crois avec ferveur en la vision de Wikipédia ainsi résumée « Imaginez un monde dans lequel chacun puisse avoir, partout sur la planète, libre accès à la somme de toutes les connaissances humaines. C’est ce que nous sommes en train de faire » (Jimmy Wales). Évidemment, certains avertissements sont de rigueur, peut-être que l’adjectif « vérifiable » devrait être ajouté ici !, mais derrière tous les articles de groupes de musique méconnus, d’écoles primaires et d’épisodes des Simpson, le rêve se poursuit. Les gens instruits sont des gens libres et autonomes et une longue route a été tracée depuis le temps où le savoir et l’éducation n’étaient réservés qu’à une petite élite… mais il nous reste encore beaucoup de chemin à parcourir.

Peut-être sommes nous de doux rêveurs à croire qu’une encyclopédie peut changer le monde, mais pour moi l’important n’est pas là. C’est le concept sous-jacent qui me motive. Et si les gens, indépendamment de leur race, de leur religion, de leur emplacement géographique ou quoi que ce soit d’autre pouvaient s’unir comme nous le faisons ici ? Et si ils pouvaient s’affranchir des frontières, des gouvernements et des contraintes sociales pour communiquer et collaborer les uns avec les autres de manière constructive et créer quelque chose qui est infiniment plus grand que la somme de ses parties ? Je pense alors qu’il serait très difficile de convaincre un public ainsi informé et lié que tel groupe ou telle nationalité est en fait leur ennemi, alors qu’une longue expérience personnelle leur affirme le contraire. Le fait que Wikipédia soit banni ou restreint dans certaines parties du monde et chez certains régimes politiques en dit long sur la peur que peut engendrer ce simple concept « d’information en accès libre ».

Évidemment, et quand bien même tous ceux qui comme moi tiennent à la crédibilité de notre encyclopédie aiment à penser que le savoir que nous mettons à disposition est vraiment utile, nous devons aussi tenir compte de tous ces articles de groupes de musique méconnus, d’écoles primaires ou d’épisodes des Simpson. Mais sous bien des aspects c’est ce qui fait la force de notre modèle.La force magnétomotrice, un article technique qui capte une audience relativement faible et spécialisée, est classé dans la catégorie des articles à étoffer même s’il existe dans l’encyclopédie depuis bientôt quatre ans. L’article Les Simpson fait quant à lui l’objet de modifications permanentes, il s’est largement étoffé et se décline aujourd’hui dans plus de soixante langues (alors qu’on ne trouve que six localisations de la force magnétomotrice). Si nous acceptons le fait que Wikipédia est plus qu’une encyclopédie, nos articles sur la pop-culture font clairement parti de notre succès. Ils participent à la collaboration et aux interactions sociales au-delà des continents et des océans et peut-être que ce sont ces articles qui reflètent le mieux la vision de Wikipédia.

La crédibilité culturelle de Wikipédia n’est plus à démontrer. Vous voulez savoir quel docteur a pris la suite de Patrick Troughton (NdT : dans la série TV Docteur Who) ? Vous voulez connaître le nom de la maison de Harry Potter ? Où irons-nous alors en priorité ? J’aimerais cependant que Wikipédia soit également reconnu comme une source académiquement acceptable. On sait bien désormais que Wikipédia constitue la première étape de n’importe quelle recherche pour la majorité des étudiants, et ce dès le secondaire. On peut débattre du bien-fondé de cette habitude, mais en tant qu’étudiant planchant en fin d’étude sur la diffractométrie de rayons X, j’aurais certainement apprécié en 1989 avoir cette ressource primaire, quand bien même l’article en lui même n’aurait évidemment pas été suffisant.

Wikipédia ne peut pas se substituer à une recherche bibliographique, vous devez quand même lire les bons articles et les bons journaux. Il ne peut pas vous enseigner une matière non plus, nos articles ne sont pas écrits dans cette optique, bien qu’ils soient assez complets pour qu’un lecteur néophyte puisse comprendre de quoi il en retourne. Si vous attendez ceci de Wikipédia (que tout le travail soit déjà fait ou qu’il vous enseigne une matière), vous vous trompez lourdement sur les buts de Wikipédia. Mais le fait est que notre encyclopédie a été, est et restera certainement toujours utilisée ainsi. Cependant combien d’étudiants comprennent véritablement la différence entre se rendre sur leur source d’information en ligne préférée pour vérifier la réponse à une question de quizz sur le nombre de test centuries que Andrew Strauss a inscrit (la réponse est 12 au fait) et citer cette information dans la biographie d’un joueur de cricket ?

C’est là, pour moi, la fascinante dichotomie du Wikiproject Murder Madness and Mayhem de Jbmurray. Il faut avouer qu’on a commencé à s’habituer à ce que notre encyclopédie ou nos articles soient tournés en ridicule par le monde universitaire et, même si ce n’est pas toujours de gaieté de cœur, il nous faut bien reconnaître que leurs critiques ne sont pas infondées. Wikipédia a la réputation de ne pas respecter l’expertise auto-proclamée et les arguments des experts sont rarement pris au sérieux. Du fait de l’anonymat des éditeurs et de l’impossibilité de vraiment connaître les références de la personne de l’autre côté du modem je ne vois pas comment il pourrait en être autrement… mais devoir étayer chaque affirmation par une source vérifiable a sans aucun doute repoussé des éditeurs qui autrement auraient apporté une contribution importante à notre effort.

De nombreux universitaires, indignés d’être traités de la sorte par des gens qu’ils ne connaissaient pas ou qu’ils ne respectaient pas (intellectuellement s’entend !), se sont retirés du projet avec dégoût, résolus à ne jamais plus employer Wikipédia et à ne plus jamais en encourager l’usage non plus.

J’ai également souvenir d’un incident où l’auteur d’un livre cité dans un article a tenté de corriger l’article, mais sa modification a été refusée par des éditeurs qui se sont servis de son propre livre pour justifier le rejet. Frustré, il répondit en substance « C’est moi l’auteur de ce foutu texte que vous citez à tort, je sais de quoi je parle ! », mais ça ne l’a pas beaucoup aidé. D’un autre côté, pourquoi en tant qu’éditeurs devrions-nous accepter aveuglément ce que nous dit un « expert » auto-proclamé ? N’est-ce pas ce qui fait en partie la vision de Wikipédia ? Nous ne nous contentons pas (ou nous ne devrions pas nous contenter) de donner les faits… idéalement nous fournissons aussi des sources afin que tout un chacun puisse vérifier ces faits. On retombe sur « l’accès libre à l’information » !

Mon enthousiasme pour le projet novateur de Jbmurray, l’espoir qu’il est possible non seulement d’améliorer notre encyclopédie (ce qui me tient à cœur) en aidant les élèves dans leurs études, mais aussi de renforcer sa crédibilité et peut-être même de recruter de nouveaux accrocs à Wikipédia éditeurs, a donc été quelque peu tempéré par les expériences qu’ont eu de nombreux universitaires avec nous. Évidemment, Jbmurray n’était pas exactement un novice sur Wikipédia et il était déjà au courant des particularismes, voire même parfois des absurdités, qui maintiennent notre effort sur de bons rails, mais cela ne préfigurait en rien du succès de son projet.

Côté technique, j’avais de gros doute qu’on puisse ne serait-ce qu’approcher le grade d’Article de Qualité pour chaque article du projet. Malgré ce que peuvent en dire les critiques, rédiger un Article de Qualité est un processus complexe et rigoureux qui demande une grande disponibilité, beaucoup d’énergie et, oserais-je le dire, de l’expertise (pas seulement sur le sujet de l’article mais aussi sur les critères strictes des Articles de Qualité). Le seul moyen d’atteindre ce but était que la FA-Team collabore étroitement avec Jbmurray et les éditeurs de MMM.

J’ai tiré de mon expérience sur Wikipédia la conclusion que pour certains éditeurs le principe de la collaboration restera à tout jamais un mystère. Et pourtant il n’y a rien de bien sorcier si tout le monde y met de la bonne volonté. C’est évident que si les éditeurs sont traités avec respect, approchés de manière ouverte et amicale, remerciés pour ce qu’ils font de bien et réprimandés (poliment !) lorsqu’ils se trompent, ils répondront alors positivement dans la plupart des cas. Que ce soit sur Internet ou dans la vraie vie, certains sembleront toujours génétiquement incapables de formuler des encouragements ou de recevoir des critiques, mais ces personnes poussent à bout la patience de la communauté et finalement abandonnent le navire.

Bien que nous baignons dans un monde virtuel, nous avons à faire avec des personnes bien réelles avec des émotions bien réelles au bout de la connexion, alors pourquoi devraient-elles être traitées plus durement que si nous les rencontrions dans notre bureau, notre salle de classe ou au bar… et au nom de quoi devrions nous fermer les yeux sur de tels agissements ? Wikipédia s’auto-gère assez bien, ce qui profite à la collaboration, et comme le note Jbmurray ceci peut déboucher sur une synergie qui vous permet de croire que notre vision est vraiment à notre portée. Il soulève ici un corolaire très intéressant, un corolaire qui touche à la critique universitaire. Lorsque la collaboration existe (et en déformant les paroles bibliques, lorsque deux éditeurs ou plus s’unissent au nom de Wikipédia…), de grandes choses peuvent se produire.

Mais lorsque l’on permet aux articles de se morfondre dans leur médiocrité, et cela arrive encore trop souvent pour des articles techniques, ésotériques ou académiques, c’est notre réputation qui s’en retrouve entachée. Au bout du compte, tout ce que l’on obtient alors est de l’antagonisme, qu’il représente aussi bien le « contraire de la synergie » que la « caractérisation de la réaction des personnes qui accèdent à ces articles ».

Grâce au soutien universitaire de Jbmurray, aux encouragement et aux conseils techniques de la FA-Team, les rédacteurs étudiants de MMM ont produit un impressionnant travail de fond, fait d’autant plus remarquable que beaucoup n’avaient jamais édité dans Wikipédia avant ce travail. Dans un certain sens nous poussons ici plus loin encore qu’à l’accoutumée les capacités de la communauté à travailler dans la même direction, puisque, contrairement à nous wikipédiens, les éditeurs de MMM ne sont pas ici de leur plein gré mais parce qu’ils y sont obligés, de leur succès dépendent leurs notes ! Voilà qui les pousse à collaborer encore davantage pour atteindre leur but, mais c’est une motivation autre que celle qui anime d’ordinaire nos éditeurs volontaires.

Je ne suis pas naïf au point d’imaginer que tous les wikipédiens adhèrent à l’idéal de Wales, chaque éditeur a sa propre motivation et certaines sont moins louables que d’autres. Quoiqu’il en soit, si on met de côté ceux qui sont là pour, par exemple, créer des articles vaniteux ou pour faire de la publicité pour leur commerce, le résultat final est le même et encore une fois, c’est la collaboration de tant de personnalités différentes pour aboutir à un but commun qui me donne espoir et qui me fait croire à la mission de Wikipédia.

La collaboration n’est pas toujours simple (si c’était le cas, des groupes comme le Comité d’Arbitrage et des pages comme l’Appel aux commentaires seraient largement superflus) et dès le début certains des éditeurs de MMM ont dû se frayer un chemin dans le méandre des révisions des articles, prenant alors potentiellement le risque de déclencher de nouvelles guerres d’édition ou pire encore. Ils y sont très bien parvenus grâce à leur propre envie d’apprendre et grâce à la bonne volonté dont ont fait preuve les éditeurs réguliers qui n’étaient pas familiers avec ce projet et ces objectifs, sachant que la différence entre le premier essai timide d’un nouvel éditeur et l’acte de vandalisme est parfois difficile à discerner.

Alors, sur quoi va déboucher cette expérience MMM ? On en aura évidemment une meilleure idée quand elle aura déjà un peu de vécu, mais on peut espérer que les étudiants la trouveront enrichissante et instructive, qu’ils en retiendront plus que juste les notes qu’ils recevront. Scolairement parlant, comme l’écrit Jbmurray, ils devraient en tirer une meilleure compréhension de la nécessité d’étayer leurs informations avec des sources vérifiables et ils devraient aussi mieux percevoir les limitations d’une encyclopédie en temps que ressource. Wikipédia ne peut être, même dans le meilleur des cas, que le point de départ d’une recherche approfondie. Le projet a peut-être aussi posé les bases d’un modèle qui aura du succès dans le monde universitaire.

Cela ne fait aucun doute, de nombreuses personnes parmi les éditeurs sont hautement qualifiées dans leur domaine et dans le partage de leurs connaissances dans ce domaine au sein même de l’encyclopédie, contribuant à améliorer le niveau global de Wikipédia. Mais la sempiternelle question de la couverture du sujet reste toujours en suspens dans la communauté (ou plutôt chez ceux qui s’intéressent plus particulièrement à la qualité des articles). Nous pouvons imposer des règles et des critères pour les Bons Articles ou pour les Articles de Qualité mais, en tant que non-experts, comment être surs qu’un article est complet et précis ? Nous pouvons utiliser les sources mentionnées et vérifier les références, mais sans un expert à disposition nous devons nous reposer sur l’article lui-même pour obtenir ces informations.

D’une manière générale notre travail est satisfaisant, car même en tant que non-experts quelques recherches nous permettent de juger de la profondeur (ou du manque de profondeur) de la couverture d’un article. Mais comme l’a prouvé cette expérience, les conseils d’experts sont inestimables. Pour résumer, nous avons besoin des universitaires car apparemment leurs étudiants ont besoin de nous.

Naturellement, des mises en garde sont de rigueur. Si certains experts ne voient en Wikipédia que frustration et antagonisme, c’est principalement car ils n’ont pas à l’esprit la spécificité de Wikipédia, à savoir sa communauté et ses lois. Même si la grande majorité des éditeurs supposera la bonne foi, le respect se gagne. C’est seulement en lisant les règles de Wikipédia et en faisant l’effort de vous y tenir que vous gagnerez ce respect qui donnera du poids à vos opinions et vos propositions. Quelle crédibilité peut-on accorder à universitaire étranger débarquant dans un séminaire en imposant ses propres pratiques et en faisant fi des convenances et traditions locales ?

Pourquoi devrions nous alors accepter ce genre de comportement ? Comme Jbmurray le fait remarquer, la capacité à développer une idée et de la défendre avec ardeur a moins de valeur sur Wikipédia que la capacité à négocier un consensus… et de se retirer avec élégance si ce consensus ne va pas dans notre sens, même lorsque les autres éditeurs ont ponctuellement clairement tort (ce qui arrive inévitablement avec une communauté de cette dimension). Mais à long terme, est-ce vraiment important ? Le consensus peut évoluer, et un article peut toujours être revu une semaine après, un mois après, une année après…

L’incapacité chronique de certains universitaires et experts à réaliser que Wikipédia n’est pas l’extension de leur faculté et qu’elle n’est pas par conséquent sous leur autorité, que notre mission est simplement de reproduire ce qui a déjà été publié par des sources vérifiables (vérifiabilité, pas vérité), et que leurs compétences dans un domaine ne les dote pas nécessairement de la capacité à bien faire dans d’autres domaines, a sans aucun doute affecté les relations dans les deux sens. Cependant le monde académique a beaucoup à y apporter, si l’on ne se trompe pas sur ce qu’est Wikipédia (et encore plus ce qu’elle n’est pas ou ce qu’elle ne prétend pas être). C’est ce que démontre le projet MMM de Jbmurray où tout le monde est au final gagnant.

El Senor Presidente - Accueil Wikipédia - 5 mai 2008

Les autres articles du dossier

  • 1/6 – Introduction
    Un projet pédagogique « de qualité ».
  • 3/6 – Le projet vu par un éditeur de Wikipédia
    Le point de vue d’un éditeur de Wikipédia, membre de « l’équipe des Articles de Qualité », ayant accompagné et soutenu les étudiants pendant la durée de leurs travaux.
  • 6/6 – Liens connexes
    Une sélection de liens francophones autour de Wikipédia et l’éducation.