De quelques causes réelles de l’effondrement des Majors

Hryck - CC byVoici un article d’Ars Technica qui parle d’un livre qui n’a que peu de chances d’être traduit.

Il nous a semblé pourtant intéressant de vous le proposer ici en ces temps d’Hadopi dans la mesure où la thèse est d’expliquer que la crise de l’industrie musicale cherche ses causes bien en amont du problème du « piratage » et du P2P.

N’oublions pas en effet par exemple que lorsque nous sommes passés du vinyl au CD, les prix ont plus ou moins doublé[1] alors que la part réservée aux artistes n’a elle pas bougé !

Edit : Cet article a été reproduit dans le journal Vendredi du 15 mai 2009 (image scannée).

Crever le p***** d’abcès : comment le numérique a tué la musique à gros sous

"Lancing the f***ing boil": how digital killed Big Music

Nate Anderson – 24 mars 2009 – Ars Technica
(Traduction Framalang : Olivier et Don Rico)

Dans son livre Appetite for Self-Destruction: The Spectacular Crash of the Record Industry in the Digital Age (NdT : Envie d’auto-destruction : la chute spectaculaire de l’industrie du disque à l’ère du numérique), Steve Knopper se penche sur le music business. Ars se plonge dans le livre, qui affirme que l’effondrement des majors n’est pas (essentiellement) dû au P2P.

Contrairement aux idées reçues, même les grands pontes du music business ont le sens de l’humour, comme cela transparaît souvent dans le nouveau livre de Steve Knopper, Appetite for Self-Destruction: The Spectacular Crash of the Record Industry in the Digital Age. Dans l’histoire que raconte Knopper, la cause du déclin des maisons de disques n’est pas seulement la technologie ou les programmes de partage ; c’est surtout une question de personnalités, et son livre regorge d’anecdotes dépeignant les dirigeants des majors.

En voici une que l’on trouve vers la fin du livre :

La tension autour du SDMI atteignit un pic à la fin août, à la Villa Castelletti, un somptueux hôtel dans un vignoble vallonné à une trentaine de kilomètres de Florence. Tous les cadres étaient réunis dans une cour de la villa, au loin, on entendait de temps à autre des coups de fusil destinés à éloigner les oiseaux des vignes. La réunion suivait son cours et Al Smith (Vice-président de Sony Music), comme à son habitude, était en rogne, en désaccord avec une proposition du président de session, Talal Shamoon. Finalement, Smith quitta la réunion. À peine trois secondes plus tard, un énorme Pan ! retentit. Les membres de la SDMI se regardèrent fébrilement. Shamoon dit alors du tac au tac : « Je crois qu’une place vient de se libérer chez Sony Music ».

C’est amusant, mais aussi assez navrant – pas à cause des oiseaux et des fusils, mais parce que cette réunion se tenait dans le cadre de l’extrêmement coûteuse Secure Digital Music Initiative, que les majors ont initiée en 1998 pour coller des DRM sur la musique. Ces grandes réunions se sont tenues partout dans le monde (dans des lieux comme la Villa Castelletti qui sont loin… d’être donnés) pour finalement accoucher d’un procédé de tatouage numérique soi-disant "inviolable". Le groupe a alors lancé un concours et invité des équipes à cracker SDMI ; le professeur d’informatique Ed Felten a rapidement mis à mal quatre procédés de tatouage numérique différents. La SDMI la ensuite menacé pour le dissuader de rendre ses résultats publiques, le professeur a alors riposté en les attaquant en justice, et pour finir toute l’affaire a été finalement abandonnée. Tout comme la SDMI.

Si l’industrie du disque avait abordé la musique numérique comme elle a abordé le CD, sans cette obsession pour les protections anti-copies, en acceptant un nouveau format et en amassant de l’argent à la pelle, elle se porterait peut-être encore pour le mieux. Mais l’industrie en a décidé autrement, et, comme le raconte Knopper, elle en a payé le prix.

Bienvenue dans la jungle

L’industrie du disque n’est pas une industrie comme les autres et ne l’a jamais été. Prenons par exemple, juste pour illustrer, une anecdote à propos du label Casablanca dans les années 70 :

Danny Davis, le gars qui s’occupait de la promo, se souvient d’une fameuse discussion téléphonique avec un programmeur radio pendant qu’un collègue, muni d’un club de golf, détruisait tout sur son bureau avant d’y mettre le feu, et ce n’était pas une hallucination due aux drogues.

« On pouvait s’attendre à tout, chez Casablanca », raconte Bill Aucoin, qui était alors manager du groupe de rock le plus connu chez Casablanca, KISS. « Nos premiers bureaux étaient en fait une maison avec un cabanon à côté de la piscine. Dans ce cabanon, à n’importe quelle heure du jour ou de la nuit, que vous fussiez promoteur de disque ou DJ, vous pouviez vous envoyer en l’air quand vous le vouliez. »

L’industrie a appris à frapper des hits (et donc de l’argent) dans les années 60 et 70, mais c’est le CD qui a fait des maisons de disque les monstres que l’on connait. Knopper consacre la moitié de son livre à expliquer le boom du CD, et n’évoque Napster qu’au bout de 113 pages. C’est parce que, de son point de vue, on ne peut comprendre la chute des labels à l’ère de la distribution numérique qu’en étudiant le précédent changement de format majeur et les énormes profits qu’il a apportés à l’industrie.

Si vous avez suivi Battlestar Galactica récemment, ou si vous lisez Nietzsche, vous connaissez les théories traitant de la nature cyclique de l’Histoire, et c’est sous cet angle que Knopper présente son histoire. À l’arrivée du CD, nombreux furent les dirigeants des maisons de disque à le détester. L’un d’entre eux raconte, même maintenant : « Je pensais que (les ingénieurs qui l’avait produit) aurait pu trouver un moyen d’éviter le piratage ».

Mais avec du recul, ces petits disques de plastique ont été une véritable mine d’or. Les gens ont adoré ce nouveau format, et nombreux furent ceux qui rachetèrent toute leur collection en CD, et les prix de la musique enregistrée grimpèrent en flèche. Comment l’industrie a-t-elle répondu à cette aubaine ? En entubant les artistes.

Knopper raconte comment les labels ont écrit de nouveaux contrats pour ce nouveau format, des contrats où figuraient des « réductions d’emballage » et des « indemnités de marchandise gratuite » plus élevées. En plus de ces déductions, les taux de royalties touchés par les artistes ont été réduits. « Après que les labels ont inventé ces nouvelles déductions », ajoute Knopper, « l’artiste moyen touchait 81 cents par disque. À l’époque des vinyles, les artistes touchaient un peu plus de 75 cents par disque. Donc les labels vendaient les CD huit dollars plus cher que les vinyles, mais les artistes ne gagnaient que six cents de plus par album. »

Ces pratiques ont alimenté un boom du CD qui a duré de 1984 à 2000, date à laquelle le sol a commencé à se dérober sous les pieds de l’industrie. Après deux décennies de musique à prix d’or, et d’investissement minimum pour des singles de bas-étage, les labels se sont engraissés en pondant à la chaîne des albums ne contenant que deux tubes. Les autres chansons pouvaient être médiocre, mais les fans qui cherchaient un tube particulier achetaient l’album quoiqu’il arrive (j’en veux pour exemple le fait que j’ai un jour eu en ma possession un exemplaire de l’album Tubthumper de Chumbawamba).

Le succès de Napster a bien montré à l’industrie du disque que le nouveau format majeur était arrivé. Avec tout le blé qu’ils s’étaient fait lors du précédent changement de format, on aurait pu croire que l’industrie serait enchantée de voir débarquer un nouveau système à même de faire consommer plus de musique à plus de fans encore plus vite. Leur priorité numéro 1 aurait dû être de faire de la musique numérique leur nouveau CD, mais ça ne s’est pas passé comme ça. L’industrie a simplement souhaité la mort du numérique.

Une spirale infernale

Le nombre d’interviews que Knopper a réalisées pour le livre est impressionnant ; elles lui permettent de mettre à nu les personnalités qui se cachent derrière l’industrie du disque. Par conséquent, il a aussi à sa disposition de nombreuses anecdotes aussi obscures qu’instructives, comme celle du dirigrant de Liquid Audio (vous vous souvenez de ça ?), Gerry Kearby. Kearby voulait créer l’anti-Napster, un distributeur de musique en ligne légal, qui utiliserait donc des DRM. Mais au moment de négocier avec les labels, personne n’a vraiment voulu s’engager.

Kearby raconte à Knopper l’instant où il a compris que ça ne marcherait jamais. « Un jour, dans un moment de pure sincérité, (un représentant de Sony) m’a dit, « Écoute Kearby, mon rôle, c’est de te couler. Nous ne voulons pas que tu réussisses, à aucun prix. » Certains étaient plus curieux que les autres, pas de doute là-dessus. Mais, au fond, on aurait dit des vendeurs de carrosses cherchant à repousser l’avènement de la voiture aussi longtemps que possible. »

Un des défauts de ce livre, c’est que cette triste histoire d’incompétence numérique est déjà largement connue. Appetite for Self-Destruction n’apporte rien de nouveau pour ceux qui suivent les sites comme Ars Technica. En voici un résumé : après l’affaire Napster, les labels ont commencé à faire joujou en traînant les pieds avec leurs propres services tout pourris (si je vous dis PressPlay ?) mais ne se sont jamais sérieusement mis à la distribution numérique. Il a fallu que Steve Jobs et l’iPod propulsent Apple aux commandes, une position qui leur a permis de lancer l’iTunes Music Store avec le contenu des maisons de disques et d’offrir les chansons pour 1$. Les DRM, que les labels ont imposés, ont assis la position de leader d’Apple sur le marché de la musique aux USA (ils refusaient de mettre leur système Fairplay sous licence, et l’iPod était le lecteur le plus vendu). Les labels n’ont compris que tardivement ce qui s’était passé, après quoi ils ont tenté de mettre des bâtons dans les roues d’Apple en permettant à des magasins comme Amazon de vendre de la musique sans DRM. Il parle aussi un peu de Kazaa, du fiasco que fut le rootkit de Sony BMG, et de la futilité de la campagne de poursuite lancée par la RIAA.

Mais pour l’essentiel des ces informations, on les trouve ailleurs, et pas seulement sous forme d’articles sur les différents blogs ou sites d’information qui ont couvert les évènements. Des auteurs comme Steven Levy dans le livre The Perfect Thing (iPod) ou Joseph Menn dans All the Rave (Napster) abordent les mêmes sujets, mais de manière bien plus détaillée.

Mais même si Appetite for Self-Destruction ne nous sert essentiellement que du réchauffé, ce qui le différencie, c’est l’accent qu’il met sur les personnes, un aspect trop souvent ignoré par les articles techniques. Après lecture, vous n’éprouverez certainement aucune compassion pour les maisons de disque, mais vous comprendrez mieux les grands pontes qui tiraient les ficelles, et les choix qu’ils ont fait à la lumière de leur propre histoire dans l’industrie de la musique.

Knopper réussit aussi très bien à établir un parallèle entre l’épisode Napster/iTunes/P2P et les grandes années du CD (même s’il en résulte un chapitre long et parfois fastidieux sur les boys band qui semble secondaire par rapport au sujet traité). C’est délibéré, et il le fait pour étayer sa propre thèse comme quoi la majorité des problèmes que rencontrent les maisons de disques avec la musique dématérialisée prennent leurs racines dans ces deux décennies passées à s’engraisser sur les ventes de CD. Ils n’étaient tout simplement pas prêts ou pas désireux de s’adapter à un nouveau monde où la musique s’achète à la carte et où les morceaux sont moins chers.

Knopper cite Robert Pittman, co-fondateur de MTV. « Voler de la musique, ce n’est pas tuer la musique », d’après Pittman. « Quand je discute avec les gens de l’industrie de la musique, ils admettent pour la plupart que le problème est surtout qu’ils vendent des chansons et plus des albums. Le calcul est vite fait. »

« Je me suis rendu compte que dans le milieu, nous étions tous à côté de la plaque », confiait Barney Wragg, cadre chez Universal après avoir quitté le label en 2005 (Wragg est entré l’année suivante chez EMI comme responsable de la musique numérique).

Et James Mercer, chanteur du groupe indépendant the Shins, y va encore plus franchement. « Vous voyez tous ces articles à propos de la débacle de l’industrie du disque », dit-il. « Quand on se penche sur toutes les erreurs commises, c’est un peu comme crever ce putain d’abcès et le désinfecter. Merde, c’est vraiment pas une catastrophe pour les groupes. »

Le piquant de ces citations et l’énorme travail d’interview réalisé font de Appetite for Self-Destruction une lecture passionnante. Pas grand chose de neuf pour les inconditionnels de technologie ou les fanas de droit, mais il résume bien quarante ans de personnalités et d’histoire de l’industrie de la musique pour qui veut comprendre comment l’industrie en est arrivée là.

Notes

[1] Crédit photo : Hryck (Creative Commons By)




Recherche évangéliste du Libre désespérément

Eduardoizquierdo -  CC byUne traduction sans prétention qui pose la question des lacunes marketing, supposées ou avérées, du logiciel libre (ou plutôt de l’Open Source pour être plus précis car nous sommes aux US et il est avant tout question de business). Un marketing qui serait porté par des spécialistes que le monde informatique anglo-saxon a pris l’habitude d’appeler des « évangélistes ».

Dans le domaine qui nous préoccupe ici, les évangélistes dignes de ce nom (Stallman, Shuttleworth…) se feraient donc rares et ce serait du coup un handicap alors même que tout est en place pour que logiciel libre crève l’écran LCD[1].

Il est vrai que lorsque l’on observe chez nous le travail de communication d’un Tristan Nitot (sur son blog, en conférence, dans les médias…), on se dit qu’effectivement il est plus qu’utile à Mozilla et, indépendamment de la qualité intrinsèque des produits, cela a dû certainement avoir une influence sur le succès en France et en Europe du navigateur Firefox.

L’Open Source a-t-il besoin de meilleurs évangélistes ?

Does OpenSource Need Better Evangelists

Sam Dean – 20 février 2009 – OStatic
(Traduction Framalang : Aragog, Goofy et Olivier)

Les sociétés commerciales Open Source ont-elles besoin de meilleurs évangélistes ? Tout pousse à le croire. Par exemple, Savio Rodrigues note que dans le récent tour d’horizon des « entreprises les plus novatrices du monde » du magazine Fast Company, pas une seule entreprise Open Source n’est répertoriée. Sun Microsystems figurait sur la liste l’année dernière, mais cette année elle n’apparaît plus que parmi les exclues dans la rubrique « Les 33 sociétés, parmi les 50 bien classées par Fast Company l’an dernier, qui ne figurent plus sur la liste cette fois mais qu’il faut suivre ». Je ne pense pas qu’ici le problème soit lié à un manque d’innovation parmi les candidats Open Source dignes d’une liste comme celle de Fast Company ; c’est plutôt un problème d’évangélisation médiocre.

Le terme « évangéliste » a été largement utilisé pendant des années par d’éminents employés de Microsoft et Apple lorsque ces entreprises se développaient. Je me rappelle avoir pensé que ce mot est étroitement associé à des gens, dont certains sont des fanatiques, qui recherchent une large audience pour les messages religieux. Pourtant, c’est exactement la raison pour laquelle le surnom a été attribué aux gens tels que Guy Kawasaki pour Apple. Le titre était censé évoquer la ferveur, la foi envers la plate-forme, le besoin de transmettre le message à la foule. Et en parlant d’Apple, qui est l’alter ego Open Source de Steve Jobs ?

Dans un article datant de l’année dernière et intitulé « Les quatre choses dont Linux a besoin », Joe Brockmeier soutenait qu’une des quatre choses nécessaires était le « marketing unifié ». Il écrivait :

« Si vous prenez tous les budgets marketing de tous les fournisseurs de Linux, que vous doublez ce chiffre et que vous y ajoutez un zéro, peut-être commenceriez vous à vous approcher de la somme que Microsoft dépense en marketing pour Windows. Les agences de publicité de diverses industries l’ont bien compris — c’est une bonne idée de mettre en commun votre argent pour augmenter votre part de marché quand vous faites conjointement concurrence à une autre entreprise. »

C’est le genre d’effort de marketing unifié que les évangélistes futés pourraient facilement mener, pour Linux certes, mais aussi pour l’Open Source dans son ensemble. Si cela se fait si peu dans la communauté Open Source, c’est en partie parce qu’elle est trop « communautariste », ce qui la dessert. Je pense que la Fondation Linux est en train de faire quelques bonnes percées dans le processus d’unification, mais davantage d’efforts sont nécessaires pour un évangélisme de l’Open Source fort et unifié, et davantage d’argent aussi.

Dana Blankenhorn vient de faire un bon article qui montre que la communauté Open Source s’appuie plus sur des formules que sur les faits. Il montre du doigt les proclamations discutables formulées par Jonathan Schwartz de Sun sur JavaFX, présenté comme « la plate-forme de RIA (Rich Internet Application) dont la croissance est la plus rapide du marché. »

Pourquoi est-ce que Schwartz ne vante pas plutôt le succès fantastique qu’a rencontré récemment MySQL ? C’est aussi cela du bon évangélisme, la diffusion d’informations pertinentes avec force et conviction.

Voici une analyse récente du cloud computing, venant d’un groupe de réflexion de chercheurs de l’université de Californie, à Berkeley. Elle contient 25 pages de petits caractères sur l’état et l’avenir du cloud computing, mais ne mentionne qu’une seule fois l’Open Source, en passant. Voilà où nous en sommes, alors que les progrès de l’Open Source jouent aujourd’hui un rôle vital sur la scène du cloud computing.

Je trouve absurde que Hulu, qui propose du contenu vidéo en ligne (qui l’eut cru ?), soit numéro trois sur la liste des novateurs de Fast Company, alors que pas une seule société Open Source n’y apparait. Le problème n’est pas le manque d’innovation, mais plutôt un manque de bonne communication et un manque crucial d’évangélisme Open Source unifié.

Notes

[1] Crédit photo : Eduardoizquierdo (Creative Commons By)




Linux a évolué… et vous ?

Fazen - CC byBien qu’il soit désormais prêt à partir à la conquête de nos ordinateurs, les mythes (et préjugés) autour du GNU/Linux continuent d’avoir la vie dure.

C’est ce que nous raconte ici Bruce Byfield en passant en revue une dizaine de légendes urbaines qui demanderaient à être quelque peu réactualisées.

Et de se demander en conclusion, qui de GNU/Linux ou de l’utilisateur est le moins préparé à ce que cette rencontre ait bel et bien lieu[1].

9 mythes sur GNU/Linux

The GNU/Linux Desktop: Nine Myths

Bruce Byfield – 16 mars – Datamation
(Traduction Framalang : Olivier et Don Rico)

Mac OSX est-il prêt pour le bureau ? Personne ne se pose la question. L’adopter demande pourtant de s’adapter à de nouvelles habitudes, de nouveaux outils et à un nouveau bureau, mais peu importe. On dit qu’il est facile d’accès, et il est soutenu par une entreprise propriétaire, tout comme Windows.

Pour GNU/Linux, en revanche, c’est une autre histoire. Depuis des années, les éditorialistes et les blogueurs nous expliquent que GNU/Linux n’est pas prêt pour le grand public et malgré les progrès accomplis au cours de ces dix dernières années, les arguments n’ont pas beaucoup évolué. Ils sont même de plus en plus obsolètes, quand ils ne reflètent pas une profonde ignorance. En fait, j’ai souvent l’impression que tous ceux qui répandent ces poncifs à propos des insuffisances de GNU/Linux ne l’ont jamais essayé.

Les critères de facilité d’utilisation sont souvent subjectifs. Ce que sera un bogue au yeux de l’un sera une fonctionnalité aux yeux d’un autre : par exemple, devoir ouvrir une session d’administrateur pour installer un programme est un désagrément pour les utilisateurs les moins expérimentés, tandis que les connaisseurs y voient un gage de sécurité.

Ce qu’on reproche souvent à GNU/Linux, aussi, c’est de ne pas être pas exactement comme Windows. On passera sur le fait que, s’il n’existait aucune différence entre les deux, on n’aurait aucune raison de vouloir changer de système d’exploitation. Quant à ceux qui s’attendent à utiliser un nouveau programme ou un nouveau système d’exploitation sans période d’adaptation, ils sont sacrément gonflés. Aux yeux de certains critiques, le simple fait que GNU/Linux ne corresponde pas en tout point à ce qu’ils connaissent déjà suffit à le vouer aux gémonies.

Viennent ensuite les critiques à géométrie variable. Par exemple, certains déclarent que GNU/Linux ne sera jamais prêt pour le grand public tant qu’il n’offrira pas certaines fonctions, puis quand on leur montre qu’elles existent ou qu’elles sont en développement, ils changent de cible et insistent sur le caractère indispensable d’une autre fonction. On ne peut contrer ce genre d’argument, car les critères qui les sous-tendent ne sont jamais les mêmes.

Enfin, pour compléter le tableau, on trouve les arguments qui se contredisent eux-mêmes car ils sont faux, incomplets, ou déformant la réalité. Voici neufs des contre-vérités les plus répandues.

1. Les trop nombreuses distributions compliquent la tâche des développeurs

Voilà une affirmation populaire chez les concepteurs de logiciels pour expliquer pourquoi ils ne proposent pas de version de leur produit pour GNU/Linux. Ils affirment en effet que toutes les distributions n’ont pas la rigueur du Linux Standards Base et qu’elles utilisent une hiérarchisation différente. Les distributions, qui plus est, utilisent toutes sortes de paquets, ce qui signifie qu’un support universel implique la création de paquets dans différents formats.

Ces problèmes existent bel et bien, mais cette affirmation exagère les problèmes qui en découlent. Des installeurs universels comme InstallBuilder et Install Anywhere proposent aux concepteurs des installations similaires à ceux de Windows. En ce qui concerne la création de différents paquets, si ça ne pose pas de problème à des projets communautaires, pourquoi est-ce que ça devrait en poser à une entreprise spécialisée ?

Mais au fond, le plus grave problème posé par cet argument, c’est qu’il tente d’imposer un point de vue « à la Windows » à un système existant. Dans GNU/Linux, les créateurs d’applications ne prennent pas en charge les différentes distributions ou formats de paquets, c’est la distribution qui s’en charge.

Si ça fonctionne, c’est parce qu’avec les logiciels libres la distribution peut apporter les changements nécessaires au bon fonctionnement du logiciel. Ça ne pose problème qu’aux concepteurs de logiciels propriétaires. S’ils ne souhaitent pas se conformer au système et libérer leur code c’est leur choix, mais alors qu’ils ne se plaignent pas que le système n’est pas adapté.

2. Aucun outil de migration n’est disponible

Effectivement, ça ne ferait pas de mal à GNU/Linux s’il existait un assistant pour importer depuis Windows les e-mails, les marques pages dans le navigateur, les canaux IRC et autres informations personnelles. Mais on peut faire le même reproche à Windows. Au moins GNU/Linux co-existe avec les autres systèmes d’exploitation et peut lire leurs formatages spécifiques, aussi peut-on importer manuellement certaines de ces informations.

3. Le matériel n’est pas reconnu

Par le passé, le support matériel sur GNU/Linux laissait à désirer. Et dans la plupart des cas, on devait la reconnaissance du matériel aux efforts de la communauté, et non aux fabricants, mais cela restait insuffisant.

Au cours de ces trois ou quatre dernières années, cependant, les pilotes mis au point par la communauté se sont améliorés et les fabricants proposant des pilotes pour GNU/Linux, et plus seulement pour Windows et Mac, sont plus nombreux. Les pilotes des fabricants ne sont pas toujours libres, mais ils sont gratuits.

Aujourd’hui, les incompatibilités pour le matériel commun comme les disques durs, les claviers ou les cartes ethernet, si elles ne sont pas encore éradiquées, restent rares. Les secteurs qui posent plus problème sont ceux des périphériques comme les scanners, les imprimantes, les modems ou les cartes réseau sans fil. On peut néanmoins se couvrir en adoptant de bonnes pratiques comme acheter une imprimante postscript, qui fonctionnera forcément avec le pilote postscript générique, ou en achetant des produits Hewlett-Packard, qui prend en charge l’impression sous GNU/Linux depuis très longtemps.

Certains vont même jusqu’à dire que GNU/Linux, qui conserve en général une compatibilité descendante, reconnait en fait plus de matériel que Windows. Je n’irai pas jusque là, mais, globalement, les problèmes de pilotes sous GNU/Linux semblent être à peine plus fréquents que ceux que j’ai pu rencontrer avec différentes versions de Windows.

De nos jours, on peut même s’affranchir complètement du problème de la reconnaissance du matériel en achetant des ordinateurs neufs préinstallés avec GNU/Linux par des entreprises comme Acer ou Dell.

4. La ligne de commande est indispensable

Cette affirmation est à la fois un souvenir du passé, à l’époque où la ligne de commande sur GNU/Linux était presque indispensable, et des réticences bien compréhensibles des utilisateurs de Windows à utiliser la ligne de commande DOS. C’est pourtant tout à fait faux.

Le bureau sur GNU/Linux est largement opérationnel depuis plus de dix ans. De nos jours, les dernières versions de l’environnement GNOME n’ont pas à rougir de la comparaison avec Windows et, dans ses dernières versions, KDE est l’un des environnement les plus novateurs. Même les outils d’administration sont bien présents sur le bureau.

On peut certes utiliser la ligne de commande, et nombreux sont les utilisateurs qui préfèrent y recourir, surtout les administrateurs, car c’est souvent le plus efficace. Mais pour l’administration ou le travail quotidiens, l’utilisation des lignes de commande relève des préférences personnelles, pas d’une obligation. Elles sont aussi bien plus simples d’utilisation que les lignes de commandes du DOS.

5. Il n’y a pas de logiciel

Il faut en général comprendre par là qu’on ne retrouve pas les logiciels habituels de Windows : pas de MS Office, d’Internet Explorer ou de Photoshop. Mais une simple recherche succincte permet de découvrir des logiciels équivalents qui correspondent plus ou moins, à condition de prendre le temps de s’y adapter.

Neuf fois sur dix, lorsque l’on étudie d’un peu plus près quelqu’un qui critique l’un de ces équivalents (The GIMP par exemple) ou affirme qu’il n’est pas prêt pour un usage professionnel, on se rend compte que cette personne n’a pas exploré le programme ou a été désarçonné par le changement de nom ou d’emplacement dans les menus d’une fonction. Souvent, celui qui se plaint n’a même jamais essayé, ou essayé récemment, le programme qu’il critique.

Pour un usage bureautique ou en productivité, GNU/Linux offre de nos jours une solution complète. Beaucoup de projets de logiciels libres fonctionnant sur différentes plateformes, il se peut même que vous ayez déjà utilisé ces applications sous Windows, comme Firefox ou OpenOffice.org. Il reste du chemin à parcourir, par exemple dans les jeux ou dans les applications spécialisées comme la reconnaissance optique de caractères (ROC). Le problème, ce n’est pas que les alternatives n’existent pas, mais plutôt qu’elles se développent trop lentement.

6. L’apparence des logiciels laisse à désirer

Il y a encore quelques années, sur GNU/Linux, la fonctionnalité primait sur l’ergonomie. Mais puisque les fonctionnalités de bases n’étaient pas toutes présentes, il pouvait difficilement en être autrement.

Mais tous les logiciels les plus couramment employés ont mûri et s’attaquent désormais à l’ergonomie. Une modernisation de l’interface ne ferait pas de mal à certains, mais la plupart ne sont pas pire que leurs équivalents sous Windows – honnêtement, si quelqu’un peut supporter une plateforme où Outlook et Windows Media Player sont jugés acceptables, il ne peut vraiment pas se plaindre de l’apparence des logiciels sur une autre plateforme.

7. Le service est inexistant

C’est à l’ère d’Internet que GNU/Linux a vraiment commencé à sortir des cercles d’initiés. À l’époque, le manque de service posait problème – si l’on parle de contrats de services traditionnels en tout cas. Mais, même il y a dix ans, il était déjà possible de signer un contrat de service avec une entreprise comme Red Hat.

De nos jours, le choix de l’assistance traditionnelle est bien supérieur. Si vous ne souhaitez pas faire appel à un fabricant de logiciel qui propose une distribution, vous trouverez sans doute un fournisseur de service proche de chez vous dans n’importe quelle grande ville d’Europe ou des États-Unis.

Mais il existe depuis toujours une meilleure source d’information : les listes de diffusion des projets communautaires ou d’entreprises. Même si ces listes offrent une assistance différente, elles ne sont néanmoins pas inférieures. Non seulement elles sont gratuites, mais ceux qui les fréquentent sont souvent plus prompts à répondre et vous fourniront une assistance plus détaillée que n’importe quel service payant auquel j’ai eu affaire.

8. Les options sont trop nombreuses

Comparé à Windows, GNU/Linux est un système d’exploitation qui offre bien plus de choix. Comme aucune entreprise ne le conçoit, il est plus libre dans sa réalisation. Comme ses développeurs pensent beaucoup en individualiste, ils offrent aux utilisateurs les moyens de faire les choses à leur façon.

Par conséquent, contrairement à Windows, GNU/Linux existe en plusieurs distributions, propose plus d’un environnement de bureau, quasi rien n’est unique. C’est ce que ses utilisateurs préfèrent.

Je vous accorde que les options, sans parler de leur nom ou des acronymes, peuvent dérouter les nouveaux venus. La confusion, cependant, découle surtout du contraste avec Windows. Pour l’utilisateur, au fond, les différences entre les distributions les plus populaires ne sont pas si énormes.

Une petite recherche vous permettra de faire le choix le plus adapté, et dans tous les cas l’installation se fait simplement, avec une intervention minimale de votre part, assistée qui plus est. Une fois la distribution installée, libre à vous de profiter de toutes les options pour vraiment personnaliser votre bureau ou de vous satisfaire des réglages par défaut et de ne modifier que le fond d’écran.

En d’autres termes, les options sont destinées aux utilisateurs avancés. Les débutants peuvent très bien les ignorer.

9. L’installation des logiciels est trop compliquée

Ce mythe se présente sous deux formes. Dans la première, celui qui se plaint parle de compilation à partir du code source (je ne vois pas où est la difficulté de décompresser une archive et de suivre les instructions pour taper les commandes configure, make et make install, mais admettons que l’inconnu puisse en effrayer certains). Dans la deuxième, les gens se plaignent de ne pas pouvoir normalement se rendre sur le site du fabricant de matériel ou de logiciel pour télécharger un binaire à exécuter pour l’installer, comme on le fait sous Windows.

Ceux qui expriment ces griefs n’ont pas compris que GNU/Linux fonctionne différemment. Chaque distribution entretient ses propres dépôts de logiciels, tous prêts à l’emploi pour une distribution précise. Sauf besoin particulier, tous les logiciels dont qu’il vous faut se trouvent dans ces dépôts, et il ne vous reste plus qu’à utiliser l’installateur graphique ou son équivalent en ligne de commande.

Si vous vous en tenez aux dépôts de votre distribution, l’installation de logiciels sous GNU/Linux est en fait largement plus simple que sous Windows. Vous n’avez pas besoin d’aller au magasin, tous les logiciels sont disponibles en ligne. Vous n’avez pas besoin de payer, de vous enregistrer ni de les activer.

S’il vous faut soudain un nouveau logiciel pour une tâche précise, vous pouvez l’identifier et l’installer en quelques minutes. Si vous voulez tester plusieurs alternatives, libre à vous. Pour bénéficier de ce confort, il suffit de prendre le temps de comprendre le fonctionnement du système d’exploitation plutôt que de partir bille en tête en vous appuyant sur des « on-dit » ou sur vos connaissances antérieures.

GNU/Linux et le bureau : les vraies raisons ?

De tels arguments en disent plus long sur leurs auteurs que sur GNU/Linux. Au pire, ce sont des signes d’ignorance des dernières avancées de GNU/Linux, au mieux, c’est un ensemble de préjugés ou d’habitudes.

Mais alors, concrètement, pour quelles raisons GNU/Linux n’est-il pas plus populaire ? L’argument classique du monopole est certainement la première raison. Puisque Windows est pré-installé sur la plupart des ordinateurs et que vous devez faire l’effort de chercher pour trouver des ordinateurs avec GNU/Linux pré-installé, le problème semble assez évident.

Mais la résurrection d’Apple au cours de ces cinq dernières années laisse à penser qu’un monopole n’est pas inattaquable. La raison est peut-être plus simple encore. Malgré leurs plaintes, les gens sont habitués à Windows et ne savent même pas que GNU/Linux ou d’autres alternatives existent. Ils ne l’ont jamais testé pour de bon et se reposent sur des on-dit ou sur l’avis du copain d’un copain d’un ami qu’il leur est impossible d’évaluer.

Les prétextes qu’ils avancent montrent très clairement qu’ils ne connaissent pas GNU/Linux. Ils ont beau dire que GNU/Linux n’est pas prêt pour eux, l’inexactitude de leurs arguments laisse plutôt à penser qu’en fait, ce sont eux qui ne sont pas prêts pour GNU/Linux.

Notes

[1] Crédit photo : Fazen (Creative Commons By)




Entretien avec Richard Stallman (crise, écologie, politiques européennes…)

D'Arcy Norman - CC byC’est un Richard Stallman qui a, comme d’habitude, laissé la langue de bois au vestiaire que nous retrouvons ici au cours d’un entretien rapporté par le magazine britannique eWeekEurope.

Le logiciel libre en toile de fond, il est notamment interrogé sur le Green computing (informatique écologique), les conséquences de la crise et les politiques toujours critiquables du Royaume-Uni et de l’Europe (surtout si l’on persiste à confondre « Open Source » et logiciel libre)[1].

Richard Stallman : Le logiciel libre est meilleur pour l’environnement

Richard Stallman: Free software costs the environment less

Andrew Donoghue – 18 mars 2009 – eWeek Europe
(Traduction Framalang : Olivier et Claude)

Le créateur de GNU affirme que les logiciels libres sont plus durables que les logiciels propriétaires et soutient que le Royaume-Uni et l’Europe ne voient pas le côté éthique des logiciels.

Le président de la Free Software Foundation, Richard Stallman, ne souffre pas les idiots. En fait il ne souffre pas grand chose, surtout quand c’est propriétaire.

Lors d’une conférence de presse qui s’est récemment déroulée à Budapest, à la suite d’un discours assez suivi sur les droits d’auteur, Stallman a prévenu ses hôtes hongrois de ne pas lui demander s’il désire quelque chose car cela ne ferait que l’ennuyer. On peut voir dans cette approche directe de l’arrogance ou simplement l’expression d’un esprit passionné, chacun son point de vue.

Stallman est un personnage passionné, pas de doute la dessus. Et pas seulement au sujet des logiciels libres – il rejette le terme Open Source qui d’après lui n’a rien à voir avec la liberté. Un rapide coup d’œil à son site Internet et vous verrez que l’homme à qui l’on doit le système d’exploitation GNU – qui a ouvert la route à Linux – est en mission contre tout ce qu’il trouve injuste ou qui restreint la liberté.

Stallman a bien en ligne de mire des problèmes divers comme le réchauffement climatique ou les cartes d’identité numériques, des problèmes qui attisent sa fougue au moins autant que son combat principal : les logiciels libres.

Au cours de la conférence de presse et de la session de Questions/Réponses faisant suite à son discours, Stallman a répondu aux questions de EWeek Europe UK, entre autres, pour donner son opinion sur l’informatique dite verte, l’impact de la crise et l’intérêt porté alors aux logiciels libres.

Qu’est-il arrivé à vos chaussures ?

Je les ai enlevées, j’ai rapidement chaud aux pieds.

La crise a-t-elle des conséquences sur l’intérêt porté aux logiciels libres ?

Je ne sais pas. Tout ce que je sais, c’est que beaucoup de gens continuent à rejoindre la FSF, nous dénombrons plus de membres maintenant qu’il y a un an. Les gens doivent renouveler leur inscription chaque année, donc on reçoit suffisamment de renouvèlement pour que notre base de membre grandisse. Nous ne sommes donc pas affectés. Mais qui suis-je pour l’affirmer.

Certains disent que la crise pousse les entreprises à adopter les logiciels Open Source ou « gratis » ?

Ce n’est pas la même chose. Les logiciels sont les mêmes, mais ce ne sont pas les mêmes idées. Donc…

Mais si vos idées se répandent pas d’autres moyens… c’est positif, non ?

Je ne vais pas dire non à plus d’utilisateurs, mais évidemment, si leur motivation première est l’économie d’un peu d’argent ils oublient l’essentiel, nous devons donc leur montrer qu’il y a plus important. Il ne faut pas oublier aussi que des programmeurs au chômage ce sont des programmeurs qui ont du temps pour écrire des programmes libres. Je ne sais pas encore si ça nous fera plus de bien que de mal. On verra.

Que pensez-vous de l’annonce récente, faite par le gouvernement du Royaume-Uni, d’ouvrir les appels d’offre pour les projets informatiques gouvernementaux aux solutions Open Source ?

Jusqu’à présent ils n’étaient ouverts qu’aux logiciels propriétaires, c’est donc une bonne chose, mais ce n’est toujours pas la bonne politique. Nous savons que le gouvernement britannique n’a aucun respect pour les droits de l’homme. On dirait que Tony « Blair(eau) » et le nouveau Gordon « Clown » donnent l’impression d’être en campagne pour complètement abolir les droits de l’Homme traditionnels. C’est maintenant un crime d’être suspecté au Royaume-Uni, ils peuvent littéralement inculper quelqu’un au motif qu’il est suspect.

Pensez-vous qu’on puisse vraiment qualifier un logiciel de « vert » et si oui, peut-on dire que les logiciels libres sont plus « verts » que les logiciels propriétaires ?

On ne peut pas faire de lien direct entre écologie et logiciels. Mais c’est vrai que Microsoft, en particulier, use de son pouvoir pour forcer les gens à acheter plus de matériel et à mettre au rebut leur vieux matériel, c’est la raison pour laquelle le US Green Party s’est joint à la Free Software Foundation pour condamner WIndows Vista.

De plus, les logiciels libres donnent aux utilisateurs le contrôle. Les logiciels propriétaires assujettissent les utilisateurs au contrôle des développeurs. Si le développeur est une entreprise avide, elle utilisera ce contrôle pour obtenir ce qu’elle veut de la part des utilisateurs, y compris des choses nuisibles ou désagréables. Je pense donc que votre empreinte écologique sera moindre avec des logiciels libres, mais ce n’est qu’une conséquence indirecte.

Pensez-vous que l’Union Européenne en fasse assez pour encourager l’utilisation des logiciels libres ?

Non, en fait l’Union Européenne ne veut pas parler de ce qui touche à la liberté. Ils ont mis en place un groupe pour étudier l’utilisation de « l’Open Source » mais j’ai lu aujourd’hui que ce groupe est infiltré par des organisations financées par Microsoft qui le sabote complètement. Que pouvez-vous espérer quand ils tournent la question de manière à ignorer les problèmes éthiques ? Cela fait des années que Microsoft fait semblant de participer à « l’Open Source », mais c’est bien parce que ce terme n’a aucune connotation éthique, contrairement aux logiciels libres, qu’il est facile pour Microsoft de développer quelques programmes qui se veulent Open Source et de dire « Vous voyez, nous sommes un développeur Open Source », comme ça ils sont invités dans ces commissions et ils peuvent freiner des quatres fers.

Alors que devrait faire l’Union Européenne ?

L’Union Européenne devrait reconnaître que les ordinateurs méritent d’être libérés et elle devrait arrêter d’adopter des directives qui rendent les gens moins libres.

Imaginiez-vous dans les années 70 que Windows, un système d’exploitation propriétaire, serait utilisé par plus de 90 pour cent des ordinateurs ?

Qui sait, je ne pensais pas à ça alors.

Qu’en pensez-vous maintenant ?

Je suis vraiment triste de voir qu’autant de gens utilisent des logiciels propriétaires, cela signifie que les développeurs ont hypnotisé les utilisateurs. Microsoft dispose d’un pouvoir que personne ne devrait jamais avoir. Apple aussi a le pouvoir sur ses utilisateurs.

Microsoft utilise une porte dérobée qui lui permet de modifier les logiciels quand ça lui chante. L’utilisateur n’a aucun contrôle, aucun moyen de se défendre. Windows n’est pas armé pour se protéger du pire auteur de logiciels malveillants, c’est à dire Microsoft. Apple a fait la même chose dans Mac OSX. Et non, GNU/Linux n’a pas de telle porte dérobée en général.

Vous décidez de la version du logiciel que vous voulez installer. Les utilisateurs de logiciels libres ont le contrôle. Si un utilisateur trouve une porte dérobée dans un logiciel libre, quelqu’un en publiera une version épurée et tout le monde l’adoptera. Les utilisateurs de Windows n’ont pas cette possibilité car ils n’ont aucun contrôle.

Notes

[1] Crédit photo : D’Arcy Norman (Creative Commons By)




La Free Software Foundation récompense les Creative Commons

John Sullivan - CC by-saAnd the winner is… Chaque année la Free Software Foundation (ou FSF) organise une petite cérémonie de prix pour récompenser un projet et une personnalité qui auront fait chacun dans leur domaine avancer « la cause ».

C’est ainsi que les années précédentes ont été primés des projets aussi prestigieux que Groklaw ou Wikipédia, et des personnalités qui font autorité comme Miguel De Icaza, Guido van Rossum, Alan Cox, Theo de Raadt ou encore Lawrence Lessig, l’inspirateur des… licences Creative Commons.

Et pour 2009, dans la catégorie personnalité de l’année… j’ai nommé… Wietse Venema (créateur de Postfix), et dans la catégorie projet de l’année… zut, l’enveloppe ne veut pas s’ouvrir… les Creative Commons, dont on salue l’influence sur cette culture libre en mouvement qui n’en pas fini d’essaimer.

Vous trouverez ci-dessous la traduction d’un extrait du communiqué de la FSF annonçant l’événement[1].

Wietse Venema et les Creative Commons lauréats des Free Software Awards de 2008

Wietse Venema and Creative Commons announced as winners of the annual free software awards

FSF – 24 mars 2009 – Boston, Massachusetts, USA
(Traduction Framalang : Don Rico)

La Free Software Foundation (FSF) a annoncé les résultats des Free Software Awards pour l’année 2008 à l’occasion de la conférence LibrePlanet, qui rassemble le monde GNU/Linux et s’est tenue les 21 et 22 mars au Harvard Science Center de Cambridge, Massachusetts.

Les Creative Commons ont été distingués dans la catégorie Projects of Social Benefit (NdT : Projet d’intérêt général), et Wietse Venema dans la catégorie Advancement of Free Software (NdT : Prix pour le développement du logiciel libre). La cérémonie était présentée par le fondateur et président de la FSF, Richard Stallman.

Chaque année, la FSF décerne le prix pour les Projets d’intérêt général à une initiative qui profite de façon intentionnelle et significative à la société dans son ensemble grâce au logiciel libre, ou par la mise en pratique des idées du mouvement du logiciel libre.

Depuis leur création en 2001, les Creative Commons ont permis la constitution d’un corpus sans cesse croissant de travaux scientifiques, pédagogiques et artistiques que chacun peut partager et utiliser comme base de travail. Les Creative Commons ont également contribué à alerter l’opinion sur les méfaits des régimes de copyright sans cesses plus restrictifs. Richard Stallman a remis le prix des Projets d’intérêt général à Mike Linksvayer, le vice-président des Creative Commons.

À cette occasion, ce dernier a déclaré : « C’est un immense honneur. Ce sont les Creative Commons qui devraient remettre un prix à la Free Software Foundation et à Richard Stallman, car sans eux les Creative Commons ne pourraient exister. »

En recevant cette récompense, les Creative Commons rejoignent au palmarès des FSF Awards Groklaw (2007), Sahana (2006), et Wikipédia (2005).

Notes

[1] Crédit photo : Matt Hins (Creative Commons By-Sa)




Cent millions de photos sous licence Creative Commons sur Flickr

Joi - CC byCertains lecteurs me demandent parfois comment je m’y prends pour sélectionner les photographies illustrant les billets du Framablog. Il n’y a pas de secret. Je les sélectionne généralement à partir de cette page du site Flickr en restreignant la recherche aux licences Creative Commons (avec « autorisation d’utilisation commerciale » et « autorisation de modifier, adapter ou développer le contenu »). Exemple avec les tags sky, africa et sad.

Étant un adepte de Flickr depuis quelques années maintenant, j’ai pu observer la qualité croissante des photographies sous licence Creative Commons de l’annuaire, qualité qui allait de pair avec la quantité. Aujourd’hui le blog des Creative Commons est fier de nous annoncer que l’on a dépassé le cap symbolique des cent millions d’images, en offrant à quelques généreux donateurs le très beau livre de portraits de Joi Ito, photographe et accessoirement président actuel de Creative Commons[1].

Fêtons les 100 millions de photos sous Creative Commons de Flickr avec le livre Free Souls de Joi Ito

Celebrate 100 Million CC Photos on Flickr with Joi Ito’s Free Souls

Fred Benenson – 23 mars 2009 – Creative Commons Blog
(Traduction Framalang : Poupoul2)

Durant les dernières semaines, nous avons gardé un oeil attentif sur le nombre de photos de Flickr placées sous licence Creative Commons. Nos calculs nous montrent que Flickr a dépassé le cap des 100 millions de photos sous licences CC quelque part pendant la journée du samedi 21 mars 2009. A la date de lundi (NdT : 23 mars 2009), 100 191 085 photos sous licence CC étaient recensées.

Ces photos ont été utilisées dans des centaines de milliers d’articles de Wikipédia, de messages postés sur des blogs, et même dans des articles de presse traditionnelle; autant d’exemples de créations nouvelles qui n’auraient autrement pas vu le jour sans nos licences publiques standardisées. L’intégration des licences CC dans Flickr est à la fois l’une des premières et l’une des meilleures, non seulement elle permet aux utilisateurs d’associer chaque photo à une licence différente, mais Flickr propose une incroyable page de découverte par licence CC, qui répartit les recherches de matériel licencié CC par licence. Vous pourrez par exemple visualiser toutes les photos de New York sous licence CC Paternité, triées par niveau d’intérêt.

Afin de fêter dignement ce jalon historique de Flickr, nous offrons à douze de nos donateurs à 100$ une copie du livre Free Souls de Joi Ito (président de Creative Commons). Toutes les photos de Joi ne sont pas placées sous la plus permissive de nos licences, Paternité, mais elles sont également disponibles au téléchargement sur Flickr. En donnant à Creative Commons aujourd’hui, vous apportez votre support au travail que nous réalisons et vous recevrez l’une des 1024 copies du livre de Joi en édition limitée.

Notes

[1] Crédit Photo : Joi Ito (Creative Commons By)




The Copyright Song

Daphné Kauffmann - The Copyright SongNina Paley est la femme à tout faire du film d’animation Sita Sings the Blues, que nous évoquions récemment dans un billet annonçant aussi bien sa « libération » que ses rocambolesques déboires avec les ayant-droits de la bande musicale.

Elle nous offre ici un petit refrain tout à fait charmant qui, sait-on jamais en ces temps d’Hadopi, pourrait bien devenir aussi célèbre et fédérateur que la Free Software Song de Richard Stallman !

Vous en trouverez les paroles ainsi que leur traduction ci-dessous. Et dans la mesure où Nina nous invite à créer nos propres interprétations de sa chanson, j’ai mis mon écrivain, blogueuse, musicienne de sœur à contribution pour initier le mouvement. Sous l’œil bienveillant (et parfois un peu décalé) de sa webcam artisanale, elle nous en propose trois « copies » : un version « soft », une version « hard » et une version française de sa composition.

—> La vidéo au format webm

The Copyright Song

URL d’origine du document

Nina Paley – 17 mars 2009 – Licence Creative Commons By-Sa
(Traduction et sous-titrage Framalang : Joan et Yostral)

Copying isn’t theft
Stealing a thing leaves one less left
Copying it makes one thing more
That’s what copying’s for.

Copying isn’t theft
If I copy yours, you have it too
One for me and one for you
That’s what copies can do.

If I steal your bicycle,
You have to take the bus
But if I just copy it,
There’s one for each of us!

Making more of a thing
That is what we call copying
Sharing ideas with everyone
That’s why copying…
…Is fun!

Traduction

Copier n’est pas voler
Voler une chose en enlève une
La copier en rajoute une
C’est à ça que sert la copie.

Copier n’est pas voler
Si je copie la tienne, tu l’as toujours
Une pour moi et une pour toi
C’est le pouvoir des copies.

Si je vole ton vélo,
Tu devras prendre le bus
Mais si je ne fais que le copier,
On en aura un chacun !

Multiplier une chose
C’est ce qu’on appelle copier
Partager ses idées avec tout le monde
C’est ce qui fait que copier…
…Est fun !

Premiers remix par Daphné Kauffmann

Version « soft » :

—> La vidéo au format webm

Version « hard » :

—> La vidéo au format webm

Version française :

—> La vidéo au format webm

Copier n’est pas voler
Si on me vole, je n’ai plus rien
Si on copie, je n’ai pas moins
Copier c’est partager

Copier n’est pas voler
Je copie le tien, tu en gardes un
Et on a chacun le sien
C’est tout l’art de copier

Si je te vole ton vélo
Tu dois prendre le métro
Mais si j’en fais une copie
Tu en gardes un aussi

Faire d’une chose deux
C’est ce qu’on appelle la copie
On partage ses idées ainsi
C’est pourquoi copier…
…c’est mieux !

Paroles sous licence Creative Commons By-Sa par Daphné Kauffmann




Open Education avec les professeurs Mozilla et Creative Commons

Lepiaf.geo - CC byVoici une excellente nouvelle (que vous ne trouverez pas dans le Café Pédagogique) : l’annonce d’un prochain séminaire de cours en ligne autour de « l’Open Education », réalisé conjointement par les deux poids lourds du « mouvement du Libre » que sont Mozilla et Creative Commons.

Ce concept « d’Open Education » demeure un peu flou (Wikipédia a encore du mal à le définir, c’est vous dire), mais ce sera justement l’occasion de le préciser. Disons qu’il regroupe non seulement les Ressources Éducatives Libres que la technologie associée (logiciels libres, formats ouverts…), sans oublier les modes collaboratifs de production.

Il sera destiné à tout éducateur intéressé par le sujet (c’est-à-dire dans quelques années à tout éducateur tout court). Le nombre de places est bien entendu limité mais les autres pourront accéder en temps réel aux cours dont, fallait-il le préciser, toutes les ressources seront placées sous licence libre (Creative Commons By)[1].

Pour ce qui me concerne, je suis ravi de trouver aussi Mozilla sur ce terrain-là. J’y vois en effet une piste plus qu’intéressante pour minimiser à terme l’influence trop forte de Microsoft dans le secteur éducatif, sachant que cette influence est beaucoup plus une question de mentalités, voire de culture, qu’une question pratique liée à la technique et au logiciel.

Mozilla et CreativeCommons vont donner des séminaires en ligne sur « l’Open Education »

Mozilla and CC to teach online seminar on open education

Jane Park – 17 mars 2009 – Creative Commons Blog
(Traduction Framalang : Don Rico)

ccLearn, en collaboration avec la Peer 2 Peer University et Mozilla, va former les enseignants, ou toute autre personne intéressée par l’initiative, sur les aspects pratiques de l’éducation ouverte (NdT : « open education »). Voici un extrait du wiki du stage :

« Ce stage de six semaines s’adresse aux enseignants, qui acquerront les compétences élémentaires en matière de licences, de technologie et de pédagogie ouvertes (NdT : « open pedagogy »). Ils travailleront sur des prototypes de projets d’éducation ouverte, et bénéficieront de l’expérience de certains des plus grands noms internationaux de l’innovation.

Le stage commencera par un séminaire en ligne le jeudi 2 avril et s’étalera sur 6 semaines.

Lors de séminaires en ligne hebdomadaires, on abordera de nouveaux sujets traitant par exemple du choix de licence pour les contenus, des dernières technologies ouvertes et des pratiques d’évaluation collégiale. Les participants partageront des idées de projets avec une communauté de pairs, travailleront sur des projets individuels, et recevront des retours de tuteurs chevronnés. On s’intéressa aussi de très près à certains des exemples de pédagogie ouverte les plus novateurs, et discutera avec leurs concepteurs. On étudiera par exemple :

  • Les cours sur les logiciels libres délivrés à l’université de Seneca ;
  • L’Introduction à la pédagogie ouverte de David Wiley ;
  • L’infrastructure de blog ouverte de l’université de Mary Washington ; etc.

Ce stage est destiné aux enseignants qui souhaitent contribuer à l’élaboration de l’enseignement ouvert de demain.

Vous désirez participer ? Rendez-vous sur le wiki du stage, et soumettez-nous vos idées de projets !

Descriptif du stage : https://wiki.mozilla.org/Education/EduCourse

Inscriptions : https://wiki.mozilla.org/Education/EduCourse/SignUp

Si vous avez des questions concernant le stage ou la procédure d’inscription, veuillez contacter :

Philipp Schmidt
Peer 2 Peer University
philipp AT peer2peeruniversity.org »

Les créneaux vont se remplir très vite, mais cela n’empêchera pas les non-inscrits de bénéficier d’un accès complet et ouvert au stage en temps réel. Et puisque les matériaux de Mozilla Education, mis à disposition sous licence CC BY, peuvent être réutilisés, redistribués et remixés, les utilisateurs sont libres de créer un wiki miroir et de mettre en place leurs propres projets.

Notes

[1] Crédit photo : Lepiaf.geo (Creative Commons By)