GroundOS : et si l’Hadopi faisait émerger le web 3.0 ?

Josef Grunig - CC by-saComme vous le savez, la loi Création et Internet a été votée en catimini par 16 gus dans un hémicycle. Je ne reviens pas sur le fait que cette loi pose de nombreux problèmes (démocratiques) et paradoxes (techniques). D’autres s’en sont déjà chargés.

Parmi les des effets de bord, il parait évident que cette loi va pousser l’internaute moyen vers des solutions de sécurisation de ses communications toujours plus poussées. On va voir se multiplier les réseaux chiffrés (bien), sans compter probablement les mails avec des groooosses pièces jointes (pas bien, mais inévitable).

Reste que tant qu’on reste sur du Minitel 2.0, on participe à un système où l’on ne contrôle pas ses propres données. Si je dépose une video sur Youtube, Youtube saura dire qui l’a déposée (adresse IP, email, date et heure précise). Et si je télécharge une vidéo depuis ce même site, non seulement Youtube, mais aussi mon fournisseur d’accès internet, et bientôt la Haute Autorité bidule[1] pourront me tomber sur le dos : « Ha, mon bon Monsieur, vous avez écouté une reprise de Petit Papa Noël par une enfant de 15 ans, ce qui lui aura couté 300 000€ d’amende. Mais vous, passez directement par la case courrier recommandé[2] avant qu’on ne vous coupe votre accès internet. Cela vous met au chômage technique ? Tant pis, fallait pas encourager la subversion et la contrefaçon. ». Bienvenue en Chine à Pionyang au Brésil.

Par contre, si j’héberge moi-même mes données, et si je les partage en les chiffrant, je reprends le contrôle de mes données.

Le problème, c’est que c’est quand même un « truc d’informaticien » de s’héberger soi-même. Si, si. Moi dont c’est le métier, quand je dis aux gens qui veulent quitter Gmail, Hotmail & co : « Prends-toi donc un hébergement à l’APINC ou chez Gandi, pour 15€ par an, tu seras tranquille ». Ce n’est pas le prix qui les arrête, mais le jargon, le nombre de pages de contrat, le fait de saisir un numéro de CB sur le web, etc.

Mais cela pourrait changer[3].

Prenez le buzz du moment : GroundOS.
Pour le dire rapidement, GroundOS est une application web qui vous permet de partager facilement votre musique, vos films, vos photos, vos documents (déposés dans groundOS ou rédigés directement dans groundOS, sur le principe de Google Docs).
En tant que tel, rien de bien nouveau, si ce n’est que ça a l’air particulièrement bien intégré (alors que pour arriver au même résultat aujourd’hui, il faut de nombreuses applications différentes). Et d’ailleurs, GroundOS n’est peut être qu’un « fake », on sera fixé le premier mai, mais peu importe.

En utilisant GroundOS (ou autre application similaire), j’héberge moi même mes données, je les partage avec qui je veux, et je les chiffre si je veux. Et je souhaite bien du courage à l’Hadopi pour savoir si ce qui transite dans mes tuyaux c’est le dernier album de Johnny, ou la vidéo de l’anniversaire de mon petit neveu.

Maintenant, il reste encore un problème : comment Tata Jeannine va-t-elle pouvoir utiliser GroundOS ? Certes, elle pourrait utiliser la version installée par son entreprise, par l’école de sa fille, ou par l’association du coin. Mais c’est remettre de la centralisation là où l’on veut décentraliser.
Elle pourrait aussi l’utiliser sous forme d’une WebApp ( de préférence made by Framasoft). Mais à l’extinction de son ordinateur, ce serait fermer le partage de données.

Reste une voie intéressante : celle des boxes internet.
Par exemple, on estime le nombre d’abonnés ADSL de Free à 3 500 000. Une grande partie d’entre eux ont une Freebox équipée d’un disque dur (qui sert notamment de magnétoscope). Imaginons que Free livre ses Freebox prééquipées d’un GroundOS (qu’on ne me dise pas qu’installer un serveur web sur des box internet est impossible). Pour le même prix, Tata Jeannine aurait : (Internet+téléphone+TV) + « son petit coin d’internet à elle ». Accessible facilement (tatajeannine.free.fr) 24h/24, 365 jours par an.

Évidemment, cela soulève des questions, notamment en terme de sécurité. Se faire hacker sa connexion internet, ce serait potentiellement donner accès à toute votre vie numérique. En terme technique, le premier geek poilu venu me rétorquera « en terme de QOS on a vu mieux », que le « MTBF des HDD des boxes c’est pas top », que « Free sapusaipalibre », que « le A de ADSL limite les usages », voire qu’il fait ça (de l’autohébergement) « depuis 6 ans avec un vieux 486 sous Debian planqué sous l’évier ».

Mais quand même. Là il s’agit de Tata Jeannine ! Et juste d’activer une fonctionnalité qui lui permettrait de partager facilement ses photos, d’écouter sa musique (achetée légalement) d’où qu’elle soit, de pouvoir blogguer sans pub sans craindre le dépôt de bilan de l’hébergeur, de pouvoir regarder la fin du film qu’elle a enregistré sur sa box à Lyon depuis sa maison de campagne à Sainte-Ménehould, de pouvoir stocker tout ou partie de son courrier sur sa MachinBox internet (plutôt qu’on ne sait où sur le web). Bref, d’avoir un petit bout d’internet comme on a un petit bout de jardin, plutôt que d’aller systématiquement au parc du coin. Et tout ça depuis son Firefox préféré.

Après l’ère de la diffusion de l’information, après celle de la participation, peut être allons nous vers celle de la décentralisation ?

Ou, autrement formulé, « et si on redonnait internet aux internautes ? »

Notes

[1] C’est à dire Vivendi & co – qui nous aura plus ou moins forcé à installer leur logiciel espion puisque si je refuse d’être observé en permanence, c’est donc que je suis coupable !

[2] Ben oui, je ne lis pas les mails de mon FAI.

[3] Crédit photo : Josef Grunig (Creative Commons By-Sa)




Quand le Cned confond formation bureautique avec formation Microsoft

Sailor Coruscant - CC byNous sommes en mars 2009. Vous êtes un organisme public souhaitant offrir à son personnel une formation bureautique à distance. Comment vous y prendriez-vous ?

On pourrait définir et présenter les différentes fonctionnalités du traitement de texte, du tableur, du logiciel de présentation. Puis insister sur l’importance d’utiliser des formats ouverts. Et illustrer le tout avec des logiciels libres disponibles gratuitement pour tous les systèmes d’exploitation, comme la suite OpenOffice.org (qui a justement la bonne idée de produire un format ouvert, l’Open Document)[1].

Ce n’est visiblement pas l’option retenue par le Centre national d’enseignement à distance (plus connu sous l’acronyme Cned), dont l’un des enseignants à qui s’adresse cette formation, nous a fait parvenir le courriel suivant (c’est moi qui souligne) :

From: XXX
Date: 17 mars 2009
Subject: Formation bureautique à distance

Mesdames, Messieurs,

Dans le cadre de la mise en œuvre du plan de formation 2008/2011 de l’établissement, la Direction des ressources humaines de la Direction générale procède au recensement des besoins en formation bureautique à distance.

Vous avez la possibilité de suivre une formation aux logiciels Microsoft Outlook, Word, Excel et PowerPoint en ligne ou par le biais d’un CD-Rom.

Vous trouverez dans le document joint « organisation des formations » les différentes modalités des formations, des versions, en ligne ou sur CD-Rom.

Si vous êtes intéressé par l’une de ces formules, vous voudrez bien renseigner le formulaire joint et le renvoyer avant le 15 avril 2009, auprès de votre institut de rattachement.

La Direction des ressources humaines reste à votre disposition pour tout renseignement complémentaire.

Cordialement,

XXX
Direction des ressources humaines
Cned – Direction générale

Ce mail était donc accompagné d’une pièce-jointe au format .doc où l’on peut lire explicitement les informations suivantes :

  • « Pendant votre formation, vous travaillez directement dans l’environnement Microsoft correspondant au logiciel étudié. »
  • « Les formations ne sont pas compatibles Mac et Linux. »
  • « Formation demandée (2 au maximum) : Word – Excel – PowerPoint – Outlook. »

Pour rappel, il s’agit d’un « plan de formation 2008/2011 »…

On pourra toujours m’objecter que le Cned ne fait que s’adapter à la demande puisque tous ses enseignants travaillent sur la suite Microsoft Office. D’abord cela reste à prouver mais admettons que ce soit bien le cas (n’oublions pas qu’il y a une véritable machine de guerre économique déployée dans les coulisses pour qu’il en soit ainsi). Est-ce une raison suffisante pour ne pas adopter et faire adopter de bonnes pratiques, surtout lorsque l’on se définie comme une institution éducative de formation ?

Pensez une seconde aux conseils que ces enseignants ainsi « formés » prodigueront aux élèves dont ils ont la charge à distance ! Vont-ils eux aussi confondre « Word » avec « traitement de texte » ? Qu’adviendra-t-il lorsqu’ils recevront un fichier .doc ? Et bonjour le fracture numérique, puisque tous ces élèves n’ont pas forcément l’OS Windows et la suite MS Office (dûment achetés) à disposition !

La noble mission de service public du Cned ne doit pas s’arrêter aux portes de la formation numérique.

Notes

[1] Crédit photo : Sailor Coruscant (Creative Commons By)




Quand l’Allemagne offre 350 000 photos à Wikipédia

Eugen Nosko - Deutsche Fotothek - CC by-saPrésenter les choses ainsi est sujet à caution, mais pendant qu’en France on met en place l’Hadopi, de l’autres côté du Rhin on participe aux biens communs.

En effet après le don de 100 000 images, sous licence libre Creative Commons By-Sa, des Archives Fédérales Allemandes en décembre dernier, c’est au tour de la Bibliothèque Universitaire et Fédérale du territoire de Saxe d’en faire de même en offrant un fond de 250 000 photographies à Wikimedia Commons[1], la médiathèque en ligne de tous les projets Wikimedia (dont Wikipédia).

Question d’état d’esprit sans doute…

Une donation de 250 000 images à la communauté

250,000 Images Donated to the Commons

Michelle Thorne – 2 avril 2009 – Creative Commons Blog
(Traduction Framalang : Poupoul2 et Xavier)

Comme nous ne souhaitions pas que le 1er avril éclipse cette annonce, c’est aujourd’hui que nous vous informons du don récent de 250 000 images données au petit frère de Wikipedia, Wikimedia.

Ces images font partie de la Collection Photo Allemande de la Bibliothèque Universitaire et Fédérale du territoire de Saxe. Elles sont en cours de traitement, accompagnées des légendes et metadata correspondantes. Des volontaires se chargeront alors d’assurer le lien entre ces photos, toutes disponibles sous la déclinaison allemande de la licence Creative Commons BY-SA 3.0 ou dans le domaine public, avec les données d’identification et les articles pertinents de Wikipedia. Cette collection représente des scènes de l’Histoire de l’Allemagne et des scènes de vie quotidienne.

En cadeau pour la bibliothèque bienfaitrice, les metadata fournies par la Collection Photo Allemande seront enrichies et annotées par les utilisateurs de Wikipedia puis reversées dans la base de données de la collection.

Cette donation marque la première étape dans la collaboration entre la Bibliothèque Universitaire et Fédérale et Wikimedia Allemagne e.V., section pionnière de Wikimedia, qui a rendu possible, en décembre dernier, un don similaire de 100 000 images par les Archives Fédérales Allemandes.

Notes

[1] Crédit photo : Eugen Nosko – Deutsche Fotothek (Creative Commons By-Sa)




Et pourquoi pas aussi l’Open Money ?

Jessica Shannon - CC by-saCela demande analyse et précision au cas par cas mais on ne peut que constater que « l’état d’esprit du logiciel libre » est en train de s’infiltrer un peu partout actuellement. Et si le très sérieux journal britannique The Guardian posait récemment la question de la construction d’un monde Open Source il doit bien y avoir une raison.

Dans la sphère anglophone cela se traduit en effet par la multiplication des expressions précédées de l’adjectif « Open ». Les idées véhiculées ne sont pas forcément neuves ni originales mais elle retrouvent force et vigueur à l’heure du numérique, en s’inspirant toutes plus ou moins directement de la matrice Open Source.

Ce qui donne, et j’en oublie certainement, Open Hardware, Open Format, Open Data, Open ID, ou encore Open Politics, Open Gouvernance, et puis également Open Content, Open Knowledge, Open Research, Open Education (dont le très prometteur dérivé Open Educational Resources), sans oublier, cela va de soi, le champ culturel avec par exemple ses Open Music et Open Movie.

Et si la lecture de cette longue liste vous a donné soif, nous vous suggérons Open Cola ou, avec modération, Open Beer 😉

Tout comme Wikipédia dont sont issus l’ensemble des liens précédents, ces jeunes expressions ne sont pas figées. Elles sont en construction et susceptibles de fortement évoluer avec le temps. Mais mises en commun cela donne du sens et témoigne indéniablement que quelque chose d’intéressant est en train de se produire.

L’Histoire nous dira ce qui émergera exactement de cette effervescence. Certains voudraient déjà remplacer un modèle par un autre. Nous n’en sommes pas encore là mais il y a peut-être déjà un acquis : celui d’introduire une perturbation dans de nombreux systèmes dont nous ne nous étions pas toujours rendus compte qu’ils s’étaient avec le temps souvent refermés sur eux-même en laissant à l’économie et à l’argent une trop large place.

L’argent[1], justement, tiens, parlons-en ! Dans ce contexte-là pourquoi ne pas en profiter pour le mettre lui aussi sur la sellette ? Ne peut-on pas quelque part le considérer en l’état comme propriétaire ? Quelques hurluberlus ont donc osé s’attaquer de front au tabou pour créer une nouvelle expression à ajouter au corpus : « l’Open Money ».

C’est la traduction d’un vieux document que nous vous proposons ci-dessous pour alimenter le débat. Vous jugerez peut-être ce manifeste naïf, utopique et irréalisable, mais GNU/Linux, Wikipédia ou Creative Commons n’étaient-ils pas eux aussi des projets impossibles ?

Ce n’est qu’un simple exemple mais ne vous arrive-t-il pas de rêver à des alternatives à PayPal, carte de crédit et grosse ponction au passage, lorsque vous souhaitez faire un simple don à un logiciel libre sur Internet ? Pourquoi est-ce si compliqué, alors même que l’argent se dématérialise ? Et dois-je vous faire l’affront d’évoquer la crise globale que nous subissons aujourd’hui avec fatalisme, venue d’on ne sait où si ce n’est d’un monde financier devenu légèrement dément ?

Une folie en vaut bien une autre. Alors pourquoi ne pas tenter ensemble de lentement mais sûrement organiser différemment les échanges, la richesse, l’argent, les banques… en privilégiant cette fois-ci l’humain et le bien commun ?

Vous trouverez en fin d’article, une première liste de liens connexes autour du sujet (que nous vous invitons à compléter dans les commentaires). Nous vous proposons également en pièce-jointe la page du dossier « Sortie de crise : l’enjeu vital de la création de la monnaie » du journal Vendredi, qui a eu la bonne idée de reprendre ce billet dans son édition du 10 avril 2009.

Le manifeste de la monnaie libre

Open money manifesto

Michael Linton – 2001 – OpenMoney.info
(Traduction Framalang : Claude, Don Rico et Poupoul2)

Les problèmes dûs à l’argent proviennent entièrement du traitement de la monnaie conventionnelle : elle est créée par des banques centrales en quantité limitée. Il y a trois choses que nous savons sur cet argent. Nous savons ce qu’il fait : il va et il vient. Nous savons ce qu’il est : rare et difficile à obtenir. Et nous savons d’où il vient : il vient d’eux, pas de nous.

Ces trois caractéristiques, communes à toutes les monnaies nationales, font que l’on doit constamment lutter pour partager un bout du truc qui fait tourner le monde. Cet argent peut aller n’importe où, ce qu’il fait inévitablement, laissant la communauté démunie de son moyen d’échange.

C’est tout simplement dans la nature de la monnaie conventionnelle de créer, par ses allées et venues, les conditions de compétition et de rareté à l’intérieur des communautés ou entre elles.

Ainsi devons-nous courir après l’argent pour survivre, obligés de combattre pour lui, souvent durement. Tentés d’avoir le plus pour le moins, nous cherchons les meilleures affaires en tant qu’individus, entreprises, associations caritatives, gouvernements ou nations.

Telle société, telle génération : il semble que nous soyons déterminés à tout avoir, quelques soient les conséquences de nos excès et négligences sur les autres, maintenant et dans le futur.

Nous dépendons de cet argent, en n’ayant guère de choix et malgré ses défauts évidents. Certains ont peu ou rien, ne pouvant trouver le nécessaire pour vivre dans ce monde. D’autres en ont une quantité énorme sans, pour autant, que cela soit bénéfique pour eux et pour le monde.

Et tout cela, à propos de quoi ? Un argent rare qui court dans toutes les directions mais venant d’eux. Leur argent arrive avec de nombreux problèmes.

  • Le problème de la bonne quantité de monnaie en circulation ? Personne ne parait savoir comment garder un équilibre entre trop et pas assez.
  • Le problème de la distribution : où est-il ? qui le possède et qui n’en a pas ? Est il là où nécessaire ? Certainement pas.
  • Le problème du coût: coût de la création et de la sécurité, des opérations et de la comptabilité, le coût des intérêts, le coût des tribunaux.

Mais avant tout, et impossible à chiffrer, notre conduite monétaire dirigée a des effets absolument dévastateurs sur notre société et l’environnement mondial.

C’est la mauvaise nouvelle que vous deviez probablement déjà connaître. Maintenant, voici la bonne nouvelle: tous ces problèmes peuvent être résolus avec une monnaie mieux conçue.

L’argent n’est qu’une information, une façon de mesurer ce que nous échangeons, il n’a pas de valeur en lui même. Et nous pouvons en fabriquer nous-même en complément de la monnaie conventionnelle. Ce n’est qu’une question de conception.

Il n’y a aucune raison valable, pour une communauté, de rester sans argent . Être à cours d’argent quand il y a du travail à faire, revient à ne pas avoir assez de centimètres pour construire une maison. Nous avons le matériel, les outils, l’espace, le temps, la technique et l’envie de construire… mais nous n’avons pas de centimètres aujourd’hui ? Pourquoi être à cours de centimètres ? pourquoi être à court de monnaie ?

Les monnaies libres sont virtuelles et personnelles. Chaque communauté, réseau ou entreprise peut créer son propre argent libre. libre comme dans liberté d’expression, radical libre, librement disponible mais pas gratuit comme dans déjeuner gratuit ou tour gratuit. Vous ne l’avez pas pour rien. (NdT : Le classique problème de traduction en anglais de l’adjectif free)

La monnaie libre doit être méritée pour être respectée. Quand vous l’émettez, vous êtes obligé de l’honorer. Votre monnaie est votre parole : une question de réputation dans votre communauté.

La monnaie libre est une monnaie plate (NdT : ou neutre pour flat). Elle ne confère aucun pouvoir à l’un sur l’autre, on ne fait qu’un avec l’autre. Pas de problème d’exploitation, quand vous possédez votre propre monnaie, vous ne pouvez pas être acheté ou vendu facilement. Vous pouvez choisir ce que vous voulez faire pour gagner votre argent. Il n’y a pas de monopole, tous les systèmes co-existent dans le même espace. Plus plate que plate, la monnaie libre est super plate.

La monnaie libre est virtuelle et infinie. Les objets physiques existent dans l’espace et le temps (ce qui les rend limités), en nombre, en masse, en lieu et place. Les objets virtuels n’existent pas et n’ont pas a respecter de telles limites.

Tout est possible dans l’espace de la monnaie virtuelle, sous toutes les formes. Il n’est question que de mettre au point un système de notation pour ceux qui consentiraient à l’utiliser : l’argent n’est qu’un accord social.

Bien entendu, un système ne marchera en tant que monnaie que s’il est bien conçu. Un système de notation que personne ne veut utiliser n’est pas une monnaie valable. Aussi, bien qu’aucune limite aux monnaies ne puisse être pensée, toutes ne vont pas fonctionner.

C’est nous qui créerons la nouvelle monnaie qui fonctionnera, en quantité suffisante pour satisfaire nos besoins, et dans un contexte ouvert afin que chacun puisse contribuer et être reconnu. La monnaie libre circulera dans les réseaux et communautés qu’elle sert, complètement légale et virtuellement libre, par conception.

Nous pensons que les problèmes venant de la monnaie conventionnelle peuvent être résolus avec un système de monnaie libre.

  • Où la monnaie conventionnelle est rare et chère, la nouvelle monnaie existe en quantité suffisante et est libre.
  • Où la monnaie conventionnelle est créée par des banques centrales, la nouvelle monnaie vient de nous, comme des promesses de rachat : notre monnaie est notre parole.
  • Où la monnaie conventionnelle se propage avec inconstance, dans et hors de nos communautés, créant des dépendances nuisibles à l’économie, la société et la nature, la nouvelle monnaie complémentaire circule en permanence, encourageant le commerce et les échanges.

Donc, réglons le problème de l’argent et, pour les autres dangers menaçant notre monde, voyons ce qu’il adviendra.

Imaginons simplement…

  • Imaginons avoir l’argent nécessaire pour subvenir à tous nos besoins.
  • Imaginons une société et une économie fonctionnant sans les problèmes monétaires courants de pauvreté, d’exploitation, de sans-abris, de chômage, de peur et d’angoisse.
  • Imaginons un monde où chacun pourrait travailler et payer, travailler et jouer.
  • Imaginons un air sain, une eau et une nourriture saine pour tout le monde.
  • Imaginons une société humaine vivant en équilibre avec l’environnement.

Trop beau pour être vrai ? Ou peut être pas ? Peut-être cela mérite-t-il d’être vérifié ?

Ce sont nos convictions à propos de monnaie libre, nos idées de développement d’un système de monnaie libre, et notre intention d’agir maintenant pour mettre en œuvre nos convictions…nous vous invitons à adhérer.

Cette déclaration ne s’adresse pas à tel individu ou tel organisme. Les déclarations n’appartiennent pas à une personne ou une entité et ne sont en rien prévues pour servir les intérêts particuliers d’un individu ou d’une organisation.

Le but du manifeste de la monnaie libre s’auto-détermine : il est inhérent à son contenu.

  • Il n’est pas négocié, personne ne vote pour lui.
  • Il n’est ni une question d’opinion ni une proposition politique.
  • Sa validité est basée sur le sens interne créé et le sens externe généré…

Les concepts de monnaie libre n’appartiennent à personne.

Le manifeste est une série ouverte d’idées : les concepts sont là pour être étendus, développés, affinés. Nous vous invitons à adhérer.

Le manifeste est un document actif.

  • C’est un constat de preuves vérifiables : il y a des problèmes avec l’argent.
  • C’est une question de conception : les problèmes lié à l’argent peuvent être réglés facilement.
  • C’est une déclaration d’intention : Nous sommes en train de les régler.

Amagill - CC by

Quelques liens connexes

A l’heure de la crise, le mouvement open-money propose une approche au moins aussi stimulante de l’économie que l’open-source l’est pour le monde du logiciel. L’open money, c’est la libération des moyens de paiement. Nos monnaies actuelles sont en effet en un sens des systèmes propriétaires : l’euro et le dollar sont gérés par des banques centrales qui décident de leur mode d’émission tout en se faisant rémunérer pour leur mise à disposition aux banques commerciales. Ces dernières redistribuent ces liquidités (avec effet de levier grâce aux mécanismes de l’argent scriptural et des taux de réserves obligatoires) aux agents économiques. Deux agents économiques voulant commercer avec de l’euro ou du dollar doivent donc nécessairement faire appel à un système commercial extérieur sur lequel ils n’ont aucun contrôle.

(…) Le système monétaire classique est donc bel et bien verrouillé comme l’est, dans un autre genre, un logiciel propriétaire. Partant de ce constat, l’open money reprend l’héritage des LETS (Local Exchange Trading Systems, en français SEL pour Systèmes d’échanges locaux) pour proposer des circuits monétaires alternatifs libres : il s’agit d’implanter au sein d’une communauté donnée une ou plusieurs monnaies que les membres gèrent directement. Les échanges entre membres ne sont dès lors plus soumis à des conditions extérieures à la communauté telle que la quantité et la qualité de la monnaie en circulation.

Vous avez déjà joué au Monopoly, n’est-ce pas, avec des joueurs et une banque ? Si la banque ne donne pas d’argent, le jeu s’arrête, même si vous possédez des maisons. On peut entrer en pauvreté, non par manque de richesse, mais par manque d’outil de transaction, de monnaie. Dans le monde d’aujourd’hui, 90% des personnes, des entreprises et même des États sont en manque de moyens d’échange, non qu’ils soient pauvres dans l’absolu (ils ont du temps, des compétences, souvent des matières premières), mais par absence de monnaie. Pourquoi ? Parce que, comme dans le Monopoly, leur seule monnaie dépend d’une source extérieure, qui va en injecter ou pas. Il n’y a pas autonomie monétaire des écosystèmes.

Souvent réduit à son aspect médiatique, le cinquième pouvoir est en fait une force de décentralisation : médiatique, énergétique, alimentaire… et aussi monétaire comme l’explique Jean-François dans cette vidéo enregistrée en annonce de la conférence qui se déroule sur le sujet à Mexico.

Le passage des monnaies uniques, c’est-à-dire de l’économie propriétaire et centralisée, à l’économie diverse et ouverte pourrait valoir un prix Nobel. Mais comme les autres transitions en cours, elle n’est pas l’œuvre d’une personne mais d’une multitude d’acteurs. Comme les nouveaux médias, les nouvelles monnaies existent déjà. Dans les jeux vidéo, partout sur les services d’échange en ligne, dans nos vies lorsque nous rendons services à un ami qui nous rend plus tard service…

La réappropriation de nos existences passe aussi par la réappropriation des monnaies d’échange. C’est possible à l’âge numérique. Avec ces nouvelles monnaies, la notion de croissance vole en éclat. Nous passons de l’autre côté.

Tous nos échanges ne se fondent pas sur l’argent ni sur la valeur monétaire de ce que nous échangeons, expliquent les auteurs du forum. En échange d’une photo qu’on offre à la communauté Flickr, nous n’attendons pas nécessairement de l’argent en retour, mais plutôt un sentiment d’appartenance à une communauté, une visibilité, le plaisir de faire plaisir à ceux avec qui on l’a partage… Ce type d’échanges non monétaires n’a rien de nouveau, mais la question est de savoir si nos outils numériques peuvent favoriser leur renouveau ?

(…) A une époque où nous allons vers une monnaie virtuelle, le coût marginal d’introduire de nouvelles monnaies se rapproche de zéro, explique le consultant et éditorialiste David Birch, organisateur du Digital Money Forum britannique, d’où la probabilité qu’elles se démultiplient. Dans un scénario post-monétaire, quels autres types de biens et de services pourrions-nous échanger ? Comment persuader les gens de rejoindre votre économie alternative ? Comment expliquer ses bénéfices aux autres ?

Dans son livre « The Future of Money », Lietaer fait remarquer – comme l’a fait hier le gouvernement britannique – que dans des situations comme celle que nous connaissons actuellement tout s’arrête brusquement à cause de la pénurie de liquidités. Mais il explique également qu’il n’y a aucune raison pour que cet argent doive prendre la forme de la livre sterling ou qu’il soit émis par les banques. L’argent ne consiste qu’à « un accord au sein de la communauté d’utiliser quelque chose comme moyen d’échange ». Ce moyen d’échange pourrait être n’importe quoi, du moment que tous ceux qui l’utilisent ont la certitude que tous les autres en reconnaîtront la valeur. Durant la Grande Dépression, des entreprises aux Etats-Unis ont émis des queues de lapins, des coquillages et des disques de bois comme monnaie, de même que toutes sortes de bons de papier et de jetons de bois.

Une monnaie libre consiste en un ensemble de règles et processus qui définissent l’émission, l’évolution, la circulation et la consommation d’une monnaie ouverte, suffisante, décentralisée, peer-to-peer et démocratique. Elle appartient au domaine public tout comme les logiciels ou les productions intellectuelles du logiciel libre. Elle est conçue, développée, testée, documentée et mise en circulation de manière collaborative, chacune de ses parties pouvant être transformée et améliorée par quiconque. Les monnaies libres sont désignées sous le terme d’Open Money en anglais, suivant les travaux de Michael Linton et Ernie Yacub à l’origine de cette vision.

Notes

[1] Crédit photos : Jessica Shannon (Creative Commons By-Sa) – AMagill (Creative Commons By)




Luc Viatour – Photographe

Luc Viatour - CC by-saJe ne me souviens plus pourquoi je suis tombé, il y a quelques jours de cela, sur le site du bruxellois Luc Viatour. Était-ce à cause de GIMP ? de la qualité de ces photographies ? des licences libres de ces mêmes images ? de son implication dans Wikipédia ?

Toujours est-il que j’ai eu envie d’entrer en contact avec lui pour lui proposer une courte interview par mail interposé. Et comme vous pouvez vous en rendre compte ci-dessous, il a fort gentiment accepté 😉

Entretien avec Luc Viatour

Bonjour, pourriez-vous vous présenter en quelques mots. On trouve la mention « photographe » sur votre site. En avez-vous fait votre métier ?

Je suis Belge, IT Manager pour une société d’édition. Plus spécialisé dans l’IT pré-presse et impression. Je suis aussi partiellement photographe[1] salarié pour cette entreprise.

Sur votre page utilisateur de Wikipédia, on peut lire « Passionné par les logiciels libres utilisateur de GNU/Linux avec la distribution Ubuntu ». Pourriez-vous nous en dire plus ?

Luc Viatour - CC by-saJ’ai découvert Linux en 1999 suite à des problèmes avec des serveurs Windows. Cela ma intéressé et j’ai rejoint un groupe d’utilisateurs de Linux Belge le BxLUG.

J’ai donc rapidement passé les serveurs du boulot sous Linux Debian. La suite en 2000/2001 je suis passé sous Debian pour mon ordinateur personnel. Rapidement les 3/4 des postes clients au boulot sont passé sous Linux. Nous somme maintenant à 90% sous Linux (Ubuntu pour les clients et Debian pour les serveurs). Je n’envisage même plus autre chose personnellement. Le plus dur pour moi ce fut le passage après plusieurs années de Photoshop à GIMP.

Est-ce que c’est cette passion pour les logiciels libres qui vous a incité à placer vos images sous licence libre ?

Oui l’idée du partage libre m’a séduit doucement…

Que pensez-vous de la pétition « Sauvons la photographie : Pour que la création visuelle continue d’exister et que les Auteurs Photographes puissent continuer à produire des photographies » ? Ne participe-t-elle du même mouvement de crainte et de repli qui caractérise actuellement l’industrie du disque et du cinéma ?

Luc Viatour - CC by-saUn photographe au début de la photographie était un artisan qui vendait un service. Il passait dans les rues faire des photos des passants et vendait son travail pas des droits d’auteur. Je suis pour des images libres qui servent à faire connaître son travail et une rémunération pour un service ou une commande.

Je pense que les droits d’auteurs deviennent invivables, je râle tous les jours de ne pas pouvoir faire des photo d’un bâtiment et les publier car l’architecte n’est pas mort depuis plus de 50 ans alors que c’est un lieu publique et que souvent le bâtiment en question est réalisé avec l’argent public ! Exemple connu en Belgique avec l’Atomium !

Par contre je suis pour le respect des licences choisies par l’auteur des photos, libres ou non ! Ce que de plus en plus de média ne respectent pas ! Les changements doivent venir des auteurs. Je comprend que certains photographes ne veulent pas publier sous licence libre, mais de là à légiférer pour interdire ou limiter les licences libres c’est je pense aller dans un mauvais sens.

Vous éditez vos images avec GIMP depuis 2005. Pourquoi l’avoir préféré à Photoshop ? par principe ? pour ses qualités intrinsèques ? Les deux ?

J’ai eu beaucoup de mal au début après cinq ans d’utilisation de Photoshop, mais voilà pour qui décide d’utiliser Linux, il n’y avait pas le choix et j’ai fait l’effort de changer mes habitudes. Maintenant lorsque je dois travailler sous Photoshop je suis perdu 😉 Comme quoi ce n’est qu’une question d’habitudes.

Plusieurs centaines de vos photographies se retrouvent sur Wikipédia. Pourriez-vous nous en dire plus. Qu’est-ce qui vous motive à participer à un tel projet ?

Luc Viatour - CC by-saJ’ai découvert le projet Wikipédia suite a une conférence au BxLUG. J’ai trouvé cela génial, mais comme je ne suis vraiment pas littéraire, je me voyais mal participer à la rédaction d’un article. Puis j’ai vu qu’il y avait des demande de documents visuels et là je me suis rendu compte que je pouvais aider le projet.

Petit à petit j’ai donc ajouté des photos qui traînaient dans des tiroirs, puis ma démarche a évolué, maintenant je fais parfois des photos volontairement pour Wikipédia. Je suis finalement très content d’avoir fait cela, j’ai énormément de retours sympathiques, bien plus que si elles étaient restées dans mes tiroirs 😉

Notes

[1] Crédit photos : Luc Viatour (GFDL – Creative Commons By-Sa)




De quelques causes réelles de l’effondrement des Majors

Hryck - CC byVoici un article d’Ars Technica qui parle d’un livre qui n’a que peu de chances d’être traduit.

Il nous a semblé pourtant intéressant de vous le proposer ici en ces temps d’Hadopi dans la mesure où la thèse est d’expliquer que la crise de l’industrie musicale cherche ses causes bien en amont du problème du « piratage » et du P2P.

N’oublions pas en effet par exemple que lorsque nous sommes passés du vinyl au CD, les prix ont plus ou moins doublé[1] alors que la part réservée aux artistes n’a elle pas bougé !

Edit : Cet article a été reproduit dans le journal Vendredi du 15 mai 2009 (image scannée).

Crever le p***** d’abcès : comment le numérique a tué la musique à gros sous

"Lancing the f***ing boil": how digital killed Big Music

Nate Anderson – 24 mars 2009 – Ars Technica
(Traduction Framalang : Olivier et Don Rico)

Dans son livre Appetite for Self-Destruction: The Spectacular Crash of the Record Industry in the Digital Age (NdT : Envie d’auto-destruction : la chute spectaculaire de l’industrie du disque à l’ère du numérique), Steve Knopper se penche sur le music business. Ars se plonge dans le livre, qui affirme que l’effondrement des majors n’est pas (essentiellement) dû au P2P.

Contrairement aux idées reçues, même les grands pontes du music business ont le sens de l’humour, comme cela transparaît souvent dans le nouveau livre de Steve Knopper, Appetite for Self-Destruction: The Spectacular Crash of the Record Industry in the Digital Age. Dans l’histoire que raconte Knopper, la cause du déclin des maisons de disques n’est pas seulement la technologie ou les programmes de partage ; c’est surtout une question de personnalités, et son livre regorge d’anecdotes dépeignant les dirigeants des majors.

En voici une que l’on trouve vers la fin du livre :

La tension autour du SDMI atteignit un pic à la fin août, à la Villa Castelletti, un somptueux hôtel dans un vignoble vallonné à une trentaine de kilomètres de Florence. Tous les cadres étaient réunis dans une cour de la villa, au loin, on entendait de temps à autre des coups de fusil destinés à éloigner les oiseaux des vignes. La réunion suivait son cours et Al Smith (Vice-président de Sony Music), comme à son habitude, était en rogne, en désaccord avec une proposition du président de session, Talal Shamoon. Finalement, Smith quitta la réunion. À peine trois secondes plus tard, un énorme Pan ! retentit. Les membres de la SDMI se regardèrent fébrilement. Shamoon dit alors du tac au tac : « Je crois qu’une place vient de se libérer chez Sony Music ».

C’est amusant, mais aussi assez navrant – pas à cause des oiseaux et des fusils, mais parce que cette réunion se tenait dans le cadre de l’extrêmement coûteuse Secure Digital Music Initiative, que les majors ont initiée en 1998 pour coller des DRM sur la musique. Ces grandes réunions se sont tenues partout dans le monde (dans des lieux comme la Villa Castelletti qui sont loin… d’être donnés) pour finalement accoucher d’un procédé de tatouage numérique soi-disant "inviolable". Le groupe a alors lancé un concours et invité des équipes à cracker SDMI ; le professeur d’informatique Ed Felten a rapidement mis à mal quatre procédés de tatouage numérique différents. La SDMI la ensuite menacé pour le dissuader de rendre ses résultats publiques, le professeur a alors riposté en les attaquant en justice, et pour finir toute l’affaire a été finalement abandonnée. Tout comme la SDMI.

Si l’industrie du disque avait abordé la musique numérique comme elle a abordé le CD, sans cette obsession pour les protections anti-copies, en acceptant un nouveau format et en amassant de l’argent à la pelle, elle se porterait peut-être encore pour le mieux. Mais l’industrie en a décidé autrement, et, comme le raconte Knopper, elle en a payé le prix.

Bienvenue dans la jungle

L’industrie du disque n’est pas une industrie comme les autres et ne l’a jamais été. Prenons par exemple, juste pour illustrer, une anecdote à propos du label Casablanca dans les années 70 :

Danny Davis, le gars qui s’occupait de la promo, se souvient d’une fameuse discussion téléphonique avec un programmeur radio pendant qu’un collègue, muni d’un club de golf, détruisait tout sur son bureau avant d’y mettre le feu, et ce n’était pas une hallucination due aux drogues.

« On pouvait s’attendre à tout, chez Casablanca », raconte Bill Aucoin, qui était alors manager du groupe de rock le plus connu chez Casablanca, KISS. « Nos premiers bureaux étaient en fait une maison avec un cabanon à côté de la piscine. Dans ce cabanon, à n’importe quelle heure du jour ou de la nuit, que vous fussiez promoteur de disque ou DJ, vous pouviez vous envoyer en l’air quand vous le vouliez. »

L’industrie a appris à frapper des hits (et donc de l’argent) dans les années 60 et 70, mais c’est le CD qui a fait des maisons de disque les monstres que l’on connait. Knopper consacre la moitié de son livre à expliquer le boom du CD, et n’évoque Napster qu’au bout de 113 pages. C’est parce que, de son point de vue, on ne peut comprendre la chute des labels à l’ère de la distribution numérique qu’en étudiant le précédent changement de format majeur et les énormes profits qu’il a apportés à l’industrie.

Si vous avez suivi Battlestar Galactica récemment, ou si vous lisez Nietzsche, vous connaissez les théories traitant de la nature cyclique de l’Histoire, et c’est sous cet angle que Knopper présente son histoire. À l’arrivée du CD, nombreux furent les dirigeants des maisons de disque à le détester. L’un d’entre eux raconte, même maintenant : « Je pensais que (les ingénieurs qui l’avait produit) aurait pu trouver un moyen d’éviter le piratage ».

Mais avec du recul, ces petits disques de plastique ont été une véritable mine d’or. Les gens ont adoré ce nouveau format, et nombreux furent ceux qui rachetèrent toute leur collection en CD, et les prix de la musique enregistrée grimpèrent en flèche. Comment l’industrie a-t-elle répondu à cette aubaine ? En entubant les artistes.

Knopper raconte comment les labels ont écrit de nouveaux contrats pour ce nouveau format, des contrats où figuraient des « réductions d’emballage » et des « indemnités de marchandise gratuite » plus élevées. En plus de ces déductions, les taux de royalties touchés par les artistes ont été réduits. « Après que les labels ont inventé ces nouvelles déductions », ajoute Knopper, « l’artiste moyen touchait 81 cents par disque. À l’époque des vinyles, les artistes touchaient un peu plus de 75 cents par disque. Donc les labels vendaient les CD huit dollars plus cher que les vinyles, mais les artistes ne gagnaient que six cents de plus par album. »

Ces pratiques ont alimenté un boom du CD qui a duré de 1984 à 2000, date à laquelle le sol a commencé à se dérober sous les pieds de l’industrie. Après deux décennies de musique à prix d’or, et d’investissement minimum pour des singles de bas-étage, les labels se sont engraissés en pondant à la chaîne des albums ne contenant que deux tubes. Les autres chansons pouvaient être médiocre, mais les fans qui cherchaient un tube particulier achetaient l’album quoiqu’il arrive (j’en veux pour exemple le fait que j’ai un jour eu en ma possession un exemplaire de l’album Tubthumper de Chumbawamba).

Le succès de Napster a bien montré à l’industrie du disque que le nouveau format majeur était arrivé. Avec tout le blé qu’ils s’étaient fait lors du précédent changement de format, on aurait pu croire que l’industrie serait enchantée de voir débarquer un nouveau système à même de faire consommer plus de musique à plus de fans encore plus vite. Leur priorité numéro 1 aurait dû être de faire de la musique numérique leur nouveau CD, mais ça ne s’est pas passé comme ça. L’industrie a simplement souhaité la mort du numérique.

Une spirale infernale

Le nombre d’interviews que Knopper a réalisées pour le livre est impressionnant ; elles lui permettent de mettre à nu les personnalités qui se cachent derrière l’industrie du disque. Par conséquent, il a aussi à sa disposition de nombreuses anecdotes aussi obscures qu’instructives, comme celle du dirigrant de Liquid Audio (vous vous souvenez de ça ?), Gerry Kearby. Kearby voulait créer l’anti-Napster, un distributeur de musique en ligne légal, qui utiliserait donc des DRM. Mais au moment de négocier avec les labels, personne n’a vraiment voulu s’engager.

Kearby raconte à Knopper l’instant où il a compris que ça ne marcherait jamais. « Un jour, dans un moment de pure sincérité, (un représentant de Sony) m’a dit, « Écoute Kearby, mon rôle, c’est de te couler. Nous ne voulons pas que tu réussisses, à aucun prix. » Certains étaient plus curieux que les autres, pas de doute là-dessus. Mais, au fond, on aurait dit des vendeurs de carrosses cherchant à repousser l’avènement de la voiture aussi longtemps que possible. »

Un des défauts de ce livre, c’est que cette triste histoire d’incompétence numérique est déjà largement connue. Appetite for Self-Destruction n’apporte rien de nouveau pour ceux qui suivent les sites comme Ars Technica. En voici un résumé : après l’affaire Napster, les labels ont commencé à faire joujou en traînant les pieds avec leurs propres services tout pourris (si je vous dis PressPlay ?) mais ne se sont jamais sérieusement mis à la distribution numérique. Il a fallu que Steve Jobs et l’iPod propulsent Apple aux commandes, une position qui leur a permis de lancer l’iTunes Music Store avec le contenu des maisons de disques et d’offrir les chansons pour 1$. Les DRM, que les labels ont imposés, ont assis la position de leader d’Apple sur le marché de la musique aux USA (ils refusaient de mettre leur système Fairplay sous licence, et l’iPod était le lecteur le plus vendu). Les labels n’ont compris que tardivement ce qui s’était passé, après quoi ils ont tenté de mettre des bâtons dans les roues d’Apple en permettant à des magasins comme Amazon de vendre de la musique sans DRM. Il parle aussi un peu de Kazaa, du fiasco que fut le rootkit de Sony BMG, et de la futilité de la campagne de poursuite lancée par la RIAA.

Mais pour l’essentiel des ces informations, on les trouve ailleurs, et pas seulement sous forme d’articles sur les différents blogs ou sites d’information qui ont couvert les évènements. Des auteurs comme Steven Levy dans le livre The Perfect Thing (iPod) ou Joseph Menn dans All the Rave (Napster) abordent les mêmes sujets, mais de manière bien plus détaillée.

Mais même si Appetite for Self-Destruction ne nous sert essentiellement que du réchauffé, ce qui le différencie, c’est l’accent qu’il met sur les personnes, un aspect trop souvent ignoré par les articles techniques. Après lecture, vous n’éprouverez certainement aucune compassion pour les maisons de disque, mais vous comprendrez mieux les grands pontes qui tiraient les ficelles, et les choix qu’ils ont fait à la lumière de leur propre histoire dans l’industrie de la musique.

Knopper réussit aussi très bien à établir un parallèle entre l’épisode Napster/iTunes/P2P et les grandes années du CD (même s’il en résulte un chapitre long et parfois fastidieux sur les boys band qui semble secondaire par rapport au sujet traité). C’est délibéré, et il le fait pour étayer sa propre thèse comme quoi la majorité des problèmes que rencontrent les maisons de disques avec la musique dématérialisée prennent leurs racines dans ces deux décennies passées à s’engraisser sur les ventes de CD. Ils n’étaient tout simplement pas prêts ou pas désireux de s’adapter à un nouveau monde où la musique s’achète à la carte et où les morceaux sont moins chers.

Knopper cite Robert Pittman, co-fondateur de MTV. « Voler de la musique, ce n’est pas tuer la musique », d’après Pittman. « Quand je discute avec les gens de l’industrie de la musique, ils admettent pour la plupart que le problème est surtout qu’ils vendent des chansons et plus des albums. Le calcul est vite fait. »

« Je me suis rendu compte que dans le milieu, nous étions tous à côté de la plaque », confiait Barney Wragg, cadre chez Universal après avoir quitté le label en 2005 (Wragg est entré l’année suivante chez EMI comme responsable de la musique numérique).

Et James Mercer, chanteur du groupe indépendant the Shins, y va encore plus franchement. « Vous voyez tous ces articles à propos de la débacle de l’industrie du disque », dit-il. « Quand on se penche sur toutes les erreurs commises, c’est un peu comme crever ce putain d’abcès et le désinfecter. Merde, c’est vraiment pas une catastrophe pour les groupes. »

Le piquant de ces citations et l’énorme travail d’interview réalisé font de Appetite for Self-Destruction une lecture passionnante. Pas grand chose de neuf pour les inconditionnels de technologie ou les fanas de droit, mais il résume bien quarante ans de personnalités et d’histoire de l’industrie de la musique pour qui veut comprendre comment l’industrie en est arrivée là.

Notes

[1] Crédit photo : Hryck (Creative Commons By)




Largage de liens en vrac #14

Azalea Long - CC byOn ne change pas une formule qui gagne ! Voici donc le dernier numéro du mag des liens logiciels en vrac dont le pourcentage de d’informations intéressantes est impossible à évaluer tant il dépend de vos propres attentes, sachant que, il faut bien le dire, vous êtes parfois difficile à contenter.

Le deux derniers liens posent deux questions à commentaires : l’évolution de Microsoft vis-à-vis de l’Open Source et le succès croissant de l’App Store d’Apple (pour l’iPhone) qui n’est pas très « logiciel libre dans l’âme »[1].

  • The Free Culture Game : Un jeu tout à fait original. D’abord pour son thème choisi (que le Framablog connait bien) : la lutte que se livrent la free culture et le copyright, mais aussi dans ses règles du jeu puisqu’il n’y a pas vraiment de début ni de fin. Il s’agit de créer, partager et défendre les biens communs contre les privatiseurs et de libérer les consommateurs passifs du marché ! Une manière intéressante de faire prendre conscience que nous avons ici l’une lignes de fracture les plus importantes de notre époque. Le jeu est sous Licence Creative Commons By-Nc-Sa et vous en saurez plus en parcourant cet article (en français) où je l’ai découvert.
  • Penguin Blood Ninja Fiasco : Un autre jeu, beaucoup plus trivial celui-là (et dans le plus pur look premiers jeux des années 90). Vous êtes un manchot ninja et vous devez faire attention aux costard-cravates qui veulent vous faire signer brevets et contrats propriétaires. Pas très subtile mais je le signale quand-même pour faire écho au lien précédent.
  • Synergy Plus : Synergy est un logiciel bien pratique permettant de partager un même clavier/souris entre plusieurs ordinateurs (par exemple pour passer de Windows à GNU/Linux). N’étant plus mis à jour depuis 2006, il méritait bien un fork qui est plutôt une continuation en l’occurrence.
  • GMFoto : Un script php (valide xhtml et css) tout léger pour présenter vos photos sur le Web.
  • CC PDF converter : Un utilitaire Windows permettant d’accoler une licence Creative Commons à vos documents (avec logo et tout et tout) tout en les convertissant en PDF. Pratique si vous êtes par exemple resté sous World, Excel, etc. mais que vous souhaitez néanmoins participer à la culture libre en offrant ainsi la libre circulation de vos fichiers (je pense tout particulièrement aux enseignants ici).
  • XtraUpload : RapidShare & co vous connaissez ? Si oui, je préfère ne pas vous demandez pourquoi ! (sauf si, of course, il ne s’agit que de partager des ressources sous licences libres ou ouvertes) Toujours est-il qu’en voici un clone libre vous permettant d’offrir à vos visiteurs le même service mais hébergé sur vos serveurs cette fois-ci.
  • 10+ Best Firefox Addons for Security and Privacy : On ne le dira jamais assez mais l’une des grandes forces de Firefox ce sont ses extensions permettant de vous construire un navigateur sur mesure correpondant à vos besoins. Ici on s’intéresse à la sécurité et à la privacy.
  • ecoder : Un très impressionnant éditeur (texte, code, html…) en ligne. Un exemple de plus de la faculté qu’ont désormais nos applications préférées à se déporter en ligne.
  • Presto : C’est pas un logiciel libre mais comme souvent avec Xandros (auteur notamment de la distribution de base des premiers Eee PC), ça tourne autour en utilisant un noyau Linux. Il s’agit pour les utilisateurs Windows de démarrer (très très vite, en quelques secondes) non plus sur Windows mais sur… Presto justement (qui fait ici office de mini-OS) dont l’interface épurée est orientée Web (Firefox, IM, lecteur multimédia, Skype…) et bureautique (OOo). Il y aurait comme une sorte de concurrence forte en ce moment sur ce terrain-là si on pense au projet Jolicloud de Tarik Krim (qui tarde à sortir non ?) ou encore gOS. A noter que Presto n’a pas besoin de partition dédiée pour fonctionner et s’installe directement sur celle de Windows.
  • Top 10 Projects To Revive : Les dix jeux Open Source dont le développement est arrêté et que même que c’est bien dommage et que comme c’est libre ce serait bien de reprendre le code pour continuer l’aventure.
  • Midori : Un navigateur très léger et très rapide (GTK, basé sur WebKit) qui pourrait bien devenir bientôt un candidat sérieux notamment sur les netbooks où Firefox patine un peu parfois.
  • Calibre : Un e-book management utile en cette période où l’on parle de plus en plus de livres électroniques (le plus simple est d’en voir tout de suite les copies d’écran).
  • Video Monkey : N’oublions pas le Mac qui fait de plus en plus d’adeptes chez les geeks. Ici il s’agit d’un encodeur vidéo simple, libre et pratique.
  • Synapse : Un nouveau client Linux de messagerie instantanée fort bien présenté sur le site officiel. Remplacera-t-il Pidgin (ou un autre) ? LinuxFr en doute un peu (ps : je ne savais pas que les terminaisons .im existaient !)
  • MakerBot Industries : robots that make things : Nous avions dédié un billet à cette assez extraordinaire machine replicante permettant potentiellement de se fabriquer toutes sortes d’objets. Voici donc sa déclinaison industrielle créée par les auteurs même du projet Open Source. Je serais étudiant un peu bricoleur que je rêverais d’en posséder une chez moi.
  • The OpenBerry : Restons dans le hardware avec cet étonnant projet de Blackberry Open Source, juste un peu plus gros, carré et moins fonctionnel que l’original 😉

Notes

[1] Crédit photo : Azalea Long (Creative Commons By)




Linux a évolué… et vous ?

Fazen - CC byBien qu’il soit désormais prêt à partir à la conquête de nos ordinateurs, les mythes (et préjugés) autour du GNU/Linux continuent d’avoir la vie dure.

C’est ce que nous raconte ici Bruce Byfield en passant en revue une dizaine de légendes urbaines qui demanderaient à être quelque peu réactualisées.

Et de se demander en conclusion, qui de GNU/Linux ou de l’utilisateur est le moins préparé à ce que cette rencontre ait bel et bien lieu[1].

9 mythes sur GNU/Linux

The GNU/Linux Desktop: Nine Myths

Bruce Byfield – 16 mars – Datamation
(Traduction Framalang : Olivier et Don Rico)

Mac OSX est-il prêt pour le bureau ? Personne ne se pose la question. L’adopter demande pourtant de s’adapter à de nouvelles habitudes, de nouveaux outils et à un nouveau bureau, mais peu importe. On dit qu’il est facile d’accès, et il est soutenu par une entreprise propriétaire, tout comme Windows.

Pour GNU/Linux, en revanche, c’est une autre histoire. Depuis des années, les éditorialistes et les blogueurs nous expliquent que GNU/Linux n’est pas prêt pour le grand public et malgré les progrès accomplis au cours de ces dix dernières années, les arguments n’ont pas beaucoup évolué. Ils sont même de plus en plus obsolètes, quand ils ne reflètent pas une profonde ignorance. En fait, j’ai souvent l’impression que tous ceux qui répandent ces poncifs à propos des insuffisances de GNU/Linux ne l’ont jamais essayé.

Les critères de facilité d’utilisation sont souvent subjectifs. Ce que sera un bogue au yeux de l’un sera une fonctionnalité aux yeux d’un autre : par exemple, devoir ouvrir une session d’administrateur pour installer un programme est un désagrément pour les utilisateurs les moins expérimentés, tandis que les connaisseurs y voient un gage de sécurité.

Ce qu’on reproche souvent à GNU/Linux, aussi, c’est de ne pas être pas exactement comme Windows. On passera sur le fait que, s’il n’existait aucune différence entre les deux, on n’aurait aucune raison de vouloir changer de système d’exploitation. Quant à ceux qui s’attendent à utiliser un nouveau programme ou un nouveau système d’exploitation sans période d’adaptation, ils sont sacrément gonflés. Aux yeux de certains critiques, le simple fait que GNU/Linux ne corresponde pas en tout point à ce qu’ils connaissent déjà suffit à le vouer aux gémonies.

Viennent ensuite les critiques à géométrie variable. Par exemple, certains déclarent que GNU/Linux ne sera jamais prêt pour le grand public tant qu’il n’offrira pas certaines fonctions, puis quand on leur montre qu’elles existent ou qu’elles sont en développement, ils changent de cible et insistent sur le caractère indispensable d’une autre fonction. On ne peut contrer ce genre d’argument, car les critères qui les sous-tendent ne sont jamais les mêmes.

Enfin, pour compléter le tableau, on trouve les arguments qui se contredisent eux-mêmes car ils sont faux, incomplets, ou déformant la réalité. Voici neufs des contre-vérités les plus répandues.

1. Les trop nombreuses distributions compliquent la tâche des développeurs

Voilà une affirmation populaire chez les concepteurs de logiciels pour expliquer pourquoi ils ne proposent pas de version de leur produit pour GNU/Linux. Ils affirment en effet que toutes les distributions n’ont pas la rigueur du Linux Standards Base et qu’elles utilisent une hiérarchisation différente. Les distributions, qui plus est, utilisent toutes sortes de paquets, ce qui signifie qu’un support universel implique la création de paquets dans différents formats.

Ces problèmes existent bel et bien, mais cette affirmation exagère les problèmes qui en découlent. Des installeurs universels comme InstallBuilder et Install Anywhere proposent aux concepteurs des installations similaires à ceux de Windows. En ce qui concerne la création de différents paquets, si ça ne pose pas de problème à des projets communautaires, pourquoi est-ce que ça devrait en poser à une entreprise spécialisée ?

Mais au fond, le plus grave problème posé par cet argument, c’est qu’il tente d’imposer un point de vue « à la Windows » à un système existant. Dans GNU/Linux, les créateurs d’applications ne prennent pas en charge les différentes distributions ou formats de paquets, c’est la distribution qui s’en charge.

Si ça fonctionne, c’est parce qu’avec les logiciels libres la distribution peut apporter les changements nécessaires au bon fonctionnement du logiciel. Ça ne pose problème qu’aux concepteurs de logiciels propriétaires. S’ils ne souhaitent pas se conformer au système et libérer leur code c’est leur choix, mais alors qu’ils ne se plaignent pas que le système n’est pas adapté.

2. Aucun outil de migration n’est disponible

Effectivement, ça ne ferait pas de mal à GNU/Linux s’il existait un assistant pour importer depuis Windows les e-mails, les marques pages dans le navigateur, les canaux IRC et autres informations personnelles. Mais on peut faire le même reproche à Windows. Au moins GNU/Linux co-existe avec les autres systèmes d’exploitation et peut lire leurs formatages spécifiques, aussi peut-on importer manuellement certaines de ces informations.

3. Le matériel n’est pas reconnu

Par le passé, le support matériel sur GNU/Linux laissait à désirer. Et dans la plupart des cas, on devait la reconnaissance du matériel aux efforts de la communauté, et non aux fabricants, mais cela restait insuffisant.

Au cours de ces trois ou quatre dernières années, cependant, les pilotes mis au point par la communauté se sont améliorés et les fabricants proposant des pilotes pour GNU/Linux, et plus seulement pour Windows et Mac, sont plus nombreux. Les pilotes des fabricants ne sont pas toujours libres, mais ils sont gratuits.

Aujourd’hui, les incompatibilités pour le matériel commun comme les disques durs, les claviers ou les cartes ethernet, si elles ne sont pas encore éradiquées, restent rares. Les secteurs qui posent plus problème sont ceux des périphériques comme les scanners, les imprimantes, les modems ou les cartes réseau sans fil. On peut néanmoins se couvrir en adoptant de bonnes pratiques comme acheter une imprimante postscript, qui fonctionnera forcément avec le pilote postscript générique, ou en achetant des produits Hewlett-Packard, qui prend en charge l’impression sous GNU/Linux depuis très longtemps.

Certains vont même jusqu’à dire que GNU/Linux, qui conserve en général une compatibilité descendante, reconnait en fait plus de matériel que Windows. Je n’irai pas jusque là, mais, globalement, les problèmes de pilotes sous GNU/Linux semblent être à peine plus fréquents que ceux que j’ai pu rencontrer avec différentes versions de Windows.

De nos jours, on peut même s’affranchir complètement du problème de la reconnaissance du matériel en achetant des ordinateurs neufs préinstallés avec GNU/Linux par des entreprises comme Acer ou Dell.

4. La ligne de commande est indispensable

Cette affirmation est à la fois un souvenir du passé, à l’époque où la ligne de commande sur GNU/Linux était presque indispensable, et des réticences bien compréhensibles des utilisateurs de Windows à utiliser la ligne de commande DOS. C’est pourtant tout à fait faux.

Le bureau sur GNU/Linux est largement opérationnel depuis plus de dix ans. De nos jours, les dernières versions de l’environnement GNOME n’ont pas à rougir de la comparaison avec Windows et, dans ses dernières versions, KDE est l’un des environnement les plus novateurs. Même les outils d’administration sont bien présents sur le bureau.

On peut certes utiliser la ligne de commande, et nombreux sont les utilisateurs qui préfèrent y recourir, surtout les administrateurs, car c’est souvent le plus efficace. Mais pour l’administration ou le travail quotidiens, l’utilisation des lignes de commande relève des préférences personnelles, pas d’une obligation. Elles sont aussi bien plus simples d’utilisation que les lignes de commandes du DOS.

5. Il n’y a pas de logiciel

Il faut en général comprendre par là qu’on ne retrouve pas les logiciels habituels de Windows : pas de MS Office, d’Internet Explorer ou de Photoshop. Mais une simple recherche succincte permet de découvrir des logiciels équivalents qui correspondent plus ou moins, à condition de prendre le temps de s’y adapter.

Neuf fois sur dix, lorsque l’on étudie d’un peu plus près quelqu’un qui critique l’un de ces équivalents (The GIMP par exemple) ou affirme qu’il n’est pas prêt pour un usage professionnel, on se rend compte que cette personne n’a pas exploré le programme ou a été désarçonné par le changement de nom ou d’emplacement dans les menus d’une fonction. Souvent, celui qui se plaint n’a même jamais essayé, ou essayé récemment, le programme qu’il critique.

Pour un usage bureautique ou en productivité, GNU/Linux offre de nos jours une solution complète. Beaucoup de projets de logiciels libres fonctionnant sur différentes plateformes, il se peut même que vous ayez déjà utilisé ces applications sous Windows, comme Firefox ou OpenOffice.org. Il reste du chemin à parcourir, par exemple dans les jeux ou dans les applications spécialisées comme la reconnaissance optique de caractères (ROC). Le problème, ce n’est pas que les alternatives n’existent pas, mais plutôt qu’elles se développent trop lentement.

6. L’apparence des logiciels laisse à désirer

Il y a encore quelques années, sur GNU/Linux, la fonctionnalité primait sur l’ergonomie. Mais puisque les fonctionnalités de bases n’étaient pas toutes présentes, il pouvait difficilement en être autrement.

Mais tous les logiciels les plus couramment employés ont mûri et s’attaquent désormais à l’ergonomie. Une modernisation de l’interface ne ferait pas de mal à certains, mais la plupart ne sont pas pire que leurs équivalents sous Windows – honnêtement, si quelqu’un peut supporter une plateforme où Outlook et Windows Media Player sont jugés acceptables, il ne peut vraiment pas se plaindre de l’apparence des logiciels sur une autre plateforme.

7. Le service est inexistant

C’est à l’ère d’Internet que GNU/Linux a vraiment commencé à sortir des cercles d’initiés. À l’époque, le manque de service posait problème – si l’on parle de contrats de services traditionnels en tout cas. Mais, même il y a dix ans, il était déjà possible de signer un contrat de service avec une entreprise comme Red Hat.

De nos jours, le choix de l’assistance traditionnelle est bien supérieur. Si vous ne souhaitez pas faire appel à un fabricant de logiciel qui propose une distribution, vous trouverez sans doute un fournisseur de service proche de chez vous dans n’importe quelle grande ville d’Europe ou des États-Unis.

Mais il existe depuis toujours une meilleure source d’information : les listes de diffusion des projets communautaires ou d’entreprises. Même si ces listes offrent une assistance différente, elles ne sont néanmoins pas inférieures. Non seulement elles sont gratuites, mais ceux qui les fréquentent sont souvent plus prompts à répondre et vous fourniront une assistance plus détaillée que n’importe quel service payant auquel j’ai eu affaire.

8. Les options sont trop nombreuses

Comparé à Windows, GNU/Linux est un système d’exploitation qui offre bien plus de choix. Comme aucune entreprise ne le conçoit, il est plus libre dans sa réalisation. Comme ses développeurs pensent beaucoup en individualiste, ils offrent aux utilisateurs les moyens de faire les choses à leur façon.

Par conséquent, contrairement à Windows, GNU/Linux existe en plusieurs distributions, propose plus d’un environnement de bureau, quasi rien n’est unique. C’est ce que ses utilisateurs préfèrent.

Je vous accorde que les options, sans parler de leur nom ou des acronymes, peuvent dérouter les nouveaux venus. La confusion, cependant, découle surtout du contraste avec Windows. Pour l’utilisateur, au fond, les différences entre les distributions les plus populaires ne sont pas si énormes.

Une petite recherche vous permettra de faire le choix le plus adapté, et dans tous les cas l’installation se fait simplement, avec une intervention minimale de votre part, assistée qui plus est. Une fois la distribution installée, libre à vous de profiter de toutes les options pour vraiment personnaliser votre bureau ou de vous satisfaire des réglages par défaut et de ne modifier que le fond d’écran.

En d’autres termes, les options sont destinées aux utilisateurs avancés. Les débutants peuvent très bien les ignorer.

9. L’installation des logiciels est trop compliquée

Ce mythe se présente sous deux formes. Dans la première, celui qui se plaint parle de compilation à partir du code source (je ne vois pas où est la difficulté de décompresser une archive et de suivre les instructions pour taper les commandes configure, make et make install, mais admettons que l’inconnu puisse en effrayer certains). Dans la deuxième, les gens se plaignent de ne pas pouvoir normalement se rendre sur le site du fabricant de matériel ou de logiciel pour télécharger un binaire à exécuter pour l’installer, comme on le fait sous Windows.

Ceux qui expriment ces griefs n’ont pas compris que GNU/Linux fonctionne différemment. Chaque distribution entretient ses propres dépôts de logiciels, tous prêts à l’emploi pour une distribution précise. Sauf besoin particulier, tous les logiciels dont qu’il vous faut se trouvent dans ces dépôts, et il ne vous reste plus qu’à utiliser l’installateur graphique ou son équivalent en ligne de commande.

Si vous vous en tenez aux dépôts de votre distribution, l’installation de logiciels sous GNU/Linux est en fait largement plus simple que sous Windows. Vous n’avez pas besoin d’aller au magasin, tous les logiciels sont disponibles en ligne. Vous n’avez pas besoin de payer, de vous enregistrer ni de les activer.

S’il vous faut soudain un nouveau logiciel pour une tâche précise, vous pouvez l’identifier et l’installer en quelques minutes. Si vous voulez tester plusieurs alternatives, libre à vous. Pour bénéficier de ce confort, il suffit de prendre le temps de comprendre le fonctionnement du système d’exploitation plutôt que de partir bille en tête en vous appuyant sur des « on-dit » ou sur vos connaissances antérieures.

GNU/Linux et le bureau : les vraies raisons ?

De tels arguments en disent plus long sur leurs auteurs que sur GNU/Linux. Au pire, ce sont des signes d’ignorance des dernières avancées de GNU/Linux, au mieux, c’est un ensemble de préjugés ou d’habitudes.

Mais alors, concrètement, pour quelles raisons GNU/Linux n’est-il pas plus populaire ? L’argument classique du monopole est certainement la première raison. Puisque Windows est pré-installé sur la plupart des ordinateurs et que vous devez faire l’effort de chercher pour trouver des ordinateurs avec GNU/Linux pré-installé, le problème semble assez évident.

Mais la résurrection d’Apple au cours de ces cinq dernières années laisse à penser qu’un monopole n’est pas inattaquable. La raison est peut-être plus simple encore. Malgré leurs plaintes, les gens sont habitués à Windows et ne savent même pas que GNU/Linux ou d’autres alternatives existent. Ils ne l’ont jamais testé pour de bon et se reposent sur des on-dit ou sur l’avis du copain d’un copain d’un ami qu’il leur est impossible d’évaluer.

Les prétextes qu’ils avancent montrent très clairement qu’ils ne connaissent pas GNU/Linux. Ils ont beau dire que GNU/Linux n’est pas prêt pour eux, l’inexactitude de leurs arguments laisse plutôt à penser qu’en fait, ce sont eux qui ne sont pas prêts pour GNU/Linux.

Notes

[1] Crédit photo : Fazen (Creative Commons By)